You are on page 1of 156

´ Algebra Lineal

Jorge Luis Arocha

II

Cap´tulo 1 Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ı 1.1 Operaciones binarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Conmutatividad (3). Asociatividad (3). Elementos neutros (4). Elementos inversos (4). ´ Distributividad (5). El algebra “abstracta”(5).

1 1 6 10 14 16 18 21

1.2 N´ meros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . u
Naturales (6). Enteros (6). Grupos (7). Anillos (7). Racionales (8). Campos (8). Reales (8). Complejos (9).

1.3 Morfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Morfismos de grupos (10). Morfismos de anillos (11). Isomorfismos (12). Composi­ ci´ n de morfismos (13). o

1.4 Campos de restos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
El anillo de los enteros m´ dulo n (14). Dominios de integridad (14). El campo de los o enteros m´ dulo p (15). o

1.5 Campos primos. Caracter´stica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ı
Subcampos (16). Campos primos (16). Caracter´stica (18). ı

1.6 Aritm´ tica de campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . e
M´ ltiplos y exponentes enteros (18). Asociatividad general (18). Distributividad gene­ u ral (19). F´ rmula multinomial (19). La expansi´ n de ΠΣαij (20). o o

*1.7 Polinomios sobre campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Suma y producto de polinomios (21). Divisi´ n de polinomios (22). Factores y raices o (22). Ideales de polinomios (23). Unicidad de la factorizaci´ n en irreducibles. (25). o Desarrollo de Taylor (26).

*1.8 Polinomios complejos. Teorema de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Forma polar. Igualdad de Moivre (27). Continuidad (28). L´mite de sucesiones com­ ı plejas (30). Teorema de Gauss (30).

27 32 33 37 37 38

*1.9 Factorizaci´ n de polinomios complejos y reales . . . . . . . . . . . . . . . . . . . . . . . . o
Caso Complejo (32). Caso real (32).

*1.10 Campos de fracciones. Funciones racionales . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Campos de fracciones (34). Funciones racionales (35).

Cap´tulo 2 Espacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ı 2.1 El plano cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Definici´ n y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o
El espacio de n­adas Kn (39). El espacio de polinomios K [x] (40). El espacio de sucesiones KN (40). El espacio de series K [[x]] (40). El espacio de funciones KN (40). El espacio de N­adas KN (41). El espacio de N­adas con soporte finito K{N } (41). Subcampos (42). El espacio de N­adas de vectores EN (42). El espacio de NM­ matrices KN M (42). El espacio de tensores (43).

2.3 Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

44

. . . . . . . . . . . . . .1 Permutaciones . . . . . . . . . . Equicardinalidad de las bases (68). . . . . .2 Operaciones entre transformaciones lineales . . . . . . . . . . . . . . . 3. . . Suma directa (60). . . . . . . . . . . Extensiones y restricciones (75). . . . . . . . . . . .8 El caso de dimensi´ n infinita . . Cap´tulo 3 Transformaciones lineales . . . . . . . . . . Dimensi´ n (51). . . . . . El algebra de operadores lineales (74). . . . . . Suma de conjuntos y subespacios (58). . . . . . . . . . . . . . 63 66 *2. . . . (60). . . . . . . . . F) (76). . . . . . . La matriz de una o transformaci´ n lineal (81). . . . . . . . . Subespacios afines (63). . . . . . Conjuntos linealmente independientes (48). . . . . . . . . . . . . 2. . . . El producto de matrices (79). . . . . . . 3. . . . . . Combinaciones lineales (45). . . . . . . . . . . . . . . . . . . o 91 91 . . . . . . . . . . Clasificaci´ n (55). . . . La igualdad modular (58). . . . . . Proyecciones (71). . . . . . El isomorfismo entre FN y Mor (E. . . . . . Transformacio­ o nes lineales con nucleo trivial (87). . . . . . . . . . o Isomorfismos lineales (54). . . . 69 69 72 3. . . . . . . . . . . . .4 Coordinatizaci´ n de transformaciones lineales . . Descomposici´ n de transformaciones lineales (86). . . Inmersiones (71). . . . . . . . . . . . . . El grupo alternante (93). . Cambios de base en un espacio vectorial (83). . . . . . .5 Cambios de base . . . . . .5 Clasificaci´ n de espacios vectoriales .6 El nucleo y la imagen de una transformaci´ n lineal . . . . . . . . . . Matrices o o inversas (82). . . . . . . . . . . . . . . . . 2. . . . . . . 83 86 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . o Subespacios complementarios (61). . . . . . . . . . . 75 77 3. . Isomorfismo can´ nico entre la suma y la suma directa. . . El isomorfismo con los complemen­ tarios (65). . . . . . . . . . . . . . . . Un criterio de isomorfismo (87). . . . . . . . . . . o El Lema de Zorn (66). . . . . . . . . . . . . . . . . . . . . . . . . Un cri­ terio de isomorfismo (77). . . . . . . . . . . . . . . . . . . . . . . .4 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . El grupo general lineal ´ (74). . . . . . . . . . . . . . . . . Bases can´ nicas (52). . . El espacio vectorial de las transformaciones lineales (72). . . . . . . . . Cambios de base en el espacio de operadores lineales (85). . . . . . . . . . . . . Descomposici´ n o can´ nica de transformaciones lineales (88). . . . . .6 Suma de subespacios . . . Ciclos (92). . . . . . . . Composici´ n de TLs y producto de matrices (81). Cerradura li­ o o neal (46). . Conjuntos generadores (47). . o Definiciones (86). . . . . . . . . . . . . . ı 3. . . . . . . o o 47 53 57 2. . . . . . Espacios vectoriales versus conjuntos (62). . . . . . . o El producto escalar can´ nico (79). . . . . . . . . . . 2. . . Cambios de base en el espacio de trans­ formaciones lineales (84). . . . . . . . . . . . El espacio cociente (64). . .3 Extensiones lineales . . . . . . Coordinatizaci´ n (55). . . . . . . . . . . . . .7 Espacios cocientes . . . Productos de matri­ o ces y vectores (80). . El signo de una permu­ e taci´ n (94). . . . . . . . . . . . . . . Bases (49). . . Cardinales (67). . . . . . . . . . . . Composici´ n de transfor­ o maciones lineales (73). . . Homotecias (70). .1 Definici´ n y ejemplos . . . . La transformaci´ n lineal de una matriz (80). . . o Cap´tulo 4 Determinantes . . . . . . . . . . . . . . ı 4. . . . o Imagenes de subespacios (69). . Como pensar en o o espacios vectoriales (56). . . . . . . . . . . . . . . . . Subespacios de Rn (57). . . . . . . . . . . Existencia de bases (67). . . . . . . . .IV Contenido Uni´ n e intersecci´ n de subespacios (44). . . . El grupo sim´ trico (91).

. . . . . . . . . Glosario . . . . . . . . . . . . . . . .3 Expansi´ n de Laplace . . . . . . . . . . . . . . . . . . 100 4. . . . . . . . . . . . . . . Espacios de columnas y renglones (111). . . . . . . . . . . . . . . . . . . . . . . 119 Soluciones de ejercicios selectos . . . . . . . Bases de una matriz (112). . . . . . . . .7 M´ todo de eliminaci´ n de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .5 El rango de una matriz . . . . . . . . . . . . . . . . Matrices de permutaciones (99). .6 Sistemas de ecuaciones lineales . . . . . . . . . . . V 94 4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bases. . . . a Definici´ n de los determinantes (95). . . . . . . Soluci´ n de ecuaciones matriciales. . . . rango. . . El determi­ nante de un operador lineal (107). . . Matrices no singulares (111). . . . . . . . . . . . . . . . . . . Existencia de soluciones (116). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . C´ lculo de determinantes (120). . . . . . . Teorema del rango (113). . . . Gu´a de estudio. . . . . . . . . . . . . . . . .Contenido 4. . . . . La inversa de una matriz (105). . . . . . . Permutaciones de columnas y renglones (97). . . a 107 111 4. . . . . . . . . . . . . . . . . . . . . .4 La expansi´ n generalizada de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Regla de Cramer (115). . . . . . . . . . . . . . . . . . . o 4. . . . . . . o Cambios de ´ndices (100). . . . . . . . . . . . . . El determinante del producto (98). . . . . . . . . . . . . . . . . . . .2 Propiedades b´ sicas de los determinantes . . . . . . . . . . . Ma­ o n trices con filas nulas (96). Notaciones . . Caracterizaci´ n de las bases de una matriz (114). La expansi´ n de Laplace en forma gr´ fica (103). . . . . . . . o Matrices diagonales y triangulares por bloques (109). . . . . . . . . . . . . . . El determinante de la transpuesta (97). . . . . . a nucleos y sistemas de ecuaciones lineales (121). . . . . . . Eliminaci´ n de ecuaciones o dependientes (117). . . . La expansi´ n generalizada de o Laplace en forma gr´ fica (109). La expansi´ n de un de­ ı o terminante por sus renglones (102). . . . . . . . . . . . . El nucleo y la imagen de una matriz (117). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . e o Transformaciones elementales (120). . . . . . o a Multinearidad de los determinantes (104). . . . ı 114 4. ı 125 133 143 147 . . . . . . . . . . . . . . . . Determinantes de matrices peque˜ as (95). . . . Bases del subespacio af´n de soluciones (118). El determinante de la identidad (96). . Lema de au­ mento de matrices no singulares (112). . . . o matriz inversa (122). . Complementos algebraicos (102). . . . . . . . . . .

. a esencialmente usted deja de pensar . el da˜ o a nuestra alma est´ ah´. ´ a El Diablo dice: “Yo te dar´ a ti esta poderosa maquinaria e que responder´ cualquier pregunta que tu quieras.. a Todo lo que se necesita que tu hagas es entregarme tu alma: dame la geometr´a y tendr´ s esta maravillosa m´ quina” ı a a . n a ı porque cuando usted pasa a hacer c´ lculos algebraicos.VI El algebra es la oferta hecha por el Diablo a los matem´ ticos. Sir Michael Atiyah ...

e u Sin embargo. en un cap´tulo posterior. Posteriormente. la suma resta multiplicaci´ n y divisi´ n de escalares y la multiplicaci´ n de escalares por o o o vectores. Las operaciones definidas en los espacios vectoriales son la suma y resta de vectores. como esta teor´a no depende (al menos en gran parte) del conjunto de ı escalares (y teniendo en cuenta diferentes aplicaciones a otras areas de las matem´ ticas y a las ciencias naturales) es conveniente elevar un paso el nivel de abstracci´ n y pensar que el o conjunto de escalares es un campo arbitrario K . Esto se pretende lograr por tres medios: dando la definici´ n formal. Estos espacios son estructuras algebraicas cuyos objetos son de dos tipos los vectores y los escalares. b) mcm (a.´ l objeto del algebra lineal es el estudio de los espacios vectoriales. En particular. La mayor´a de los temas estudiados en este libro no dependen del conjunto de ı escalares y el lector puede casi siempre considerar que los escalares son los reales R y que el espacio vectorial es el espacio “geom´ trico” com´ n Rn . desarrollar la a ı descomposici´ n de Jord´ n de operadores lineales. Una operaci´ n binaria es una funci´ n del producto cartesiano A×A o o en A. El primer objetivo de este cap´tulo es dar al lector un conocimiento b´ sico de lo que es ı a un campo. viendo que las reglas usuales de ı manipulaci´ n de f´ rmulas en un campo no se diferencian esencialmente de las f´ rmulas en o o o los reales y sobre todo. o a 1.1 Operaciones binarias Sea A un conjunto. Demos algunos ejemplos sencillos: 1) a + b 2) a − b 3) ab 4) a b suma resta producto divisi´ n o 5) 6) 7) 8) ab loga b mcd (a. b) exponenciaci´ n o logaritmo m´ x com´ n divisor a u m´n com´ n m´ ltiplo ı u u . dando los ejemplos fundamentales de campos. O sea. estudiaremos las principales propiedades de los polinomios con coefi­ cientes en un campo. los teoremas de descomposici´ n en factores de polino­ o mios complejos y reales ser´ n fundamentales para. estudiando o algunas propiedades (como la caracter´stica) de los mismos. es una regla mediante la cual a cualesquiera dos elementos de A se le hace corresponder un tercer elemento de A.

b. u ı ı Necesitamos subir y/o bajar adem´ s de movernos de derecha a izquierda. La integral en el recuadro a la π/4 ¡ o x derecha est´ bien definida para cualesquiera valores reales a. b) ◦ notaci´ n sufija o Las operaciones 1­3 est´ n en notaci´ n operacional y las operaciones 7­8 est´ n en nota­ a o a ´ ci´ n prejija. b y c. b 0 a sin x + b sin 2 dx a y por lo tanto es una operaci´ n binaria definida en R. b) notaci´ n prefija o funcional o a◦b notaci´ n operacional o (a. c) como el area del tri´ n­ u a gulo con lados a. o M´ s sencillos son los ejemplos de notaciones lineales 1­3. Lo que tienen en com´ n. necesitamos a dos dimensiones para escribirlas. Quiz´ sea m´ s ilustrativo. La notaci´ n sufija es util sobre todo en la programaci´ n de compiladores para o o o lenguajes de computadoras (tales como pascal o C++) ya que frecuentemente lo m´ s f´ cil a a es decirle a una computadora “toma el n´ mero a” . Ejercicio 1 ¿En cuales conjuntos las operaciones 1­8 est´ n correctamente definidas? [125] a Ejercicio 2 ¿Que es una operaci´ n unaria? De ejemplos. “toma el n´ mero b” .2 Cap´tulo 1. . es que no nos alcanza una l´nea de s´mbolos para escribirlas. Esto no es correcto formalmente. poner un ejemplo m´ s complejo a a a ¢ R de notaci´ n dos dimensional. es la variedad de notaciones usadas para represen­ tar las operaciones binarias. as´ por ejemplo la a o ı divisi´ n es una operaci´ n que no est´ definida en el conjunto de los n´ meros enteros. De una o vez. de tratar de unificar las notaciones usadas en la comunicaci´ n entre o humanos. para las no­ a taciones lineales solo hay tres posibilidades: ◦ (a. c definamos A (a. Sin o o a u embargo el lector podr´ f´ cilmente encontrar los conjuntos en los cuales estos ejemplos son a a operaciones binarias. O sea. Sobre todo. b. [125] o Ejercicio 3 Dados tres n´ meros reales a. Campos ı Lo primero que observamos de los ejemplos anteriores es que no hemos definido en cual conjunto est´ definida la operaci´ n. Sin embargo. ¿Es esta una operaci´ n ternaria en R? [125] o Lo segundo que debemos de observar. son complicadas las notaciones de la operaciones 4­6.“s´ malos” y no u u u hacerlo de otra manera. tenemos la libertad de es­ ı coger una notaci´ n unificada para las operaciones binarias abstractas que definamos. solo llevar´a a confusiones mucho peores. postularemos que siempre usaremos la notaci´ n operacional para definir operaciones o binarias abstractas.7­8. Ejercicio 4 La notaci´ n sufija para a (b + c) /2 es bc + a × 2÷ . En realidad. ¿Cual ser´ la notaci´ n o a o sufija para la expresi´ n (a + b) (x + y)? [125] o Cualquier intento.

Esta notaci´ n no requiere de la conmutatividad de la o ´ndices tienen un orden y sabemos cual elemento debe ir operaci´ n “suma” gracias a que los ı o primero y cual despu´ s. e Si tenemos que la operaci´ n es no solamente asociativa sino tambi´ n conmutativa enton­ o e ces podemos ser m´ s generosos con esta notaci´ n. A esta temprana edad es muy necesario insistir que la expresi´ n 22 es ambigua o o ¡ ¢3 3 porque 2(2 ) = 256 6= 64 = 22 . . Primero aprendemos lo que quiere decir 3 + 2. o Es m´ s. Este hecho se expresa como (2 + 3) + 5 = 2 + (3 + 5) . ¿Es 32 igual a 23 ? No. Despu´ s. polinomio. . e tempranamente en el estudio de las matem´ ticas. a ∀a. b ∈ A a◦b=b◦a Ejercicio 5 ¿Cuales de las operaciones 1­9 son conmutativas? [125] Asociatividad ¿Que quiere decir 2 + 3 + 5? ¿Acaso debemos sumar 2 + 3 y al resultado sumarle 5? ¿No ser´ que debemos sumar 2 al resultado de la suma 3 + 5? Claro. quien sabe que) le “sumamos” a u (no se sabe lo que quiere decir “suma”) un objeto b (del que tampoco se sabe mucho). Una operaci´ n binaria denotada por ◦ y definida en el con­ o junto A se dice que es asociativa si se cumple la propiedad en ∀a. a2 . la expresi´ n a+ u o b significar´ que a un objeto a (n´ mero.Secci´ n 1. gracias a ella podemos introducir la notaci´ n de la operaci´ n “re­ a o o 11 petida”. la expresi´ n a+b significa que a un n´ mero a o u a (no se sabe cual) le sumamos un n´ mero b (tampoco se sabe cual). . el manejo o algebraico de una operaci´ n se complica bastante. Los estudiantes preuniversitarios se encuentran por primera vez con la dificultad de una operaci´ n no asociativa en el caso de la operaci´ n de exponen­ o o 3 ciaci´ n. a11 entonces. b. Si tenemos 11 elementos a1 . matriz . a o . no hay ninguna diferencia a entre los dos procedimientos. c ∈ A a ◦ (b ◦ c) = (a ◦ b) ◦ c el recuadro de la derecha. Sin esta propiedad.1 o Operaciones binarias 3 Recalquemos que una operaci´ n “abstracta” no significa nada m´ s que es una operaci´ n o a o que puede ser una de muchas. . Ejercicio 6 ¿Cuales de las operaciones 1­9 son asociativas? [125] La asociatividad de una operaci´ n es una propiedad crucial. Ahora. para denotar la suma P a a1 +a2 +· · ·+a11 podemos usar la notaci´ n (mucho m´ s c´ moda) que se muestra n=1 n o a o en el recuadro a la derecha. Ser o no conmutativa es la propiedad m´ s sencilla que diferencia las operaciones binarias. Conmutatividad o ¿Es 3 + 2 igual a 2 + 3? Si. Una operaci´ n binaria denotada por ◦ y definida en el conjunto A se dice que es conmutativa si se cumple la propiedad en el recuadro a la izquierda.

en este caso. `. Su propie­ u dad definitoria es que cualquier n´ mero sumado con cero da el mismo n´ mero. a9 y a∇ son elementos de un conjunto con una suma asociativa y conmutativa. Ge­ u u neralizemos esta propiedad a operaciones binarias arbitrarias. κ.Q o entonces es usual. aκ . que la suma vac´a de n´ meros es igual ı u a cero y el producto vac´o de n´ meros es igual a uno. usar la primera o segunda notaci´ n dependendiendo de si nuestro o producto es conmutativo o no. tenemos e ◦ e0 = e0 . Pero ¿que pasa si alguno de los conjuntos de ´ndices (digamos M) es vac´o? Si queremos ı ı que esta propiedad se conserve entonces observamos que Y Y Y Y ai • ai = ai = ai i∈N Q i∈∅ i∈N∪∅ i∈N por lo que necesariamente i∈∅ ai tiene que ser el elemento neutro de nuestra operaci´ n (si o no hay neutro entonces estamos en problemas). Por ser e neutro. y tenemos e ◦ e0 = e.4 P an Cap´tulo 1. Campos ı Supongamos que aρ . De estas dos igualdades obtenemos e = e0 . Supongamos que tenemos un producto asociativo y conmutativo. Una operaci´ n binaria no puede tener m´ s de un elemento neutro. Se dice que a ∈ A tiene elemento a ◦ b = b ◦ a = e inverso b si se cumple la propiedad en el recuadro a la izquierda. Es por esto. sean e o a y e0 elementos neutros. Naturalmen­ ı Q Q Q ai • ai = ai te. Elementos neutros ´ La suma de n´ meros naturales tiene un elemento especial y unico: el cero. Sea ◦ una operaci´ n binaria en o el conjunto A con elemento neutro. u Podemos. P en lugar de usar la letra griega (sigma may´ scula). Sean adem´ s N a y M dos conjuntos finitos de ´ndices disjuntos. usar la letra griega u (pi may´ scula). donde N es el o conjunto de ´ndices {ρ. Entonces la suma de estos (¡no importa el orden!) la n∈N podemos denotar por la expresi´ n en el recuadro a la izquierda. como el lector seguramente ya sabe. Ejercicio 7 ¿Cuales de las operaciones 1­9 tienen neutro? [125] Los elementos neutros juegan un papel importante en las notaciones para operaciones repetidas. Efectivamente. Por ser e neutro. a` . 9}. de la definici´ n se sigue la propiedad del recuadro a la o i∈N i∈M i∈N∪M izquierda. . u Para una operaci´ n binaria denotada por ◦ y definida en el con­ ∀a ∈ A o junto A se dice que e ∈ A es un elemento neutro si este cumple la a ◦ e = e ◦ a = a propiedad en el recuadro. ı u Elementos inversos ´ Para cada n´ mero entero a hay un unico n´ mero −a tal que sumado con a da cero. La misma u u propiedad la tiene el uno con respecto al producto de n´ meros naturales. ∇. ı Si la operaci´ n binaria definida no se llama “suma” sino “producto”.

c´ moda. El concepto “silla” nos permite reco­ o nocer una silla. pasa al conocimiento p´ blico. la mayor´a ı de estos conocimientos queda solamente en manos de los especialistas en la materia. colesterol. u Sean ◦ y ¦ dos operaciones binarias definidas en el ∀a. independientemente si esta es de madera. Casi cada palabra del espa˜ ol (y de cualquier idioma) re­ n presenta un concepto abstracto. sea esta verbo. grande. Sin embargo. el concepto de o . la suma de naturales no es distributiva respecto al producto: a + (bc) 6= (a + b) (a + c). tri´ ngulo. Ejercicio 9 De un ejemplo de dos operaciones binarias tales que ambas son distributivas una con respecto a la otra. otros surgieron hace muy poco. etc. y olvidarnos de las restantes. de que podemos fijarnos solamente en ciertas propiedades “esenciales” de un objeto o fen´ meno. electr´ n. son muy antiguos. metal. [126] ´ El algebra “abstracta” Filos´ ficamente. Ejercicio 8 Describa los inversos en las operaciones 1­9. [126] Distributividad Frecuentemente nos encontramos con conjuntos en los cuales hay m´ s de una operaci´ n a o binaria definida. en los naturales el producto es distributivo con respecto a la suma: a (b + c) = (ab) + (ac) y sin embargo. Por ejemplo. No hace falta saber que la suma de naturales es una a operaci´ n binaria conmutativa para saber que 2 + 3 = 3 + 2. de hierro. b. Estas dos operaciones est´ n relacionadas con la propiedad de que podemos a sacar factor com´ n o sea ax + ay = a (x + y). Con las matem´ ticas pasa igual. penicilina. Que ¦ sea distributiva respecto a ◦ no es lo mismo que ◦ sea distributiva respecto a ¦. a o con tres. o La abstracci´ n es imprescindible para el lenguaje. Se dice que la operaci´ n ¦ es distributiva a ¦ (b ◦ c) = (a ¦ b) ¦ (a ¦ c) o respecto a la operaci´ n ◦ si se cumple la propiedad en el (b ◦ c) ¦ a = (b ¦ a) ◦ (c ¦ a) o recuadro. Efecti­ o vamente si b y c son inversos de a entonces b = b◦e = b◦(a ◦ c) = (b ◦ a)◦c = e◦c = c o sea que b y c tienen que ser el mismo. Baste recordar conceptos como: velocidad. que tiene el pensamiento o o humano.1 o Operaciones binarias 5 ´ Para cualquier operaci´ n binaria asociativa el elemento inverso de otro es unico. sustantivo o adjetivo. cuatro o cinco patas etc. Parte de este conoci­ o u miento cient´fico. ADN. ı u volumen.Secci´ n 1. el concepto de “abstracci´ n” es la propiedad. higiene. Sin embargo. c ∈ A conjunto A. El ejemplo m´ s sencillo son los naturales en los que sabemos sumar y sabe­ a mos multiplicar. Algunos de los o a mencionados. pl´ stica. La ciencia lleva este nivel de abtracci´ n a un nivel a´ n mayor.

. todas las matem´ ticas son abstractas. racionales. En la primera mitad del siglo XX. reales y complejos.. le llamaron a esta forma de pensar e “Algebra moderna”. La suma tiene elemento neutro 0 y el producto tiene elemento neutro 1. la comunidad matem´ tica se fu´ dan­ a e do cuenta de las ventajas del pensamiento algebraico en el lenguaje de operaciones abstrac­ tas.} es el conjunto de los cardinales de los conjuntos finitos. que muchos. . tampoco tiene ning´ n sentido. Otros. Toda algebra o a u es abstracta. Tanto la suma como o e el producto son conmutativos. En la actualidad este lenguaje es parte in­ a tr´nseca e indivisible del pensamiento en matem´ ticas y cualquier calificaci´ n de “moderna” ı a o suena muy tonta. Otros a´ n m´ s entusiastas. prefierieron referirse a esta forma de pensar como “Algebra abstrac­ ´ ta”. −2. } b .} y en el conjunto −b + (−a) = − (a + b) u Z = N ∪ Z− de los n´ meros enteros definimos la suma como u la operaci´ n conmutativa definida por las propiedades en el o recuadro a la derecha. a a Naturales Hay una frase famosa que dice “Dios hizo los naturales y el hombre todo lo dem´ s”. en mi opini´ n. m´ s fr´volos y con muchas ganas de vender u a a ı sus libros le llamaron “Matem´ tica moderna”. .. por otro lado. Campos ı “operaci´ n” y que estas operaciones pueden cumplir o no ciertas propiedades es relativa­ o mente “nuevo”.. de hecho.6 Cap´tulo 1. De la e definici´ n se obtiene que el producto de naturales tambi´ n es asociativo. Para lograr la existencia de inversos inventamos los −b + a = c ⇔ a = b + c n´ meros negativos Z− = {−1. 1. el a tiempo se encargar´ de acabar con todos estos calificativos. Como la union de conjuntos es asociativa tambi´ n lo es la suma de naturales. enteros. ab = a + {z + a = | + {z + b | . Por ejemplo. a ´ 1.. Estoy convencido de que. Tanto fu´ el entusiasmo. −3.. progresivamente. De hecho el producto es una operaci´ n derivada o de la suma y la suma solo se puede definir en t´ rminos de conjuntos. en un principio. a + b es el e cardinal de la union de dos conjuntos finitos y disjuntos uno de cardinal a y otro de cardinal b.. El conjunto de los n´ meros a u a veces b veces naturales N = {0. 2. anillos y campos. } Enteros Ning´ n elemento de N salvo el cero tiene inverso para u la suma. .. aunque m´ s moderado.2 Numeros En esta secci´ n repasaremos los principales tipos de n´ meros que el lector ya conoce: o u naturales. En N hay dos operaciones bina­ rias bien definidas: la suma y el producto. Esto nos dar´ la posibilidad de introducir a ´ las definiciones m´ s b´ sicas del algebra: grupos. El producto es distributivo respecto a la suma. Esto.

•) es un anillo conmutativo. ı Anillos La operaci´ n de producto de naturales se extiende f´ cilmente al a (−b) = − (ab) o a conjunto de los enteros mediante las reglas en el recuadro. Al neutro para el producto se le llama uno y se denota por 1. Para descartar esta trivialidad supondremos siempre que 1 6= 0.conmutativo y distributivo con respecto a la (−a) (−b) = ab suma. G1) la operaci´ n es asociativa G2) tiene elemento neutro Un grupo se le llama abeliano si adem´ s de los axio­ a mas G1­G3 se cumple que la operaci´ n es conmutativa.2 o N´ meros u 7 Ejercicio 10 Demuestre la asociatividad de la suma de n´ meros enteros basandose sola­ u mente en la asociatividad de los naturales. O sea los enteros tambi´ n dan el primer ejemplo de anillo.Secci´ n 1. De aqu´ se ı . De la misma manera vemos que 0 • a = 0. En un anillo al neutro para la suma se le llama cero y se denota por 0. Abel muri´ a los 26 a˜ os a o n causa de una neumon´a. que o a o no existen f´ rmulas en radicales para resolver las ecuaciones polinomiales de o grado 5 o mayor (a diferencia de las ecuaciones de grado ≤ 4 para las cuales si hay f´ rmulas generales). Si el anillo A3) • es distributiva con respecto a + es tal que la operaci´ n • es conmutativa entonces o A4) • tiene elemento neutro se dice que tenemos un anillo conmutativo. Ejemplos de grupos no ı abelianos los veremos m´ s adelante. e Un conjunto A no vac´o con dos operaciones bi­ ı A1) (A. a = 1 • a = 0 • a = 0 por lo que el anillo consta de un solo elemento. Si 1 = 0 entonces. el o o problema ya duraba varios siglos sin resolverse. cada elemento tiene inverso. Abel fu´ el que a e ´ resolvi´ el problema algebraico m´ s importante de su epoca. G3) todo elemento tiene inverso o As´. a A los grupos cuya operaci´ n es conmutativa se les llama abelianos en ho­ o nor al matem´ tico noruego Niels Henrik Abel (1802­1829). O sea los enteros dan el primer ejemplo de grupo. Grupos Nuevamente la suma de enteros es asociativa con neutro cero pero ahora. Nuevamente (−a) b = − (ab) el producto es asociativo. +) es un grupo abeliano. Al momento de encontrar esta demostraci´ n. +) es un grupo abeliano narias + y • se le llama anillo si se cumplen los A2) • es asociativa axiomas en el recuadro a la izquierda. A un conjunto no vac´o con una operaci´ n binaria se ı o o le llama grupo si se cumplen los tres axiomas G1­G3. Al inverso con respecto al producto de un elemento se le llama inverso multiplicativo o simplemente inverso a secas. Por ejemplo (Z. (Z. Observemos que si a es un elemento de un anillo entonces a • 0 + a = a • (0 + 1) = a y debido a la unicidad del 0 obtenemos que a • 0 = 0. Al inverso de un elemento con respecto a la suma de un elemento se le llama su opuesto. +. Demostr´ .

8

Cap´tulo 1. Campos ı

desprende que 0 no puede tener inverso ya que 0 = a • 0 = 1 es una contradicci´ n. o En cualquier anillo −a denota al opuesto de a y a−1 (si existe) denota al inverso de a. Como 1 × 1 = 1 tenemos 1−1 = 1. Tambi´ n (−1)−1 = −1 ya que si a = −1 entonces e 0 = a (a + 1) = aa + a por lo que aa = −a o sea, (−1) (−1) = 1. Luego, en todo anillo 1 y −1 tienen inversos. En Z ning´ n elemento salvo 1 y −1 tiene inverso. u
Normalmente en la definici´ n de anillo no se pide el axioma A4. En este caso, a los anillos que o tienen elemento neutro para el producto se le llaman anillos unitarios. Un ejemplo de anillo no unitario es el conjunto de todos los enteros pares. Con el objetivo de simplificar, para nosotros todos los anillos son unitarios.

Racionales Para lograr que cada elemento diferente de cero tenga inverso inventamos las fraccio­ nes y con ellas el conjunto de n´ meros racionales Q. Una fracci´ n es un par ordenado de u o n´ meros enteros denotado por a/b donde b 6= 0. Dos fraccio­ u c a = ⇔ a • d = c • b nes son iguales cuando se cumple la igualdad en el recuadro. b d Los n´ meros racionales Q son las fracciones con la relaci´ n de u o igualdad as´ definida. Los enteros son parte de los racionales por cuanto podemos identificar ı cada n´ mero entero a ∈ Z con la fracci´ n a/1. u o Campos La suma y el producto de n´ meros racionales se definen por u las igualdades en el recuadro. Nuevamente los racionales con la a + c = a • d + c • b b•d suma forman un grupo abeliano y otra vez el producto es aso­ b d a c a•c ciativo, conmutativo, tiene elemento neutro y es distributivo con • = respecto a la suma. La diferencia es que ahora todo elemento di­ b d b • d ferente de cero tiene inverso multiplicativo. O sea los racionales nos dan el primer ejemplo de campo. Un conjunto K no vac´o con dos operaciones bi­ ı C1) (K, +) es un grupo abeliano narias + y • se le llama campo si se cumplen los C2) (K\0, •) es un grupo abeliano tres axiomas C1­C3. En otras palabras un campo C3) • es distributiva con respecto a + es un anillo conmutativo en la cual todo elemento diferente de cero tiene inverso multiplicativo.

la operaci´ n por coordenadas (x, y) ◦ (x0 , y0 ) = (x ◦ x0 , y ◦ y0 ). Demuestre que si (A, ◦) es o ¡ ¢ un grupo entonces A2 , ◦ es un grupo.

Ejercicio 11 Si ◦ es una operaci´ n binaria en A entonces, en A2 est´ definida naturalmente o a Ejercicio 12 De la misma manera que el ejercicio¢anterior se definen las operaciones en A2 ¡
si (A, +, •) es un anillo. Demuestre que A2 , +, • es tambi´ n un anillo. e

Ejercicio 13 Sea ¡(K, +, •)¢un campo. Como K es un anillo conmutativo entonces, por el e a ejercicio anterior, K2 , +, • tambi´ n es un anillo. ¿Ser´ K2 un campo?

Secci´ n 1.2 o
Reales

N´ meros u

9

Dicen que cuando Pit´ goras (Samos 569­475 A.C.) descubri´ que a o la longitud de la hipotenusa de un tri´ ngulo rect´ ngulo con cate­ a a tos de longitud uno no es un n´ mero racional u √ qued´ horrorizado. A nosotros nos parece esto o 2 una exageraci´ n. Sin embargo, si nos ponemos 1 o en el lugar de Pit´ goras comprenderemos que a 1 en aquel momento era inconcebible que existan √ p n´ meros que no sean cociente de dos enteros. u 2 6= La pintura a la izquierda es un detalle del fres­ q co de Rafael “La escuela de Atenas” en la cual supuestamente, se muestra a Pit´ goras. a √ Sigamos a Pit´ goras y probemos que efectivamente 2 no es un racional. Para esto a √ denotemos por kak2 el n´ mero de veces que el natural a se divide entre 2. Tenemos 2 = u ° ° ° ° p ⇒ °2q2 °2 = °p2 °2 ⇒ 1 + 2 kqk2 = 2 kpk2 lo que es una contradicci´ n ya que un o q n´ mero impar no puede ser igual a uno par. u

Ejercicio 14 Sea n un n´ mero natural. Pruebe que n es un natural o no es racional. [126] u √ Ejercicio 15 Basandose en el anterior de otra prueba de que 2 no es racional. [126]
Esto motiva la construci´ n de los n´ meros reales R. La construci´ n de los reales es o u o un proceso complicado y se han descubierto muchas formas de formalizar esta construci´ n o siendo la m´ s popular la de las cortaduras de Dedekind. Para nuestros prop´ sitos basta una a o definici´ n menos formal y m´ s intuitiva: un n´ mero real es simplemente un l´mite de ra­ o a u ı cionales. Las propiedades de la suma y producto de racionales se traspasan f´ cilmente a los a reales usando las propiedades del l´mite de sucesiones. De esta manera obtenemos nuestro ı campo principal (R, +, •) . El campo de los reales se destaca porque es ordenado (siempre podemos decidir si un n´ mero real es mayor, menor o igual a cero) y porque es cerrado (el u l´mite de reales si existe es un real). Por otro lado, no es un factor a despreciar el hecho de ı que el espacio en que vivimos es (o al menos nos parece que es) R3 .

Ejercicio 16 Pruebe que la longitud de un segmento de recta es un n´ mero real. [126] u
Complejos Para lograr que todos los polinomios tengan raices inven­ √ tamos el imaginario i = −1 y definimos que un n´ mero u complejo es algo de la forma a + bi donde a, b ∈ R. La suma y el producto de complejos se definen por las f´ rmulas o en los recuadros a la derecha y abajo a la izquierda. (a + bi)

+

(a0 + b0 i) =

(a + a0 ) + (b + b0 ) i

10 (a + bi)

Cap´tulo 1. Campos ı

Las propiedades de la suma y el producto se desprenden inmediatamente de sus definiciones y es f´ cil comprobar a que (C, +, •) es un campo. La principal propiedad que hace (aa0 − bb0 ) + (ab0 + a0 b) i que para muchas cosas el campo C sea el m´ s simple es que a el (a diferencia de R) es algebraicamente cerrado, o sea que todo polinomio de grado n > 0 con coeficientes en complejos tiene n raices complejas.

×

(a0 + b0 i) =

1.3 Morfismos
En esta secci´ n estudiaremos las funciones entre conjuntos con operaciones binarias. o Morfismos de grupos Sean ◦ y • operaciones binarias definidas en los conjuntos A y B respectivamente. Una funci´ n f : A → B se le llama morfismo si para cualesquiera a1 y a2 elementos de A se o cumple que f (a1 ◦ a2 ) = f (a1 ) • f (a2 ). Todo morfismo conserva las propiedades fundamentales de las operaciones binarias. M´ s precisamente, si f : A → B es un morfismo entonces, a 1. • es una operaci´ n binaria dentro de la imagen de f. o 2. Si ◦ es conmutativa entonces • es conmutativa en la imagen de f. 3. Si ◦ es asociativa entonces • es asociativa en la imagen de f. 4. Si e es neutro de ◦ entonces f (e) es neutro de • en la imagen de f. 5. Si a0 es inverso de a en A entonces f (a0 ) es inverso de f (a) en B. Prueba. Sean b1 , b2 y b3 elementos cualesquiera en la imagen de f. Existen a1 , a2 y a3 en A tales que f (ai ) = bi para i ∈ {1, 2, 3}. Como f es un morfismo, obtenemos la igualdad (*) b1 • b2 = f (a1 ) • f (a2 ) = f (a1 ◦ a2 ) que prueba la primera afirmaci´ n. Si ◦ es conmutativa entonces, usando (*) obtenemos o b1 • b2 = f (a1 ◦ a2 ) = f (a2 ◦ a1 ) = b2 • b1 por lo que • es tambi´ n conmutativa. Si ◦ es asociativa entonces, usando (*) obtenemos e (b1 • b2 ) • b3 = f (a1 ◦ a2 ) • f (a3 ) = f ((a1 ◦ a2 ) ◦ a3 ) = = f (a1 ◦ (a2 ◦ a3 )) = f (a1 ) • f (a2 ◦ a3 ) = b1 • (b2 • b3 ) y por lo tanto • es asociativa en la imagen de f. Si e es neutro de la operaci´ n ◦ entonces, o b1 • f (e) = f (a1 ) • f (e) = f (a1 ◦ e) = f (a1 ) = b1 f (e) • b1 = f (e) • f (a1 ) = f (e ◦ a1 ) = f (a1 ) = b1 por lo que f (e) es el neutro de • en la imagen de f. Sea a0 el inverso de a en A entonces, f (a) • f (a0 ) = f (a ◦ a0 ) = f (e) f (a0 ) • f (a) = f (a0 ◦ a) = f (e) de lo que concluimos que f (a0 ) es el inverso de f (a).

z ∈ A tales que f (x) = a.3 esta operaci´ n es asociativa. o Si • es distributiva con + en A entonces. f (y) = b y f (z) = c. ı o Una funci´ n f : A → B se le llama morfismo si para cualesquiera a1 y a2 elementos de o A se cumple que f (a1 + a2 ) = f (a1 ) + f (a2 ) y f (a1 • a2 ) = f (a1 ) • f (a2 ). De aqu´ en lo adelante a la imagen de cualquier funci´ n f (y en particular de un morfismo) ı o la denotaremos por Im f. •). Aquellos elementos de B que no tienen pre­ a imagen no los podemos enlazar con los de A y por lo tanto no podemos decir nada de ellos. Ejercicio 18 Construya un morfismo inyectivo de (R. +. si hay dos operaciones entonces. se requiere que la funci´ n sea morfismo para cada una de ellas.1. •) dos conjuntos cada uno con dos operaciones binarias. +) en (R. Esto completa la prueba de todos los axiomas de grupo. Si (A. ´ ¿Y porqu´ siempre dentro de la imagen de f y no en todo B? La respuesta es que lo unico e que sabemos de B est´ dado por el morfismo. • es distributiva con + en la imagen de f. Recordemos que si f : A → B es una funci´ n entonces al conjunto A se le llama dominio o de f y al conjunto B codominio de f.1 • es una operaci´ n binaria en Im f. y.1.3 o Morfismos 11 Ejercicio 17 Justifique todas las igualdades utilizadas en la prueba de 1. ◦) es un grupo entonces (Im f. Tenemos a • (b + c) = f (x) • (f (y) + f (z)) = f (x) • f (y + z) = f (x • (y + z)) = = f (x • y + x • z) = f (x • y) + f (x • z) = f (x) • f (y) + f (x) • f (z) = a • b + a • c y esto prueba la tesis.5 cada elemento b = f (a) ∈ Im f o tiene su inverso f (a0 ) donde a0 es el inverso de a en A. Prueba.Secci´ n 1. Sean x. •) es un grupo. Si el dominio y el codominio de un morfismo son grupos entonces se dice que este es un morfismo de grupos.4 esta operaci´ n tiene elemento neutro.1. ¿Cual es su imagen? Morfismos de anillos ¿Y que pasa con la distributividad? ¿Tambi´ n se conserva? El primer problema que te­ e nemos que resolver es que en la distributividad est´ n involucradas dos operaciones. Recalquemos que el “y” quiere decir que se tienen que cumplir las dos propiedades. +. o o Por 1.1. Por 1.1. O sea. Prueba. Por 1. . •) y (B. Por 1. Sean a (A. Observese que estas son cuatro operaciones distintas pero hemos usado estas notaciones porque el trabajar con cuatro s´mbolos diferentes ya es demasiada confusi´ n.

Si f : (A. de anillos y de campos. Campos ı Si el dominio y el codominio de un morfismo son anillos entonces se dice que este es un morfismo de anillos. Para cada isomorfismo f existe una funci´ n inversa f−1 . Para que el lector comprenda mejor eso de que ◦ y ◦ u v • 1 −1 • son la misma operaci´ n veamos un ejemplo. . Lo mismo ocurre con la asociatividad. Para convencernos de esto supongamos que conocemos la operaci´ n ◦ y conocemos el isomorfis­ o mo f pero no sabemos nada de la operaci´ n •. con la existencia de neutros e inversos y para el caso de dos operaciones con la distributividad. As´ que tenemos isomorfismos e ı de grupos. (Im f. ◦) → (B. •) un isomorfismo. Sea A el o 1 1 −1 conjunto de letras {u. Demuestre que lo mismo ocurre para los campos. •) es un isomorfismo entonces de que • es conmutativa implica que ◦ es conmutativa y en conclusi´ n ◦ es conmu­ o tativa si y solo si • es conmutativa. Si el dominio y el codominio de un morfismo son campos entonces se dice que este es un morfismo de campos. En conclusion ambas operaciones se definen una a otra. Denotemos a1 = f−1 (b1 ) y a2 = f−1 (b2 ). •) es un anillo y f : A → B es un morfismo entonces. Ejercicio 20 Pruebe que si f : A → B es un morfismo de anillos y A es un campo entonces f es inyectivo. •) es un anillo. +. Ahora podemos aplicar 1. a La inversa de un isomorfismo es un isomorfismo. En particular todo morfismo de campos es inyectivo. a Pero no solo son operaciones parecidas sino que son en cierto sentido la misma.12 Cap´tulo 1. Tenemos f−1 (b1 • b2 ) = f−1 (f (a1 ) • f (a2 )) = f−1 (f (a1 ◦ a2 )) = a1 ◦ a2 = f−1 (b1 ) ◦ f−1 (b2 ) que es lo que se requer´a demostrar. ◦ se define de forma unica por la operaci´ n • y el isomorfismo f mediante la identidad o a1 • a2 = f−1 (f (a1 ) ◦ f (a2 )). o ¿Cuando ser´ f−1 un morfismo? La respuesta es que siempre. ◦) → (B. Prueba. Sea f : (A. O sea que ◦ tiene ex´ ctamente las mismas propiedades de •. Esto se aplica tanto para con­ juntos con una como tambi´ n con dos operaciones binarias. ¿Podremos calcular b1 • b2 ? La respuesta es o ¡ ¢ si. Rec´procamen­ ı ´ te. Definamos las operaciones ◦ y • mediante las tablas del recuadro a la derecha. +. Sean b1 . Si el isomorfismo involucra dos operaciones binarias ı entonces el mismo argumento anterior. lo podemos calcular por la identidad b1 • b2 = f f−1 (b1 ) ◦ f−1 (b2 ) . [126] Isomorfismos Ejercicio 19 Demuestre que si (A. nos da la prueba de la tesis. aplicado a las dos operaciones. v} y B el conjunto de los n´ meros u u v u v v u −1 −1 1 {1. A los morfismos biyectivos se les llama isomorfismos.1 en los dos sentidos. −1}. b2 cualesquiera elementos de B.

Ciertos tipos de morfismos tienen nombres especiales. es que la funci´ n u 7→ 1 . El lector puede ver que ambas tablas son en esencia la misma. g : B → C y h : C → D tres funciones. o a Si para dos grupos (o anillos o campos) existe un isomorfismo entre ellos entonces se dice que ellos son isomorfos. ◦) en (B. ı o Observese el orden en que escribimos las funciones ya que la composici´ n de funciones no o es conmutativa. A los morfismos de un conjunto en si mismo se les llama endomorfismos y a los endomorfismos biyectivos se les llama automorfismos. u por 1 y v por −1. e Las composici´ nes de morfismos son morfismos. g : B → C dos funciones. En forma intuitiva. Etimol´ gicamente. Sin embargo. B y C tres conjuntos y f : A → B . A o partir de ahora el s´mbolo ◦ solo lo utilizaremos para denotar la composici´ n de funciones. B y C hay definidas operaciones binarias. La composici´ n de funciones es asociativa. Por definici´ n de o composici´ n para cualquier a ∈ A tenemos o (h ◦ (g ◦ f)) (a) = h ((g ◦ f) (a)) = h (g (f (a))) = (h ◦ g) (f (a)) = ((h ◦ g) ◦ f) (a) que es lo que se quer´a probar ı Ahora. para obtener la segunda tabla de la primera lo unico que necesitamos es cambiar ◦ a por • . solamente que las notaciones para los elementos y la operaci´ n est´ n cambiadas. o ´ Adem´ s. Esto lo que quiere decir. A los morfismos sobreyectivos se les llama epimorfismos. si f y g lo son entonces f ◦ g tambi´ n lo es. supongamos que en A. A la funci´ n o g ◦ f : A → C definida por (g ◦ f) (a) = g (f (a)) se le llama la composici´ n de f con g. Sean f : A → B . que ellos sean isomorfos quiere decir que los dos son iguales con la salvedad de que podemos cambiar las notaciones de los elementos y las operaciones. v 7→ −1 es o un isomorfismo de (A. a los injectivos se les llama monomorfismos.3 o Morfismos 13 El lector debe observar que la segunda tabla es la tabla usual de multiplicaci´ n de enteros. Denotemos las operaciones en A. Ejercicio 21 Pruebe que el conjunto de todos los automorfismos de un conjunto con una o dos operaciones binarias es un grupo con respecto a la composici´ n de funciones. Entonces f. Composici´ n de morfismos o Sean A. la palabra “isomorfo” significa que “tie­ o nen la misma forma”. o Prueba.Secci´ n 1. o Prueba. •). o . g y g ◦ f pueden ser morfismos o no. B y C con el mismo s´mbolo •. Como f y g ı son morfismos tenemos (g ◦ f) (a • b) = g (f (a • b)) = g (f (a) • f (b)) = g (f (a)) • g (f (b)) = (g ◦ f) (a) • (g ◦ f) (b) que es lo que se necesitaba probar.

n − 1} o por lo que en Zn hay naturalmente definidas dos operaci´ nes binarias como se muestra en el o recuadro. Probemos que la funci´ n f : (Z. As´ por ejemplo. o a lo m´ s. ¡) es un anillo conmutativo. Campos ı 1. +.14 Cap´tulo 1. f (ab) = f (a) ¡ f (b). o Por otro lado tambi´ n existe otro entero r tal que ab = f (ab) + rn y de aqu´ f (a) f (b) = e ı (a − on) (b − pn) = ab + (nop − bo − ap) n = f (ab) + (r + nop − bo − ap) n. 1. Por definici´ n a mod n ∈ Zn = {0. o El anillo de los enteros m´ dulo n o Sea n un n´ mero natural mayor que 1.. Para un entero a la u notaci´ n a mod n significa el resto de la divisi´ n de a entre n. q tales que a = f (a) + on. Tenemos que f (a)+f (b) = a+b−(o + p) n = f (a + b)+(q − o − p) n y por lo tanto f (a + b) es el resto de la divisi´ n de f (a) + f (b) entre n. . (Zn . De ahora en lo adelante no haremos m´ s esto. 2 + 3 = 5 si la suma es la ı habitual de enteros o es la de Z11 pero 2 + 3 = 1 si la suma es la de Z4 . Prueba.4 Campos de restos Hasta ahora los campos que conocemos son Q. con un punto.. Lue­ go. La suma en Zn se denotar´ con el a a s´mbolo + y el producto. •) → (Zn . Para ı ı a poder hacer esto es necesario que el lector comprenda (muchas veces solo del contexto) en que sentido estamos utilizando estas notaciones. •) es un anillo conmutativo y los morfismos preservan las propiedades de las operaciones binarias. En esta secci´ n presentaremos ciertos cam­ o pos que tienen un n´ mero finito de elementos. concluimos que (Zn . introducir otros que no sean tan usuales.. para dar una intuici´ n saludable de lo que es un o campo. +. (Z. ¢. O a ¢ b = (a + b) mod n o o sea. b = f (b) + pn y a + b = f (a + b) + qn. ¢. El objetivo de esto fu´ el asegurarnos que en la demostraci´ n del resultado e o anterior el lector no se confundiera con la suma y el producto habitual de n´ me­ u ros enteros. O sea. R y C que se supone que ya son muy conocidos por el lector. f (a + b) = f (a) ¢ f (b). Es imprescindible. el menor natural k tal que existe un entero t para los cuales a ¡ b = (ab) mod n a = k + tn. ¡) es tambi´ n un anillo e conmutativo. ¢. f (ab) es el resto de la divisi´ n de f (a) f (b) entre n o sea. Para construirlos. Z3 y Z4 . o Como f es sobreyectiva. con la ausencia de s´mbolo alguno. usaremos las propiedades u de los morfismos de la secci´ n anterior. p. . b ∈ Z por definici´ n de f existen enteros o o. Para cualesquiera a. ¡) dada por f (a) = a mod n o es un morfismo de anillos. Hemos denotado la suma y el producto en Zn con los s´mbolos extra˜ os ¢ y ı n ¡. Ejercicio 22 Construya las tablas de sumar y multiplicar en Z2 .

Sean x. Esta funci´ n es inyectiva ya que o o (ax = ay) ⇒ (a (x − y) = 0) ⇒ (x − y = 0) ⇒ x = y Como fa es una funci´ n inyectiva de un conjunto finito en si mismo es tambi´ n sobreyectiva.4 o Dominios de integridad Campos de restos 15 Despu´ s de saber que (Zn . y ∈ {1. . Todo dominio de integridad finito es un campo. en Z tenemos que xy = kp. Sea a un elemento arbitrario no nulo de A. p divide a x o y pero esto no puede ser ya que ambos son menores que p. Zn no es un dominio de integridad y por lo tanto no es un campo. Aqu´ tenemos ı 2·3 = 0. Luego. El campo de los enteros m´ dulo p o Y ¿que pasa cuando p es primo? Zp es un dominio de integridad. . es la existencia de inversos para el producto. Sabemos que Z. Sabemos que p y q o est´ n en Zn y que pq = n = 0 mod n. Este resultado no es suficiente para probar que Zp es un campo ya que hay dominios de integridad que no son campos (por ejemplo Z). Prueba.Secci´ n 1. ¿Es posible u eso en un campo? Veremos que no. Luego. Prueba. Nos hace falta el siguiente resultado. Sea n = pq una a descomposici´ n en factores no triviales (ambos diferentes a 1) de n. Supongamos pq = 0 y p 6= 0 entonces multiplicando la primera igualdad por el inverso multiplicativo de p obtenemos 0 = p−1 0 = p−1 pq = q. Z6 no es un campo. Tambi´ n ya vimos que Z6 no es dominio de integridad. Luego. Prueba. Si xy = 0 en Zp entonces xy = 0 mod p. o e Luego tiene que existir b tal que fa (b) = ab = 1. si n es un n´ mero compuesto (no primo) a u entonces. Denotemos por fa la funci´ n A 3 x 7→ ax ∈ A. Un anillo conmutativo se le llama dominio de integridad si el producto de dos elementos es diferente de cero entonces ellos son los dos diferentes de cero. R y C son dominios de integridad. . q = 0. Q. Luego. e Todo campo es un dominio de integridad. lo natural es preguntarnos si e ´ este es un campo. Para ver que A es un campo solo hay que demostrar que todo elemento no nulo tiene inverso. p − 1} . el producto de dos n´ meros diferentes de cero es igual a cero. Veamos por ejemplo el caso de Z6 . Esto demuestra que a tiene inverso. Como p es primo entonces. Que raro. . Este ejemplo se generaliza f´ cilmente. Sea A un dominio de integridad finito. ya que lo unico que le falta a un anillo conmutativo para ser campo. +. ·) es un anillo conmutativo. .

b ) = (aa0 + 7bb0 . Esto indica que para comprobar si L es un subcampo basta comprobar las propiedades 1 y 2. +). [127] Demuestre que Z2 con las operaciones (a. Campos ı ´ Como Zp es un dominio de integridad finito de este ultimo resultado concluimos inme­ diatamente que Zp es un campo si y solo si p es un n´ mero primo. b0 ) = (a + a0 . con m´ s raz´ n se a o cumplen dentro de L. Si por un lado podemos consi­ derar a Zp = {0. Galois de facto invent´ la Teor´a de Grupos. Veremos que todo cam­ o a n po contiene a Q o contiene a Zp para cierto n´ mero primo p. . Si L es un subcampo de K entonces ∀a. que a su a vez es subcampo de C. [127] Demuestre que (Zp \0. A los campos finitos se les lama campos de Galois en honor al matem´ tico franc´ s Evariste Galois (1811­1832). b) (a . b) + (a0 . 1. ab ∈ L. Al resolver el a e problema de encontrar cuales ecuaciones polinomiales son solubles en radi­ cales y cuales no. b ∈ L se tienen que cumplir las siguientes propiedades 1. El ejemplo m´ s sencillo de esto es Q. las operaciones de suma. Un subcampo de K es sencillamente un subconjunto de K que es campo para las mismas operaciones. u Subcampos Sea K un campo.. De la misma manera. Caracter´stica ı En esta secci´ n estudiaremos los campos m´ s peque˜ os posibles. por el otro. Zp NO es un subcampo de Q (ya que por ejemplo 2 (p − 1) = p − 2 en Zp lo que no es cierto en Q). u . si se cumplen las propiedades 1 y 2 entonces. (L es un subgrupo aditivo) 2. (L\{0} es un subgrupo multiplicativo) Rec´procamente. −a ∈ L. El muri´ a o ı o los 20 a˜ os en un duelo provocado por asuntos amorosos y/o pol´ticos. ı opuesto. a−1 ∈ L. producto e inverso est´ n correctamente definidas dentro de L y el tiene que contener a a 0 y a 1. El concepto de subcampo incluye las operaciones. •) es isomorfo al grupo aditivo (Zp−1 . p − 1} como subconjunto de Q. u u Los campos Zp son los primeros ejemplos de campos que tienen un n´ me­ ro finito de elementos. ab0 + a0 b) es un campo de 121 elementos. 1. ning´ n Zp es subcampo de Zq para p 6= q.. El n ı apellido Galois se pronuncia en espa˜ ol como “galu´ ” n a Ejercicio 23 Ejercicio 24 Ejercicio 25 Ejercicio 26 ¿Cual es el n´ mero m´nimo de elementos que puede tener un campo? [126] u ı Halle los inversos de los elementos no nulos de Z5 . Como los axiomas de campo se cumplen dentro de todo K.5 Campos primos.16 Cap´tulo 1. b + b0 ) y 11 0 0 (a. que es subcampo R.. a + b ∈ L.

a e a En el primer caso. + 1 donde u 1 es el neutro multiplicativo de K. Observese que 0 = 0. Esto tambi´ n e prueba que Zp es un campo primo. Luego. Para un n´ mero natural n denotemos por n = 1 + . o 2. n veces En el primer caso K contiene a los naturales. Los subcampos que no son todo el campo se les llama subcampos propios. Caracter´stica ı 17 Todo campo tiene como subcampo a el mismo. Como sabemos dividir los enteros con resto entonces. A los campos que no tienen ning´ n subcampo propio se u les llama campos primos (por analog´a con los n´ meros primos que son los naturales que ı u no tienen divisores propios). deducimos que p es primo. Luego. Zp es un subcampo de K. Zp es el unico subcampo primo de K.Secci´ n 1. Esto tambi´ n prueba que Q es un campo primo. De aqu´ ı z }| { z }| { · x = a + kp = a + kp = a + 1 + ·{z· + 1 + · · · + 1 + ·{z· + 1 = a + 0 + · · · + 0 = a · | } } | p veces p veces kp veces k veces o lo que muestra que P es el anillo Zp de los restos m´ dulo p. existen naturales a. deducimos que Q est´ contenido en cualquier subcampo de K y como a ´ Q * Zp entonces. Si n > 0 entonces. En cierto sentido los campos primos son los m´ s sencillos y a podemos decir cuales todos ellos.5 o Campos primos Campos primos. Como en un campo esto no es posible entonces. p − n < p y adem´ s p − n = 0 a lo que contradice la minimalidad de p. n es un elemento del campo. e En el segundo caso. Para ver la validez de la segunda. z }| { Prueba. n = 0 y por lo tanto p = 0. Por la misma raz´ n. b no cero tales que ab = 0. Como K es un campo tambi´ n tiene que e contener a los opuestos de los naturales. en Zp ⊂ K hay dos elementos a. K tiene o que contener a los inversos de los enteros con lo que se prueba que los racionales son un subcampo de K. Si p no es primo entonces. k tales que x = a + kp y a < p. Denotemos por P = {n ∈ K | n ∈ N} . . Obviamente. Sea un K campo. a n Tenemos n = p ⇒ p − n = p − n = 0. Teorema de Clasificaci´ n de Campos Primos o Un campo primo o es Q o es Zp para cierto n´ mero primo p. La aplicaci´ n n 7→ n es una biyecci´ n de en N en P. deducimos que ´ a Zp est´ contenido en cualquier subcampo de K y como Zp * Q entonces. Existen dos naturales distintos n y m tales que n = m. sea p el natural m´ s peque˜ o para el cual existe n < p tal que n = p. Q es el unico subcampo primo de K. En el segundo. Sea ahora x > p... todo campo contiene a Q o o contiene a cierto Zp . Hemos probado la primera afirmaci´ n del teorema o sea. o sea a los enteros. u Un campo no puede contener dos subcampos primos diferentes. observemos que el conjunto P no solo est´ contenido en K sino que tambi´ n est´ contenido en cualquier subcampo de K. Hay dos posibilidades excluyentes o 1.

.6 Aritm´ tica de campos e Los campos se comportan en la mayor´a de las cosas importantes como los n´ meros ı u reales. + a si n > 0 ⎨ aa. . tenemos t1 = 0. Prueba. ta = t1a = 0a = 0.12 que todo campo es un dominio de integridad? [128] Ejercicio 28 ¿Es cierto o no que en todo campo (a = −a) ⇒ (a = 0)? [128] 1. an }..18 Caracter´stica ı Cap´tulo 1. Luego. Se dice que un campo es de caracter´stica ı ı p si este contiene a Zp .. Por m´ s que tratemos construir un campo raro pero muy raro (lo que es posible) no a lograremos que se dejen de cumplir todas las propiedades de la aritm´ tica las cuales nos e son familiares desde temprana edad. Si t es primo entonces.. o Ejercicio 27 ¿Contradice o no 1. ai Recordemos nuevamente el uso del s´mbolo de sumatoria Σ.. Se dice que un campo es de caracter´stica 0 si este contiene a Q. ta = 0 para cualquier a ∈ K. por la prueba del Teorema o de caracterizaci´ n de campos primos.. . La ı u propiedad fundamental de la caracter´stica de un campo es la siguiente: ı Si K es un campo de caracter´stica t ı entonces.a si n > 0 n na = a = si n = 0 0 si n = 0 ⎪ ⎪ 1 ⎩ ⎩ 1 si n < 0 (−n) (−a) si n < 0 a− n Asociatividad general n X i=1 y se cumplen las propriedades usuales: (n + m) a = na + ma y an+m = an am . a ´ Multiplos y exponentes enteros En todo campo para cualquier n´ mero entero n y cualquier elemento del campo a se u usan las siguientes notaciones ⎧ ⎧ n veces n veces }| { ⎪ z ⎪ z }| { ⎨ a + a + . Campos ı Por el teorema anterior cualquier campo o contiene a Q o contiene a Zp . Pasemos a describir en toda su generalidad algunas consecuencias simples y otras un poco m´ s complicadas de los axiomas de campo lo que nos a convencer´ de lo afirmado. Si t = 0 la afirmaci´ n es trivial.. La caracter´stica de un campo es un n´ mero primo o es cero. Si A es un conjunto ı finito de elementos del campo entonces podemos escribir la expresi´ n en el re­ o cuadro a la izquierda para expresar que queremos sumar todos los elementos del conjunto A = {a1 .

O sea no importa si en la suma a1 est´ delante de a2 o al rev´ z. nm son naturales entonces. d´ mosle nombres a los elementos de e A y pongamos A = {x1 . a Como tenemos que el producto de elementos de un campo es tambi´ n e n Y Y asociativo y conmutativo podemos usar las expresiones equivalentes de ai = a la izquierda para denotar el producto de todos los elementos del conjunto i=1 a∈A A = {a1 ...Secci´ n 1. Solo es a∈A a e necesario especificar cual es el conjunto A de elementos que se est´ n sumando... Por ejemplo. Usando las leyes de a ı los campos obtenemos (a + b) (c + d) = a (c + d) + à !à ! X X XX b (c + d) = ac + ad + bc + bd y el lector podr´ con­ a a b = ab vencerse f´ cilmente haciendo el c´ lculo para conjuntos a a a∈A b∈B a∈A b∈B peque˜ os A y B que en general se cumple la f´ rmula n o de la derecha... . F´ rmula multinomial o Aplicando la forma general de la ley distributiva al caso en que todos los conjuntos sean iguales obtenemos la siguiente f´ rmula: o à !n X X X a = .. ab · · · c a∈A b∈B c∈C a∈A b∈B c∈C A esta igualdad la llamaremos forma general de la ley distributiva y tendremos muchas ocaciones en que la usaremos. xm }. Para arreglar este defecto.. Si todos los ni son uno o cero entonces en (*) hay n! sumandos iguales al monomio xn 1 · · · xnm m 1 (ya que podemos ordenarlos de ese n´ mero de maneras). . el pro­ o ducto aabacccbba que pudiera aparecer como sumando a la derecha de la igualdad tiene (gracias a la asociatividad y conmutatividad del producto) una manera mucho m´ s sencilla a de expresarse como a4 b3 c3 . an } . e En realidad incluso esta notaci´ n es redundante. Ahora si n1 ... un monomio P xn1 · · · xnm aparece como sumando a la derecha en la f´ rmula (*) si y solo si Pni = n (ya o m 1 que los sumandos en (*)son productos de n elementos de A).. Distributividad general Mucho m´ s dif´cil es dar una forma general de la ley distributiva. Supongamos que ni = n. a1 · · · an (*) a∈A a 1 ∈A a n ∈A Esta f´ rmula aunque relativamente sencilla tiene un gran defecto.. Si digamos n7 es mayor que 1 en­ u . M´ s general.6 o Aritm´ tica de campos e 19 ´ La asociatividad de la operaci´ n de suma nos dice que esta expresi´ n tiene sentido unico o o ya que no es necesario explicitar las sumas hay que realizar primero y cuales despu´ s. m´ s consisa es esta otra nota­ X o a ci´ n en el recuadro a la derecha que podemos usar gracias a la conmutatividad de o a la suma. para muchos factores tenemos a à !à ! à ! X X X XX X a b ··· c = . ..

. En el caso particular m = 2. la optica y el c´ lculo diferencial. . . . Sir Isaac Newton (Inglaterra 1643­1727). o Si bien las f´ rmulas que hemos demostrado parecen ser complicadas o los argumentos que llevan a ellas son muy sencillos. jn ) a del producto cartesiano N × · · · × N de n copias de N o sea. Campos ı tonces tenemos que dividir por n7 ! ya que al permutar x7 . . . Nuestro objetivo es usar la ley distri­ butiva para expresar el elemento del campo del recuadro a la derecha como una suma de productos. ... . haciendo los cambios de variables o n = n1 y k = n1 − n2 obtenemos (x + y) = n n 1 +n 2 X n! n 1 n 2 X n! x y = xk yn−k n1 !n2 ! k! (n − k) ! =n k=0 n que es la famosa f´ rmula del binomio de Newton. Fundador de la mec´ ni­ ı a a ´ ca. Es importante ´ que el estudiante que desee estudiar el algebra lineal a profundidad se familiarize bien con estos argumentos ya que las formas multili­ neales y en particular los determinantes son muy parecidos a la parte derecha de la igualdad (*). Nn . . α1j1 · · · α1jn = αiji j1 ∈N jn ∈N j1 ∈N jn ∈N i∈N donde la suma m´ s a la derecha en esta igualdad recorre todos los elementos (j1 .nm ! 1 i=1 donde la suma a la derecha de la igualdad recorre todas las soluciones en n´ meros naturales u P de la ecuaci´ n ni = n. o o à m !n X X n! xn 1 · · · xnm xi = m n1 !. . j) tenemos un elemento i∈N j∈N ı ı del campo K que denotaremos por αij . Otra manera de pensar o a (j1 . n} 3 i 7→ ji = f (i) ∈ N y en nuestra suma tenemos que recorrer todas estas posibles funciones o sea. .x7 no obtenemos nuevos suman­ dos en (*). . jn ) es que tenemos una funci´ n f : N = {1. ı o o La expansi´ n de ΠΣαij o Ahora deduciremos otra consecuencia de la forma general de la ley distri­ Y X butiva que usaremos mucho m´ s adelante... Como por definici´ n 0! = 1! = 1. .20 Cap´tulo 1... n} y expresar la forma a o general de la ley distributiva en nuestro caso de la siguiente manera à ! à ! X X X X XY α1j1 · · · αnjn = . el conjunto NN de . . Lo mismo sucede con los otros ni . Supongamos que N es un conjunto a αij finito de ´ndices y que para cada pareja de ´ndices (i. Probablemente el cien­ t´fico m´ s renombrado de todos los tiempos. Sus tres leyes de la mec´ nica a a fundaron la base de la ingenier´a que llev´ a la revoluci´ n industrial. finalmente o obtenemos la siguiente expresi´ n conocida como f´ rmula multinomial. Para esto lo m´ s c´ modo es pensar que el conjunto N es {1. . .

u Un lector atento. madera.. Esto quiere e P decir que un polinomio define una funci´ n K 3 x 7→ ai xi ∈ K y en esta interpretaci´ n x o o no es una literal sino una variable. la aritm´ tica de campos es trivial ya e que todo elemento se divide entre cualquier otro no nulo. interpretamos al polinomio como la imagen por la funci´ n de evaluaci´ n o o de la variable x que toma sus valores en el campo. Siendo esta interpretaci´ n de los polinomios fundamental. O sea. ai xi tambi´ n es un elemento del campo K. Solo basta que nuestros n´ meros formen un campo. En este sentido. estas son v´ lidas en cualquier anillo conmutativo. Zp o cualquier otro campo que a´ n no conoscamos. C. 1. De la misma manera el binomio de Newton no tiene nada que ver con que si los n´ meros son reales o u complejos u otros. o necesitamos que la suma y producto de polinomios concuerde con la definici´ n de suma y o producto de funciones (f + g) (x) = f (x) + g (x). La manera m´ s sencilla de ver­ a n los es que un polinomio de grado n en la literal x es una expresi´ n formal del X o ai xi tipo en el recuadro a la derecha donde los coeficientes a0 .. por aritm´ tica se entiende a a e el estudio de las propiedades de divisibilidad en anillos. No tenemos que demostrar el teorema de Pit´ goras ı o a para tri´ ngulos de acero. Si interpretamos a x como un e P elemento del campo K entonces. Para el producto. Suma y producto de polinomios Aunque el lector seguramente conoce las definiciones de suma y producto de polino­ mios.. Estas propiedades no tienen nada que ver con que el a cuadrado de la hipotenusa sea igual a la suma de los cuadrados de los catetos. en estas notaciones finalmente obtenemos XY YX αij = αif(i) i∈N j∈N f∈N N i∈N que es una f´ rmula que ya no depende de cual es el conjunto N. . Al coeficiente an se le llama coeficiente principal del polinomio. Luego. Q. (fg) (x) = f (x) g (x). nos parece apropiado recordar el porqu´ de las mismas.7 o Polinomios sobre campos 21 todas las funciones de N en N. Luego. etc. Esta es u la ventaja intr´nseca de la abstracci´ n.7 Polinomios sobre campos Hay muchas maneras de ver los polinomios. sea este R. an son elementos i=0 de cierto campo K y an 6= 0. podr´a observar que en las pruebas de todas las f´ rmulas en ning´ n momento usa­ ı o u mos la existencia de inversos en el campo. usando la forma general . a A diferencia de las matem´ ticas elementales en matem´ ticas superiores. Por esto. tenemos n n n n X X X¡ ¢ X ai xi + bi xi = (ai + bi ) xi ai xi + bi xi = i=0 i=0 i=0 i=0 donde la primera igualdad se da por asociatividad y conmutatividad y la segunda por distri­ butividad. o Debemos recalcar una vez m´ s que todo lo dicho en esta secci´ n es v´ lido para cual­ a o a quier campo.Secci´ n 1.

Si existe un polinomio c tal que p = cq entonces se dice que ´ q divide a p. Factores y raices Sean p y q dos polinomios. El conjunto de todos los polinomios sobre un campo arbitrario K forma un anillo conmutativo (para ser campo solo le falta la existencia de inversos multiplicativos). si no entonces. El grado de r es estrictamente menor que el grado de q. Al polinomio c = c1 + . Luego. Sea b un elemento arbitrario del cam­ i=0 po. p = cq + r 2. cualquier polinomio de grado cero divide a cualquier otro polinomio (en un campo hay inversos). A este anillo se lo denota por K [x]. Lo importante es saber aplicar sistem´ ticamente asociatividad. Obviamente. Es natural denotar o y a p (b) = n ai bi . Esto nos da una funci´ n K 3 b 7→ p (b) ∈ K llamada la funci´ n de o o i=0 de la ley distributiva tenemos ⎛ Ã n !Ã m ! n X n+m m X X X X ⎝ ai xi bj xj = ai bj xi+j = i=0 j=0 i=0 j=0 k=0 i=m´ x(0. Supongamos m ≤ n. un Sea p (x) = Pn ai xi un polinomio en K [x] . Diremos que q esP factor de p si q divide a p y el grado de q es al menos uno. Existen polinomios c y r tales que 1.. + ci )q + ri y el grado de ri es estrictamente menor que el grado de q. Sea p = ai xi un polinomio de grado n y q = bi xi un polinomio de grado m.. la multi­ e i=0 plicaci´ nP las potencias est´ n bien definidas en un campo arbitrario. al polinomio r = ri se le llama resto de p entre q.k−m) a X ai bk−i ⎠ xk ⎞ .k) ı donde la segunda igualdad se obtiene haciendo el cambio de variable k = i + j y usando aso­ ciatividad. Si el grado de r1 es menor que el grado r1 = ai xi − c1 bi xi de q entonces ya terminamos. Campos ı m´n(n. haciendo los i=0 i=0 mismos c´ lculos podemos escribir r1 = c2 q + r2 y vamos a disminuyendo el grado de ri hasta que este sea menor que el grado de q. conmutatividad y distributividad. o que q es un divisor de p. Se puede saber sumar y multiplicar polinomios sin saberse estas f´ rmulas. Entonces. Obviamente n ai bi es tambi´ n un elemento del campo ya que la suma. hay un i tal que p = (c1 + . o que p es un multiplo de q.. P P Prueba. Si n < m entonces poniendo c = 0 y r = p terminamos.22 Cap´tulo 1.. c1 = bm El grado de r1 es menor que el grado de m−1 n−1 P P p. o a conmutatividad y distributividad para obtener el resultado deseado. + ci se le llama cociente de p entre q. sacando cuentas nos podemos convencer xn−m an de que p = c1 q + r1 donde c1 y r1 son los polinomios en los recuadros. Divisi´ n de polinomios o Divisi´ n con Resto de Polinomios o Sean p y q dos polinomios.

Ajustada nuestra terminolog´a. Si p. o sea o o son los elementos del campo b tales que p (b) = 0. ı ı Sea b una ra´z del polinomio p. Como (x − b) es de grado uno r tiene que ser de grado cero. Si elQ polinomio p tiene como raices a b1 .7 o Polinomios sobre campos 23 evaluaci´ n del polinomio p. Un polinomio de grado n tiene a lo m´ s n raices. Luego. Los ceros de esta funci´ n son las raices del polinomio p.Secci´ n 1. Los ideales m´ s sencillos son los que e a a . q ∈ I entonces p + q ∈ I. Es mucho m´ s c´ modo pensar que si una ra´z tiene multiplicidad n entonces a o ı hay n “diferentes” raices todas del mismo “valor”. Es muy inc´ modo trabajar con el ı o concepto de multiplicidad. de ajustar los hechos expuestos a un lenguaje m´ s riguroso. Las e raices y los factores de un polinomio est´ n enlazados por el siguiente resultado: a Para que b sea una ra´z de p es necesario ı y suficiente que (x − b) sea un factor de p.15. la suma es una operaci´ n binaria dentro del ideal y cualquier m´ ltiplo o u de un elemento del ideal tambi´ n est´ en el ideal. Prueba. . como factor a n+1 (x − bi ) que es un polinomio de grado n + 1. Le dejamos al lector interesado la desagradable tarea. Dividamos con resto p entre (x − b). Esto contradice que p i=1 tiene grado n. . r = 0 y rec´procamente. 4}. a Ahora el nucleo de un polinomio no es exactamente un conjunto sino una “colecci´ n” de o elementos del campo en¢la cual puede haber elementos repetidos. Al conjunto de todas las raices de p lo llamaremos nucleo de p y lo denotaremos por Ker p (en ingl´ s “nucleo” es “kernel”). . Si n ≥ 1 es el mayor natural tal que (x − b)n es factor ı de p entonces a n se le llama multiplicidad de la ra´z b. 1. En otras palabras. tomemos la afirmaci´ n: “Si b1 y b2 son dos raices o del polinomio p entonces (x − b1 ) (x − b2 ) es un factor de p”. Esta afirmaci´ n es cierta no o solo para cuando b1 6= b2 sino tambi´ n cuando son iguales pero la ra´z tiene multiplicidad e ı mayor que 2. Por ejemplo. bn+1 entonces p tiene. por 1. Este abuso del lenguaje ser´ com´ n en este libro y a partir de ahora no tendremos necesidad de usar a u continuamente el concepto de multiplicidad. podemos establecer una ı importante consecuencia del resultado anterior. a Prueba. As´ por ejemplo tenemos ı ¡ Ker x3 − 6x2 + 9x − 4 = {1. . Ideales de polinomios Un conjunto I de polinomios se llama ideal si se cumplen las dos siguientes propiedades: 1. si b es ra´z entonces. Si p ∈ I entonces para cualquier polinomio r ∈ K [x] tenemos que rp ∈ I. Sean c y r tales que p (x) = c (x) (x − b)+r. Evaluando en b obtenemos p (b) = c (b) (b − b) + r = r. 2.

Existen polinomios α y β tales que αp + βq = 1. r tales que g = αm + r donde el grado de r es menor que el grado de m o r es nulo. Efectivamente. y por lo tanto g ∈ Im . Prueba. Por u la propiedad 1 se tiene que Im ⊆ I. γ (αp + βq) = γαp + γβq = α p + β0 q donde a α0 = γα y β0 = γβ y con esto concluimos que Ipq es un ideal. ı Todo ideal de polinomios es principal. que I es principal. Campos ı se forman tomando todos los m´ ltiplos de un polinomio fijo p. Ahora. q ∈ Ipq . Como todo ideal de polinomios es principal. Esto demuestra u e u la propiedad 1. Tenemos. 1 ∈ Ipq . existen polinomios α y β tales que p = αm y q = βm. si g ∈ I entonces dividiendo g entre m obtenemos polinomios α. Lo asombroso es que todo ideal es as´. Estos ideales se les llama ideales principales. Como p. Famoso en su epoca sobre todo por los seis vol´ menes de su libro de texto “Cours complet de math´ matiques a l’usage u e ` de marine et de l’artillerie” que por muchos a˜ os fueron los libros que estudia­ n ´ ban los que aspiraban a ingresar a la “Ecole Polytechnique”. Si qp y q0 p son dos tales u m´ ltiplos entonces qp + q0 p = (q + q0 ) p tambi´ n es un m´ ltiplo de p. Teorema de Bezout Sean p y q dos polinomios sin factores comunes. Tenemos r = g − αm y por las propiedades 1 y 2 esto significa que r ∈ I. La propiedad 2 se cumple obviamente. existe m tal que Ipq = {αm | α ∈ K [x]}. 1730­1783). Denotemos por Ipq = {αp + βq | α. comprobemos que los m´ ltiplos de los 0 elementos de Ipq est´ n en Ipq . Como p y q no tienen factores comunes. existen dos enteros α y β tales que αp + βq = 1. Sea I un ideal. Sea ahora m un polinomio no nulo de grado m´nimo tal que m ∈ I ı y denotemos por el conjunto de todos los m´ ltiplo de m o sea. esto significa que m es de grado cero y por lo tanto Ipq = K [x]. Im = {αm | α ∈ K [x]}. Probemos que Im = I. Prueba. Efectivamente. De la minimalidad del grado de m obtenemos r = 0. Entonces. Veamos primero que la suma de elementos de Ipq est´ en Ipq . Probemos que Ipq es un ideal.24 Cap´tulo 1. Su investigaci´ n o matem´ tica la dedic´ al estudio de los determinantes y de las soluciones de a o ecuaciones polinomiales. Esto prueba que Im = I o sea. . a 0 0 0 (αp + βq) + (α p + β q) = (α + α ) p + (β + β0 ) q = α00 p + β00 q u donde α00 = (α + α0 ) y β00 = (β + β0 ). [128] ´ Etienne Bezout (Francia. Ejercicio 29 Demuestre el teorema de Bezout para Z: Sean p y q dos enteros sin factores comunes. β ∈ K [x]}. En particular.

Si r y q no tienen factores comunes entonces r es factor de p. si q es m´ nico y p 6= q. Para obtener la demostraci´ n de esto primero necesitamos o o un sencillo lema de divisibilidad de polinomios. Si estos factores no son irreducibles puedo descomponer en factores cada uno de ellos y as´ sucesivamente llegamos a factores irreducibles. Como ambos sumandos a la derecha ı se dividen entre r entonces. Si un polinomio no es irreducible puedo descomponerlo en producto de dos factores. o ´ El sentido preciso de unicidad en este caso es que. Cualquier polinomio p se puede descomponer como αp1 p2 . pn donde α es su coeficiente principal y p1 · · · pn son polinomios irreducibles. Para esto supon­ o o gamos que el teorema es cierto para cualquier polinomio de grado estrictamente menor que k y probemos el teorema para los polinomios de grado k. solamente nos tenemos que fijar en los factores m´ nicos de p0 . La ventaja de trabajar con polinomios m´ nicos es que cualquier polinomio p o se descompone como αp0 donde α es su coeficiente principal y p0 es m´ nico. reordenar es lo unico que podemos hacer para obtener otra descomposici´ n. existen α y β tales que αr + βq = 1 y de aqu´ p = αrp + βpq. Un polinomio se le llama m´ nico si su coeficiente prin­ o o cipal es 1. o o Un polinomio se le llama irreducible si este es m´ nico. Esta descomposici´ n es unica salvo el orden de los factores. gracias a la conmutatividad del producto. Si reordena­ o u mos los factores. La prueba de esto es obvia.7 o Polinomios sobre campos 25 Unicidad de la factorizaci´ n en irreducibles. ı Lo que no es inmediato es que esta descomposici´ n es “´ nica”. En otras palabras. los polinomios de grado cero. . . Si p es de grado 1 entonces no hay nada que o ´ probar ya que entonces p es irreducible y la unica descomposici´ n de p es el mismo. Adem´ s. sacando como factor el coeficien­ a te principal podemos suponer que p es m´ nico. o ´ Prueba. para o descomponer p en factores. Por esto es conveniente introducir la siguiente definici´ n. Sean p y q dos polinomios y r un factor de pq. pn donde α es su coeficiente principal y p1 · · · pn son polinomios irreducibles. cuando no se puede descomponer no trivialmente en producto de dos factores. . Como r y q no tienen factores comunes entonces. casi. Luego. . p tambi´ n se divide entre r. o Diremos que un factor q es factor propio del polinomio m´ nico p. .Secci´ n 1. Prueba. e Teorema de Factorizaci´ n de Polinomios o Cualquier polinomio p se descompone como αp1 p2 . o Al descomponer un polinomio en factores causan muchos problemas de escritura los di­ visores que no son factores o sea. o Completemos la demostraci´ n por inducci´ n en el grado del polinomio. Bueno. por el Teorema de Bezout. Solamente debemos probar la unicidad. tiene grado mayor que 1 y no o tiene factores propios. obtenemos otra descomposici´ n.

pn−1 . Por 1. enunciada en la siguiente proposici´ n. p0m . se o o le llama Desarrollo de Taylor alrededor del punto x0 . se destacan: La invenci´ n de la rama de las matem´ ticas a o a que hoy en d´a se conoce como C´ lculo en Diferencias. . esto significa que p01 = p1 lo que es una contradicci´ n. P Prueba. Sea p (x) = ak xk un polinomio de grado n. . . Supongamos que x0 6= 0. Y hacien­ do una vez m´ s el mismo argumento. . Campos ı Supongamos que el polinomio m´ nico p de grado k tiene dos descomposiciones en irre­ o ducibles p1 . Si hubiera un pi igual a un p0j entonces para p/pi = p/p0j tenemos dos descomposiciones que por hip´ tesis de inducci´ n son iguales salvo orden. αk = ak . . la invenci´ n de ı a o la integraci´ n por partes. podemos suponer que p1 es diferente de todos los pi . . Sin embargo para polinomios. En 1772 o o Lagrange proclam´ esta f´ rmula como “el principio b´ sico del c´ lculo o o a a diferencial”. Como ambos son a irreducibles. y la f´ rmula llamada por su nombre. . [128] Ejercicio 30 Demuestre que la expresi´ n o Pi j=k . .18 el polinomio p01 es un factor de p1 . . . . o Desarrollo de Taylor Brook Taylor (Inglaterra 1685­1731). Entre las contribuciones de este matem´ tico. Por el binomio de Newton tenemos à n ! j n n n X X X µj¶ X X µj¶ xk (−x0 )j−k = (−x0 )j−k αj xk αj (x − x0 )j = αj k k j=0 j=0 k=0 k=0 j=k y para encontrar nuestros ¡ ¢ coeficientes αj tenemos para k ∈ {0. . su demostraci´ n es o independiente del campo y puramente algebraica (no requiere del concepto de continuidad). es cero si i 6= k y es uno si i = k. Como pn y p01 son irredu­ cibles y distintos entonces no tienen factores comunes. este desarrollo es mucho m´ s general y a a se cumple en cierta clase de funciones. ı ¡ j ¢¡ ¢ (−1)j−k k i es igual a la funci´ n delta o j de Kronecker δik o sea. n} las igualdades ak = Pn j−k = j . Desarrollo de Taylor Para cualquier polinomio p (x) y cualquier elemento del campo x0 existen unos unicos coeficientes α0 . Observese que bkk = 1 por lo que despejando ob­ j=k bkj αj donde bkjP k (−x0 ) n e tenemos αk = ak − j=k+1 bkj αj por lo que podemos hallar αn = an despu´ s αn−1 y as´ sucesivamente todos. A esta f´ rmula. Como el lector sabe de los cursos de c´ lculo. Repitiendo este argumento llegamos a que p01 es factor de p1 p2 . . llegamos a que p01 es factor de p1 . .26 Cap´tulo 1. αn tales que ´ p (x) = α0 + α1 (x − x0 ) + · · · + αn (x − x0 )n . Si x0 = 0 entonces. α1 . o o 0 Luego. pn = p01 .

Este teorema es tambi´ n conocido como el “teorema e ´ fundamental del algebra”. j=k j=k Ejercicio 31 Demuestre que losP ¡ ¢ αj del Desarrollo de Taylor (1. a a u Para hallar el producto de dos n´ meros complejos hay u que multiplicar sus m´ dulos y sumar sus argumentos.20) del polino­ coeficientes P 1. La forma polar hace mucho u m´ s f´ cil calcular el producto y las potencias de n´ meros complejos.8 o Polinomios complejos.Secci´ n 1. o r ϕ r cos ϕ r sin ϕ . Luego n bkj βj = n bkj αj y de aqu´ se deduce f´ cilmente que βj = αj . el contenido de esta secci´ n no es b´ sico para la com­ e o a ´ prensi´ n del algebra lineal. estad´sticas. Al n´ mero r se le llama m´ dulo del u o ´ n´ mero complejo y es com´ n que se denote por kzk. a ı a o Forma polar. Teorema de Gauss 27 mio ak xk son iguales a βj = n i ai xi−j .8 Polinomios complejos. por otro lado. Johann Carl Friedrich Gauss (Alemania 1977­1855) fu´ el e ´ m´ s grande matem´ tico de su epoca. Al angulo ϕ se le u u llama argumento del n´ mero complejo. En este libro tendremos ocaci´ n de o mencionar otros resultados de Gauss y cualquiera que se de­ dique a estudiar matem´ ticas. si es fundamental que o el lector conosca a la perfecci´ n el enunciado del teorema de o Gauss: todo polinomio complejo de grado al menos 1 tiene una raiz. Sugerencia: Use la identidad del ejercicio 0 i=j Pn j anterior para demostrar que ak = j=k bkj βj . a Si bi´ n. presupondremos que el a a lector conoce los correspondientes conceptos de an´ lisis real. Como esta demostraci´ n no es algebraica sino anal´tica necesitaremos in­ o ı troducir algunos conceptos b´ sicos de an´ lisis complejo. Teorema de Gauss En esta secci´ n demostraremos que el campo de los n´ meros complejos es algebraica­ o u mente cerrado. Para esto. Igualdad de Moivre Todo n´ mero complejo z se puede representar en la forma polar u → − z = r (cos ϕ + i sin ϕ) donde r es la longitud del vector 0z en el ´ plano complejo y ϕ es el angulo que forma dicho vector con el eje real de este plano (vease la figura). Donde los bkj son los definidos en la prueba P P ı a anterior. Este teorema que lleva su a a nombre fu´ demostrado por primera vez en su tesis doctoral e (1799). f´sica o astronom´a a ı ı ı oir´ de este cient´fico en m´ s de una ocaci´ n.

. 1. Esta desigualdad es equivalente a la siguiente: “En un tri´ ngulo el valor absoluto de la diferencia de dos de sus lados siempre a . Sea a = rn (cos nϕ + i sin nϕ). Para k ∈ {0. Moivre tambi´ n es famoso por haber predicho el d´a o e ı de su muerte.28 Cap´tulo 1. ¿Que grupo es este? [128] Abraham de Moivre (Francia 1667­1754). A pesar de su ı ı ı exelencia cient´fica. Descubri´ que dorm´a 15 minutos m´ s cada noche y suman­ o ı a do la progresi´ n aritm´ tica calcul´ que morir´a en el d´a que dormir´a 24 o e o ı ı ı horas. nunca tuvo la oportunidad de tener un puesto en alguna ı universidad.. Sean r (cos ϕ + i sin ϕ) y ρ (cos ψ + i sin ψ) dos complejos. Tenemos r (cos ϕ + i sin ϕ) ρ (cos ψ + i sin ψ) = rρ ((cos ψ cos ϕ − sin ψ sin ϕ) + (cos ψ sin ϕ + cos ϕ sin ψ) i) = rρ (cos (ϕ + ψ) + i sin (ϕ + ψ)) que es lo que se necesitaba probar. ¡Tuvo raz´ n! o Continuidad Una funci´ n f : C → C es continua en el punto z0 si para todo real positivo ε existe otro o real positivo δ tal que se cumple que (kz − z0 k < δ) ⇒ (kf (z) − f (z0 )k < ε).. Ejercicio 32 Pruebe que el conjunto de raices complejas del polinomio zn − 1 es un grupo para el producto. Uno de los fundadores de la Geometr´a Anal´tica y de la Teor´a de las Probabilidades. n − 1} denotemos xk el n´ me­ √ ro complejo con m´ dulo n r y argumento (ϕ + 2kπ) /n.¶ la Igualdad de Moivre tenemos oµ Por ¡ √ ¢n ϕ + 2kπ ϕ + 2kπ xn = n r cos n + i sin n = r (cos ϕ + i sin ϕ) = a k n n que es lo que se necesitaba probar. Sus ingresos proven´an de dar clases privadas de Matematicas ı y muri´ en la pobreza. Campos ı Prueba. u Prueba. a zn = rn (cos nϕ + i sin nϕ) Los polinomios zn − a tienen exactamente n raices complejas. . Veamos la desigualdad kz − z0 k ≥ kkzk − kz0 kk. Una funci´ n o continua en todo punto del plano complejo se le llama continua. Una de sus consecuen­ cias m´ s importantes es el siguiente resultado. La funci´ n m´ dulo z 7→ kzk es continua. o o Prueba. Aplicando este resultado al caso de la potencia de n´ meros u complejos obtenemos la igualdad mostrada en el recuadro a la izquierda. Esta igualdad se conoce como la Igualdad de Moivre.

La prueba de esta la dejaremos en calidad de ejercicio. Por esta desigualdad. Sean f y g funciones continuas en z0 . Ejercicio 33 Pruebe que en un tri´ ngulo el valor absoluto de la diferencia las longitudes de a dos de sus lados siempre es menor o igual que la longitud del tercero. [128] La suma y el producto de funciones continuas en un punto z0 son continuas en el punto z0 . Estas funciones son continuas y de o 1. La funci´ n de evaluaci´ n de un polinomio se obtiene usando sumas y productos o o de funciones constantes y la funci´ n identidad f (z) = z. f0 = f (z0 ). Sumando y aplicando la desigualdad del tri´ ngulo obtenemos: a θ = 2ε > kfz − f0 k + kgz − g0 k ≥ kfz − f0 + gz − g0 k = k(f + g) (z) − (f + g) (z0 )k Luego.8 o Polinomios complejos. la composici´ n f ◦ g es continua en el punto z0 .24 obtenemos la prueba. o Prueba. para todo θ > 0 existe δ tal que (|z − z0 | < δ) ⇒ |(f + g) (z) − (f + g) (z0 )| < θ con lo que se prueba que la suma de continuas es continua. Para cualquier polinomio complejo p la funci´ n o de evaluaci´ n C 3 z 7→ p (z) ∈ C es continua. Por otro lado. Prueba. Teorema de Gauss 29 es menor o igual que el tercero”. Para todo ε > 0 existen δ1 y δ2 tales que (kz − z0 k < δ1 ) ⇒ (kfz − f0 k < ε) (kz − z0 k < δ2 ) ⇒ (kgz − g0 k < ε) y en particular para el m´nimo (que llamaremos δ) de δ1 y δ2 se cumplen las dos desigualda­ ı des a la derecha. o .Secci´ n 1. Como c es una constante que no depende de z obtenemos que para todo θ > 0 existe δ tal que (|z − z0 | < δ) ⇒ |(fg) (z) − (fg) (z0 )| < θ lo que prueba que el producto de continuas es continua. Sea g una funcion continua en el punto z0 y f una funci´ n continua en el o punto g (z0 ) entonces.21 tenemos a k(fg) (z) − (fg) (z0 )k = kfz gz − f0 g0 k = k(fz − f0 ) (gz − g0 ) + (fz − f0 ) g0 + (gz − g0 ) f0 k ≤ kfz − f0 k kgz − g0 k + kfz − f0 k kg0 k + kgz − g0 k kf0 k < < ε2 + ε |g0 | + ε |f0 | < (1 + |g0 | + |f0 |) ε = cε = θ ´ donde la ultima desigualdad se da para ε < 1. Con el objetivo de ahorrar espacio denotemos fz = f (z). tenemos que ∀ε > 0 ∃δ = ε tal que si kz − z0 k < δ entonces. gz = g (z) y g0 = g (z0 ). kkzk − kz0 kk ≤ kz − z0 k < ε y esto prueba nuestra tesis. por la desigualdad del tri´ ngulo y 1.

Supongamos que l´m zk = z0 entonces. que toda sucesi´ n acotada tiene o ı e o una subsucesi´ n convergente pues esta misma propiedad se cumple para sucesiones reales. o o Prueba. ∀δ > 0 ∃N (k > N) ⇒ ı (kzk − z0 k < δ) . Una ı e sucesi´ n es convergente si esta tiene l´mite. Tambi´ n. Campos ı Prueba. Por la continuidad de f en g (z0 ) tenemos que ∀ε > 0 ∃δ (kz − g (z0 )k < δ) ⇒ kf (z) − f (g (z0 ))k < ε. Entonces. de la continuidad de g en z0 sabemos que ∀δ > 0 ∃δ0 (ky − z0 k < δ0 ) ⇒ kg (y) − g (z0 )k < δ. Esto es equivalente a que la sucesi´ n real {kzj k} sea acotada. Es claro que o una sucesi´ n no acotada no puede tener l´mite. Tambi´ n. Como f es continua en z0 . Una sucesi´ n {zj } = {aj + bj i} es acotada si ambas sucesiones {aj } y {bj } ı o son acotadas. Sea p (z) un polinomio de grado n > 1. la sucesi´ n {kp (zk )k} es no acotada. o L´mite de sucesiones complejas ı ı Una sucesi´ n de n´ meros complejos {zj } = {aj + bj i} tiene l´mite z = a + bi si las o u sucesiones reales {aj } y {bj } tienen l´mites a a y b respectivamente. Por la desigualdad triangular. por definici´ n tenemos que ∀ε > 0 ∃δ (kz − z0 k < δ) ⇒ (kf (z) − f (z0 )k < ε).De transitividad de la implicaci´ n obtenemos que ∀ε > 0 ∃N (k > N) ⇒ o kf (zk ) − f (z0 )k < ε y esto quiere decir que l´m f (zk ) = f (z0 ). Por 1. a ı Sea f una funcion continua en z0 y {zk } una sucesi´ n de n´ meros o u ı ı complejos que converge a z0 . i=0 i=0 i=0 .30 Cap´tulo 1. o Prueba. ı Si {zk } es no acotada y p es un polinomio de grado al menos 1 entonces. l´m f (zk ) = f (l´m zk ). o Expongamos otras dos propiedades que son un poco m´ s dif´ciles de probar.26 y porque los polinomios y el m´ dulo son funciones continuas. tenemos n n n−1 X° X ° X i n °ai zi ° = kai k kzk = kan k kzk + kai k kzki ≥ kan k kzkn kp (z)k ≥ Como {zk } no es acotada. Por otro lado. Componiendo estas dos propiedades obtenemos ∀ε > 0 ∃δ0 (ky − z0 k < δ0 ) ⇒ kf (g (y)) − f (g (z0 ))k < ε que es lo que necesitabamos. tampoco lo son {kan k kzk kn } y {kp (zk )k}. El m´ dulo de un polinomio es una funci´ n continua. esto es equivalente a que ∀ε > 0 ∃N tal que ∀k > N kzk − zk < ε. Esto es equivalente a ı que los m´ dulos y los argumentos de la sucesi´ n converjan al m´ dulo y al argumento del o o o l´mite. o Prueba. Por una propiedad an´ loga para las sucesiones o ı a reales se tiene que toda subsucesi´ n de una sucesi´ n convergente es convergente y converge o o al mismo l´mite.

El conjunto A es un conjunto de reales acotado inferiormente pues kp (z)k ≥ 0. 0 y por lo tanto. Hagamos el desarrollo de Taylor de p (z) alrededor del punto z0 . Luego (por un teorema cl´ sico a de an´ lisis matem´ tico). ı Sea p un polinomio complejo de grado al menos 1. por 1. que µ ∈ A. Por la definici´ n de θ. veamos un resultado preliminar que hace la mayor´a del trabajo. A tiene un ´nfimo que denotaremos por µ. a a ı Demostremos que µ es el m´nimo o sea. Denotemos A = {kp (z)k : z ∈ C}. Observemos que se cum­ − kp (z0 )k + j=k+1 ple la desigualdad q (0) = − kp (z0 )k < 0. Por continuidad (de los polinomios reales) existe un t0 > 0 suficientemente peque˜ o tal n que q (t0 ) < 0. kp (z0 + t0 θ)k ≤ kp (z0 )k + tk q (t0 ) < kp (z0 )k. z y k tenemos o n n X X k k j j k αj θ t = −p (z0 ) t + αj θj tj p (z) − p (z0 ) = αk θ t + j=k+1 j=k+1 n X ° ° donde q (t) denota el polinomio (con coeficientes re­ °αj θj ° tj−k ales) del recuadro a la derecha. de la desigualdad del tri´ ngulo obtenemos: a n X ° ° ¡ ¢ k °αj θj ° tj = kp (z0 )k + tk q (t) kp (z)k ≤ 1 − t kp (z0 )k + j=k+1 Ejercicio 34 ¿Donde se usa en la demostraci´ n anterior que t < 1? [128] o Teorema de Gauss Todo polinomio de grado mayor que cero tiene al menos una raiz compleja. Si la sucesi´ n {zj } no estuviera acotada entonces.8 o Teorema de Gauss Polinomios complejos. Prueba. Prueba. Luego.29 la ı o . Sea αk el primero de los {αj | j > 0} diferente de cero y escojamos z = z0 + tθ donde θ es una (ve´ ase 1. existe z ∈ C tal que kp (z)k < kp (z0 )k. Tenemos n n X X p (z) = αj (z − z0 )j = p (z0 ) + αj (z − z0 )j j=0 j=1 ya que α0 = p (z0 ) . Sea p un polinomio. Como µ es ´nfimo hay una sucesi´ n ı ı o {aj } de elementos de A que converge a µ y por lo tanto hay una sucesi´ n de complejos o {zj } tales que l´m kp (zj )k = µ. Si z0 no es una raiz de p entonces.22) de las raices de la ecuaci´ n xk + p (z0 ) /αk = 0 y e o t es un real tal que 0 < t < 1 que definiremos despues. Teorema de Gauss 31 Ya estamos listos para demostrar el Teorema de Gauss pero antes.Secci´ n 1.

por 1. Nuevamente.32 Cap´tulo 1. Es f´ cil comprobar que la u a operaci´ n de conjugaci´ n cumple las propiedades del recuadro a la o o derecha. por el Teorema de ı ´ Factorizaci´ n de Polinomios (1. an es el coeficiente prin­ o cipal del polinomio. o o Caso real Recordemos que si a + bi es un n´ mero complejo entonces u ˉ su complejo conjugado es a − bi.19) cada polinomio complejo p (x) se tiene que descomponer como j=1 en el recuadro a la izquierda. Esto nos dar´ la posibilidad de encontrar la descomposici´ n en factores (´ nica a o u salvo orden de los factores) de los polinomios complejos y reales. En esta f´ rmula. [128] o . Este resultado nos da la posibilidad de factorizar completamente los k Q polinomios complejos. z ∈ R ⇒ z = z ˉ ˉ 2. Los complejos αj son las diferentes raices de p (x). Como el m´ dulo de un polinomio es una funci´ n continua ı o o entonces. El natural nj es la P multiplicidad de la ra´z αj y n = ni es el grado de p (x). por 1.28 tenemos µ = l´m kp (zj )k = kp (l´m zj )k = kp (y)k. ı ı Si µ 6= 0 entonces. Luego. Luego.30 existir´a un y0 tal que kp (y0 )k < kp (y)k = µ lo que ı contradice que µ es el m´nimo de A. z + u = z + u ˉˉ 3.31) este polinomio tiene una ra´z α. ı 1. Caso Complejo Clasificaci´ n de los polinomios complejos irreducibles o Los polinomios complejos irreducibles son exactamente los m´ nicos de grado uno. ˉ 1. o ı o {zj } es acotada y podemos escoger una subsucesi´ n convergente que podemos suponer la o misma. Por el Teorema de Factorizaci´ n de Polinomios o an (x − αj )n j (1. Denotaremos por z el comple­ jo conjugado del n´ mero complejo z. Por el Teorema de Gauss (1. kp (y)k = 0 y por lo tanto p tiene una raiz. Denotemos y = l´m zj .14 el polinomio se ı divide entre (x − α) y esto contradice que el polinomio es irreducible. o Prueba.9 Factorizaci´ n de polinomios complejos y reales o En esta secci´ n utilizaremos el teorema de Gauss para averiguar cuales son todos los o polinomios irreducibles con coeficientes complejos y los polinomios irreducibles con coefi­ cientes reales. Luego. zu = zu Ejercicio 35 Demuestre estas propiedades de la conjugaci´ n compleja. Al absurdo supongamos que un polinomio irreducible tiene grado mayor que uno.19) esta descomposici´ n es unica salvo orden de los factores. Campos ı sucesi´ n {kp (zj )k} tampoco lo ser´a lo que contradice que esta sucesi´ n converge a µ. Por 1. µ ∈ A.

ya podemos descomponer completamente en factores los polinomios con coefi­ cientes reales. Entonces α es tambi´ n una ra´z de p. Esta diferencia har´ que poste­ o a riormente nos sea mucho m´ s f´ cil clasificar los operadores lineales en un espacio vectorial a a complejo que en un espacio vectorial real. α = a + bi ı con b 6= 0. Como α es ra´z de p = ai xi y por las propiedades de la conjugaci´ n tenemos ı X X X ˉ ˉ ˉ 0=0= ai αi = ai αi ai αi = Clasificaci´ n de los polinomios reales irreducibles o Si p es un polinomio real irreducible entonces p es de la forma x − α o es de la forma (x − a)2 + b2 con b 6= 0. Por la proposici´ n anterior a − bi tambi´ n es una ra´z de p por lo que o e ı p (x) = (x − (a + bi)) (x − (a − bi)) = (x − a)2 + b2 Si p es de grado al menos 3 entonces. Por la Teorema de Factorizaci´ n de Polinomios (1. e ı P o Prueba. En ambos casos se contradice la suposici´ n de que p es ı o irreducible. Si α fuera real esto contradecir´a que p es irreducible. por el teorema de Gauss este tiene una ra´z compleja ı α. Luego.9 o Factorizaci´ n de polinomios complejos y reales o 33 Sea p un polinomio con coeficientes reales y α una ra´z ı ˉ compleja de p. Si α fuera real entonces x − α ser´a un factor de p. Si p es de grado 2 entonces por el teorema de Gauss este tiene un factor x − α para cierto α complejo. los campos algebraicamente cerrados. El u ı n´ u Pmero natural m` es la multiplicidad de la ra´z compleja (a` + b` i). todo es m´ s f´ cil para los campos que a a cumplen el Teorema de Gauss o sea. Obviamente.19) esta descomposici´ n es unica salvo orden de los factores. En general. El n´ mero natural nj es la multiplicidad de la ra´z αj . . por el Teorema de Factorizaci´ n de o ´ Polinomios (1. n = P ni + 2 m` es el grado de p (x). Los u ı n´ meros complejos (a` + b` i) y (a` − b` i) son las diferentes raices complejas de p (x). Prueba. an es el coeficiente principal del polinomio. Ahora. Si α = a + bi con b 6= 0 entonces ı (x − a)2 + b2 ser´a un factor de p. Nuevamente.19) cada polinomio real o p (x) se tiene que expresar como: p (x) = an k Y j=1 k ´m ` Y³ 2 2 (x − αj ) (x − a` ) + b` nj `=1 que es lo que se quer´a probar. Si p es de grado 1 entonces necesariamente es igual a x − α para cierto n´ mero u real α. Los n´ meros reales αj son las o u diferentes raices reales de p (x). o La diferencia fundamental entre los n´ meros reales y los n´ meros complejos se expresa u u de manera muy evidente en los resultados de esta secci´ n. ı En esta f´ rmula.Secci´ n 1.

Funciones racionales Sea (A. Dos b d fracciones las consideraremos iguales si se cumple la igualdad en el recuadro a la derecha.10 Campos de fracciones. cd0 = c0 d y o o multiplicando estas dos igualdades obtenemos acb0 d0 = a0 c0 bd. lo que es equivalente a la tesis de la implicaci´ n. Campos ı 1. La fracci´ n 1/1 es neutro para el producto y cual­ o quier fracci´ n a/b donde a 6= 0 tiene inverso multiplicativo b/a ya que ab/ba = 1/1 por o la conmutatividad del producto en A. Para convencernos que la definici´ n es correcta o b d bd tenemos que probar que las sumas de fracciones iguales son iguales. Campos de fracciones Lo primero es definir las fracciones. o Este producto es conmutativo y asociativo ya que ambas propiedades se cumplen en los “numeradores” y en los “denominadores”. O sea que si las fracciones son iguales sus productos son iguales. ¿Funcionar´ esta misma construcci´ n en el caso general? a o Investiguemos para lograr una respuesta. +. o [129] Ahora. Nos tenemos que convencer primero de que esta defi­ nici´ n es correcta.34 Cap´tulo 1. necesitamos definir las operaciones entre fracciones. ·) un anillo conmutativo y denotemos por 0 el neutro aditivo y por 1 el neutro multiplicativo respectivamente . µ ¶ µ ¶ O sea que: a a0 c ad + cb a0 d0 + c0 b0 c0 = 0 y = 0 ⇒ = b b d d bd b0 d0 y efectivamente haciendo algunos c´ lculos inteligentes obtenemos a ¶ µ ¶ µ ¶ µ 0 0 0 = (ab0 − a0 b) dd0 = (ad + cb) b0 d0 = ab = a b ⇒ ⇒ cd0 = c0 d = (c0 d − cd0 ) bb0 = 0 = (a0 d0 + c0 b0 ) bd ac ac = b d bd . necesitamos ver que se cumple lo siguiente: µ ¶ µ ¶ a a0 c ac c0 a0 c0 = 0 y = 0 ⇒ = b b d d bd b0 d0 y efectivamente de las hip´ tesis de esta implicaci´ n tenemos ab0 = a0 b . Primero el pro­ ducto porque es el m´ s f´ cil. M´ s o a precisamente. Definamos el producto por la f´ rmula en el re­ a a o cuadro a la izquierda. Queremos construir un campo que contenga a A. Todo esto significa que el conjunto de fracciones con numerador distinto de cero forman un grupo conmutativo. Definamos ahora la suma de fracciones por la f´ rmula en el re­ a c o ad + cb + = cuadro a la derecha. Ejercicio 36 Demuestre que la igualdad de fracciones es una relaci´ n de equivalencia. Esta es una situaci´ n an´ loga a cuando construimos el campo de los racionales Q para que o a contenga al anillo conmutativo Z . Consideremos conjun­ ³ a c´ = ⇔ (ad = bc) to de todas las fracciones a/b donde a ∈ A y b ∈ A \ {0}.

u si no. v b d vbd vbd vbd vb vd vb vd ´ Por ultimo observemos que si identificamos al elemento a ∈ A con la fracci´ n a/1 podemos o pensar que el anillo A es un subconjunto de las fracciones ya que que la suma y el producto de estas fracciones coinciden con la suma y el producto dentro de A.10 o Campos de fracciones.Secci´ n 1. todo dominio de integridad tiene su campo de fracciones. La comprobaci´ n de que esta suma es conmutativa es obvia. siga leyendo. Su campo de fracciones es Q. Hemos hecho todas estas pruebas detalladamente para no equivocarnos al afirmar que esto que hemos demostrado sirve para cualquier anillo conmutativo. Funciones racionales 35 que era lo que se necesitaba probar. por ejemplo en Z6 tenemos 2 × 3 = 0. Tenemos que probar que el producto de dos polinomios diferentes de cero es dife­ . Luego. ¿Puede usted encontrar el error? Si cree que puede regrese arriba y b´ squelo. Prueba. que si un anillo conmutativo es tal que para cualesquiera b y d distintos de cero se tiene que bd es distinto de cero entonces. el conjunto de todas las fracciones es un grupo abeliano respecto a la suma. Al definir el producto (a/b) (c/d) = (ac/bd) con b y d distintos de cero supusimos que necesariamente bd es DISTINTO DE CERO. Ya vimos. Solo nos falta la distributividad para comprobar que las fracciones con las operaciones definidas forman un campo y esto se comprueba con los siguientes c´ lculos: a u ³ a c ´ uad + ucb uad ucb ua uc u a u c + = = + = + = + . Funciones racionales El ejemplo por el cual hemos escrito esta secci´ n es el siguiente: o Todo anillo de polinomios con coeficientes en un campo es un dominio de integridad. Al conjunto de todas las fracciones con las operaciones as´ de­ ı finidas se le llama el campo de fracciones del anillo conmutativo A. MENTIRA. se dice que este anillo es un dominio de integridad. Esto no es cierto en cualquier anillo conmutativo. Ahora si. La fracci´ n 0/1 es neutro para la o ´ suma y cualquier fracci´ n a/b tiene opuesto −a/b (para esto ultimo es necesario observar o que 0/1 = 0/v para todo v 6= 0). El problema es el siguiente. El lector deber´a anali­ ı zar cuidadosamente cada igualdad en los razonamientos anteriores para convencerse de que todas ellas se desprenden de los axiomas de anillo conmutativo y de las definiciones de las operaciones entre fracciones. Si en el anillo hay tales elementos no podemos definir adecuadamente el producto de fracciones (tampoco la suma). El ejemplo evidente de dominio de integridad es Z. La asociatividad se com­ o a c u adv + cbv + ubd prueba calculando que + + = b d v bdv independientemente del orden en que se haga la suma. no hay tal campo de fracciones para cualquier anillo conmutativo.

Denotemos p (x) q (x) = n+m ci xi . Como el anillo de polinomios K [x] es un dominio de integridad este tiene su campo de fracciones que se denota por K (x) . tenemos cn+m = an bm . Ejercicio 37 ¿Conoce usted un campo infinito de caracter´stica 2? [129] ı Ejercicio 38 ¿Que pasa si construimos el campo de fracciones de un campo? [129] . Por la f´ rmula del producto de o i=0 polinomios.36 Cap´tulo 1. Como an 6= 0. bm 6= 0 y todo campo es dominio de integridad obtenemos cn+m 6= 0 y por lo tanto p (x) q (x) 6= 0. N´ tese la diferencia entre K [x] y K (x). Las funciones racionales son fraciones de polinomios p (x) /q (x) que se suman y multiplican mediante las reglas a las que todos estamos acostumbrados. Eso quiere decir que de hecho. A los elementos o de K (x) se les llama funciones racionales (en la variable x). Observese que en la demostraci´ n no se us´ el hecho de que en el campo K hay inversos multipli­ o o cativos. hemos demostrado algo mucho m´ s fuerte: Los anillos de a polinomios con coeficientes en un dominio de integridad son dominios de integridad. Campos ı rente de cero (recuerdese que un polinomio es cero cuando todos sus coeficientes son cero). P P Sean p (x) = n ai xi y q (x) = m bi xi dos polinomios cualesquiera de grados n i=0 i=0 P y m respectivamente.

el eje de las x lo podemos identificar (escogiendo una unidad de medida) con R donde el cero es el origen de coordenadas (la intersecci´ n o de los dos ejes) por tanto. y los ge´ metras con puntos. Tomamos dos rectas per­ pendiculares.´ ste es el objeto central del algebra lineal. los escalares se denotar´ n por letras latinas y griegas normales. Adem´ s. Daremos las definici´ n de espacio e o vectorial complementandola con los ejemplos m´ s fundamentales. en que el algebra y la geometr´a eran dos cosas to­ u ı talmente aparte. px es simplemente un n´ mero real. a . py ). etc. a la horizontal se le llama “eje y de las equis” y a la vertical se le llama “eje de las yes”. A diferen­ cia de estos. su dimensi´ n etc. polinomios. lo que nos o llevar´ a entender todos los espacios vectoriales (al menos los de dimensi´ n finita).1 El plano cartesiano ´ Hubo alg´ n tiempo. Motivaremos la introducci´ n de este concep­ o to en el ejemplo geom´ trico del plano cartesiano. o o ı etc. Los algebristas trabajaban con n´ meros. Para cada punto del plano p tra­ p py zamos la perpendicular al eje x y al eje y y de esta manera obte­ nemos los puntos px en el eje x y py en el eje y. a cada punto del plano u ı p se le hace corresponder biun´vocamente una pareja de n´ meros ı u reales (px . Desde ahora denotaremos los vectores por letras latinas en negritas. f´ rmulas. Profundizaremos a en la estructura de estos estudiando sus subespacios. As´. lineas. es conveniente representar cada punto del plano como el segmento a dirigido desde el origen de coordenadas hasta el punto o sea como vectores. Por cuanto. De la u px x misma manera py es otro n´ mero real. Ren´ Descartes (Francia 1596­1650) fu´ el que tuvo la brillante e e idea de introducir los ejes de coordenadas. a 2. A los elementos de R (para diferenciarlos de los vectores) los llamaremos escalares. u raices. Finaliza­ a o remos este cap´tulo con el estudio de las operaciones entre subespacios y subespacios afines ı lo que nos llevar´ a entender los espacios cocientes. sus bases. pol´gonos.

ay + by ) . El producto por escalares es distributivo con respecto a la suma α (a + b) = αa+αb de vectores y tambi´ n con respecto a la suma de escalares o sea e (α + β) a =αa+βa se cumplen las igualdades en el recuadro. Del hecho que (R. Ejercicio 39 Demuestre geom´ tricamente que la diagonal del paralelogramo generado por e a y b tiene coordenadas (ax + bx . by ) son dos vectores la suma de los mismos se define como a + b = (ax + bx . Sea K un campo cuyos elementos los llamaremos escalares y (E. El 1 que aparece en el axioma E3 es el 1 del campo. αay ) . . ay ) es un vector y α un escalar el producto αa se define y 2a como (αax . Geom´ tricamente este producto es aumentar (o reducir) e a en un factor α el vector a. o 1858 ­1932). ay ) y b = (bx . [129] Ejercicio 40 ¿Es la multiplicaci´ n de un escalar por un vector una operaci´ n binaria? [129] o o Ejercicio 41 ¿Cuantas diferentes operaciones hay en α (βa) y (αβ) a? [129] Ejercicio 42 ¿Que es la resta de dos vectores? ¿Cual es su interpretaci´ n geom´ trica? o e 2. o por la a a u “Curva de Peano” que es una inmersi´ n continua sobreyectiva del inter­ o valo en el cuadrado. ay + by ). Estas dos leyes distri­ butivas (¡son diferentes!) se cumplen porque son ciertas en cada coordenada. +) es un grupo abeliano se desprende f´ cilmente a b que nuestro plano cartesiano R2 es tambi´ n un grupo con respecto a la e x suma de vectores. Espacios vectoriales ı a + b Si a = (ax . Adem´ s. Pea­ a e no es m´ s conocido por su axiom´ tica de los n´ meros naturales. Si a = (ax . Si el factor es cero entonces el vector se o x degenera al origen de coordenadas. geom´ tricamen­ e a te no es nada m´ s que la diagonal del paralelogramo generado por a y a b . en su libro “C´ lculo Geom´ trico” publicado en 1888. A los axiomas E1 y E2 se les llama distributividad E2) (βa) = (αβ) a y asociatividad respectivamente del producto por escala­ E3) 1a = a res. +) un grupo abeliano cuyos elementos los llamaremos vectores. Si el factor es negativo entonces el resultado apunta en la direcci´ n opuesta. La suma. Diremos que es un espacio vectorial sobre K si est´ definida una operaci´ n de producto de escalares E1) α (a + b) = αa + αb a o (α + β) a =αa+βa por vectores K×E → E que cumple las propiedades E1­ E3. obviamente tenemos que α (βa) = (αβ) a. Todo esto nos dice que el a plano cartesiano es nuestro primer ejemplo de espacio vectorial sobre los reales.38 y Cap´tulo 2.2 Definici´ n y ejemplos o La primera definici´ n de espacio vectorial la dio Giuseppe Peano (Italia.

. +) es un grupo abeliano. an ).Secci´ n 2. Es muy importante que el lector no se pierda en la cantidad de “ejemplos” que sigue. . Finalmente.. el axioma E3 (αa1 . an ) a de K.. opuestos para la suma −α e inversos multiplicativos α−1 . . a2 . bn ) (a1 + b1 . . a ) | a ∈ K} 1 2 n i campo K. Las relaciones que cumplen estos con respecto al producto por escalares nos las da el siguiente resultado b´ sico.2 o Definici´ n y ejemplos o 39 Como (E.. De esta manera obtenemos que Kn es un espacio vectorial sobre K. La mayor´a de ellos son fundamentales ı para entender este libro. ... a a Ejercicio 43 Demuestre que αa = 0 ⇒ α = 0 o a = 0. αa2 . una n­ada tiene n coordenadas. En particular. (−1) a = −a y α0 = 0. Prueba. introduciremos notaciones b´ sicas que ser´ n usadas a a constantemente.. Del hecho de que las (b1 . los escalares ser´ n los elementos a a n (a1 . a2 . Al escalar ai se le llama la i­´ sima coordenada de la n­ada (a1 .. . La demostraci´ n se realiza mediante las siguentes tres cadenas de igualdades o E3 E1 0a = 0a + 1a − a = (0 + 1) a − a = a − a = 0 E3 E1 (−1) a = (−1) a + 1a − a = (−1 + 1) a − a = 0a − a = −a ¡ ¢ ¡ ¢ E2 E3 E1 E3 α0 = α0 + 1 · 0 = α 0 + α−1 0 = α α−1 0 = 1 · 0 = 0 donde signos “=” est´ n marcados con los axiomas por los que son v´ lidos.. an ) denadas.. . un neutro para el producto: el 1. El opuesto del vector a se denota por −a... Luego.. αan ) se reduce en cada coordenada a que 1 es el neutro para el producto en el campo K.. [129] Ejercicio 44 ¿Cual es el m´nimo n´ mero de elementos que puede tener un espacio vecto­ ı u rial? [129] Veamos ahora algunos ejemplos de espacios vectoriales. Los vectores ser´ n las n­adas. Este producto se denota por Kn y est´ forma­ a e do por todas las n­adas (a1 ... En K se introduce f´ cilmente la suma por coordenadas co­ mo se muestra en el recuadro a la izquierda.. + . El axioma E1 se reduce en cada coordenada a la distribu­ × α tividad del producto respecto a la suma en el campo K. Por otro lado el campo de escalares tiene un neutro para la suma: el 0. .. a En todo espacio vectorial para cualquier vector a y cualquier escalar α se cumple que 0a = 0... El axioma E2 a la asociatividad del producto en K. La multiplicaci´ n por escalares tambi´ n se introduce por coor­ o e (a1 . . an )... an + bn ) propiedades necesarias se cumplen en cada coordenada se des­ prende que (Kn .. tiene que tener un vector neutro que deno­ taremos por 0. El espacio de n­adas Kn Consideremos el producto cartesiano de n copias del Kn = {(a . a .. +) es un grupo abeliano entonces.

.. an + bn . Ahora. .) (a1 + b1 . a2 .. an . Es muy conocido que K [x] = n∈N i=0 todos los axiomas de espacio vectorial se cumplen. Los axiomas de espacio vectorial se ... La noci´ n de convergencia de sucesiones o no tiene nada que ver con el concepto de espacio vectorial.. Tambi´ n sabemos multiplicar un e ai ∈ K ai xi | elemento de K por un polinomio. .. De P hecho.40 Cap´tulo 2.... b2 . generalicemos estos ejemplos. . 0) con suficientes ceros para com­ pletar las n coordenadas y entonces la suma es la misma que en Kn+1 . a2 . 0.. el concepto de producto de o series no juega ning´ n papel en el hecho de que K [[x]] sea un espacio vectorial.) se corresponden biun´vocamen­ te con las funciones N 3 i 7→ ai ∈ K. .. este ejemplo es el mismo que el del espacio de sucesiones. .. an . (a1 . an ) ∈ Kn y las funciones {1..) + El espacio de series K [[x]] Las series se suman coeficiente por coeficiente. esta suma se hace coefi­ ² ± n X ciente por coeficiente. Los axiomas de espacio vectorial K [[x]] = i=0 se cumplen porque se cumplen para cada coeficiente... a1 . an ) y la multiplicaci´ n por escalar es la misma o i=0 n+1 que en K .. . En cierto sentido este espacio vectorial es parecido al anterior. El producto por un escalar se define por (λf) (i) = λf (i).... . Dadas dos funciones f.. b1 ... bn . Para ±∞ ² X multiplicar por un escalar se multiplican todos los coefi­ ai xi | ai ∈ K cientes por el escalar. Lo mismo pasa con la multiplicaci´ n por un escalar. La mutiplicaci´ n un escalar es tambi´ n por o e coordenadas. n} 3 o ı i 7→ ai ∈ K... .. . . ...) de sus coeficientes y no hay di­ ı o ferencia entre sumar series y sumar las correspondientes sucesiones. Al igual que con los polinomios. Podemos asociar a cada polino­ P mio n ai xi la (n + 1)­ada (a0 . Aunque sepamos multiplicar polinomios.. . El lector debe observar que los elementos a de la sucesi´ n pueden estar en un campo arbitrario y no ne­ o cesariamente en R como estamos acostumbrados.. Para la suma podemos tener un problema si son de grados diferentes pero esto P se resuelve agregando suficientes ceros o sea si m bi xi es otro polinomio con n > m i=0 entonces podemos asociarle la n­ada (b0 ..) (b1 . . bn .... g ∈ KA la suma de ellas se define como es habitual por (f + g) (i) = f (i) + g (i) para cualquier i ∈ N... Si N es un conjunto arbitrario (no necesitamos de operaci´ n alguna en N) entonces el conjunto de to­ o das las funciones de N en K se denota por KN .. u El espacio de sucesiones KN Dos sucesiones se suman por coordenadas como se muestra en el recuadro. Igualmente las sucesiones (a0 . Cada serie ∞ ai xi se i=0 determina un´vocamente por la sucesi´ n (a0 . u El espacio de funciones KN Hay una biyecci´ n natural entre las n­adas (a1 . a2 . an . .. .. Espacios vectoriales ı El espacio de polinomios K [x] Podemos sumar polinomios. Los axiomas de espacio vectorial se comprue­ ban f´ cilmente. a1 .. . esto no tiene ning´ n papel en el concepto de espacio vectorial.. .

Secci´ n 2.2 o

Definici´ n y ejemplos o

41

comprueban f´ cilmente. Por ejemplo, la suma de funciones es conmutativa porque para cada a i en N se cumple que f (i) +g (i) = g (i) +f (i) gracias a la conmutatividad de la suma en el campo. Como hemos visto, el espacio Kn y el espacio de sucesiones son un caso particular de este ejemplo cuando N es {1, ..., n} y N respectivamente. Adem´ s, ya observamos que a K [[x]] = KN . El espacio de N­adas KN En lo adelante una funci´ n en KN se denotar´ por αN . M´ s precisamente, αN o a a es la funci´ n que a cada i ∈ N le hace corresponder el escalar αi . Por ejemplo, o o si N = {1, . . . , n}, entonces αN = (α1 , . . . , αn ). La bondad de esta notaci´ n N es que podemos pensar los elementos de K (funciones) como si fueran n­adas. Para poder seguir pensando en αN como si fuera en una n­ada necesitamos las palabras adecuadas. A los elementos αN de KN los llamaremos N­adas. Al conjunto N lo llamaremos conjunto de ´ndices de αN y a los elementos de N los llamaremos ´ndices. Si i es un ´ndice, entonces ı ı ı diremos que αi es la i­´ sima coordenada de αN . En estas notaciones la suma de dos N­adas e es por coordenadas. O sea, la i­´ sima coordenada de αN +βN es αi +βi . El producto escalar e tambi´ n es por coordenadas. O sea, la i­´ sima coordenada de λαN es λαi . e e Si el conjunto N es finito y tiene n elementos entonces, la diferencia fundamental entre una N­ada y una n­ada es que las coordenadas de la N­ada no necesariamente est´ n or­ a denadas. Por ejemplo, si el conjunto N es un conjunto de tres vectores entonces, estos no tienen un orden natural. Para poder identificar una N­ada de estos con una 3­ada, necesita­ mos definir artificialmente cual es el primer vector cual es el segundo y cual es el tercero. Sin embargo, si al lector le cuesta trabajo pensar en las N­adas cuando N es un conjunto, le sugiero olvidarse de que N es un conjunto y pensar que N es un n´ mero natural. u El espacio de N­adas con soporte finito K{N} Sea αN ∈ KN una N­ada. El soporte αN es por definici´ n el conjunto de ´ndices i tales o ı ı que αi 6= 0. Si el conjunto de ´ndices N es finito entonces, cualquier N­ada tiene soporte finito (porque un subconjunto de un conjunto finito es finito). Sin embargo, si el conjunto de ´ndices es infinito entonces habr´ N­adas con soporte infinito. ı a Si sumamos dos N­adas de soporte finito el resultado ser´ una N­ada de soporte finito a (porque 0 + 0 = 0). Si multiplicamos una N­ada de soporte finito por un elemento del campo el resultado ser´ una N­ada de soporte finito (porque λ0 = 0). Los axiomas de a espacio vectorial se cumplen porque ya sabemos que se cumplen para cualesquiera N­adas. Al espacio de N­adas con soporte finito se le denota por K{N} . Como ejemplo de espacio de N­adas de soporte finito veamos el siguiente. Cada polino­ P mio n ai xi determina un´vocamente una N­ada aN donde ai = 0 si i > n. Esta N­ada ı i=0 es de soporte finito. Rec´procamente, si aN es una N­ada de soporte finito entonces, nece­ ı ı sariamente, hay un natural n tal P ai = 0 para cualquier i > n. As´, le podemos hacer que corresponder a aN el polinomio n ai xi . Esta correspondencia es biun´voca y las opera­ ı i=0

42

Cap´tulo 2. Espacios vectoriales ı

ciones son las mismas en ambos espacios. Esto nos muestra que, el espacio de polinomios es el espacio de N­adas con soporte finito. En otras palabras K{N} = K [x]. Un caso importante es cuando N es finito y en este caso K{N} = KN . O sea, cada N­ada es de soporte finito. En particular, si N = {1, . . . , n} entonces K{N} = KN = Kn . Subcampos Sea L un subcampo de K. Podemos sumar los elementos de K y al multiplicar un ele­ mento de L por uno de K obtenemos un elemento de K. Esto significa que tenemos una operaci´ n binaria en K (la suma) y una multiplicaci´ n por escalares L × K → K. En este o o caso, los axiomas de espacio vectorial se desprenden directamente de las definiciones de campo y subcampo y obtenemos que K es un espacio vectorial sobre L. Un caso muy par­ ticular es que todo campo es espacio vectorial sobre si mismo. Otro ejemplo importante es que R es subcampo de C. Como cada complejo se puede escribir como una pareja (a, b) con coordenadas en R y la suma de complejos y el producto por un real son las mismas operaciones que en R2 tenemos que C como espacio vectorial sobre R es lo mismo que R2 . Otro ejemplo m´ s es que R es un espacio vectorial sobre Q. Este caso es suficientemente a ´ complicado para que no digamos nada sobre el. El espacio de N­adas de vectores EN Ahora, nos debemos preguntar, cual es el m´nimo de condiciones que le debemos pedir ı a las coordenadas de una N­ada, para poder definir un espacio vectorial. Ya vimos que, si las coordenadas est´ n en un campo entonces, obtenemos un espacio vectorial. Pero esto es a pedir mucho. En realidad, solo necesitamos saber sumar las coordenadas y multiplicar cada coordenada por un escalar, o sea, necesitamos que las coordenadas sean vectores. M´ s precisamente. Sea E un espacio vectorial sobre el campo K. Denotaremos por EN a el conjunto de todas las N­adas de E. Si aN y bN son dos elementos de EN entonces, la i­´ sima coordenada de aN + bN es ai + bi . Esto lo podemos hacer porque sabemos sumar e los elementos de E. Ahora, si λ es un elemento de K entonces, la i­´ sima coordenada de e λaN es λai . Esto lo podemos hacer porque sabemos multiplicar los escalares en K por los vectores en E. Los axiomas de espacio vectorial se demuestran f´ cilmente debido a que se a cumplen en cada coordenada. El espacio de NM­matrices KNM Un caso particular de N­adas de vectores es cuando estos vectores son M­adas de esca­ ¡ ¢N lares. Este espacio es KM . Para aclarar un poco que sucede en este caso, supongamos ¢N ¡ que N = {1, 2} y que M = {1, 2, 3}. Entonces, un elemento del espacio KM es una 2­ada (a1 , a2 ) de vectores y cada uno de ellos es una 3­ada de escalares. Los dos vectores los po­ ¶ demos representar como en el recuadro a µ α a1 = (α11 , α12 , α13 ) 11 α12 α13 la izquierda y para simplificar nos queda­ a2 = (α21 , α22 , α23 ) α21 α22 α23 mos con la tabla que vemos a la derecha.

Secci´ n 2.2 o

Definici´ n y ejemplos o

43

Esta tabla es un elemento del espacio de (N × M)­adas KN×M , o sea, los ´ndices son ı ¡ M ¢N parejas en el producto cartesiano N × M. Esto nos permite identificar K con KN×M y como las operaciones en ambos espacios son las mismas estos espacios son en esencia el mismo. Cambiando el orden en que ponemos los indices obtenemos las igualdades ¡ ¢M ¡ M ¢N = KN×M = KM×N = KN K que el lector debe comparar con (ax )y = axy = ayx = (ay )x para n´ meros naturales a, x, y. u Desde ahora, para simplificar la notaci´ n, a una (N × M)­ada cualquiera la llamaremos o NM­ada. Tambi´ n, en lugar de usar la notaci´ n α(N×M) para denotar una NM­ada concreto, e o usaremos la notaci´ n αNM . A una coordenada de esta NM­ada la denotaremos αij en lugar o de usar la m´ s complicada α(i,j) . En esta notaci´ n, es m´ s c´ modo pensar que hay dos con­ a o a o juntos de ´ndices (N y M) en lugar de uno solo (N × M). O sea, una NM­ada es un conjunto ı de elementos del campo indexado por dos conjuntos de ´ndices. Cuando N = {1, . . . , n} ı y M = {1, . . . , m} entonces obtenemos una matriz con n renglones y m columnas. En el ejemplo anterior obtuvimos una matriz con 2 renglones y 3 columnas. Para conjuntos N y M arbitrarios (por ejemplo, conjuntos de jerogl´ficos chinos), la ı diferencia es que no hay un orden preestablecido entre los elementos de los conjuntos de ´ndices por lo que no sabr´amos cual columna o rengl´ n poner primero y cual despu´ s. Como ı ı o e esta diferencia no es tan importante y para no formar confusi´ n en la terminolog´a desde o ı ahora, a las NM­adas los llamaremos NM­matrices. Escribiremos KNM para denotar el espacio vectorial de todas las NM­matrices. Como ya sabemos, en este espacio las matrices se suman por coordenadas y se multiplican por escalares tambi´ n por coordenadas. e Sea αNM una NM­matriz. Es costumbre llamarle a las coordenadas αij de αNM entra­ das de la matriz. Si i ∈ N entonces la M­ada αiM ∈ KM es el i­´ simo rengl´ n de la matriz e o N αNM . Si j ∈ M entonces la N­ada αNj ∈ K es la j­´ sima columna. Al conjunto N se e le llama conjunto de ´ndices de los renglones. An´ logamente, al conjunto M se le llama ı a conjunto de ´ndices de las columnas. ı 0 0 Si N , M son subconjuntos no vac´os de N y M respectivamente entonces a la matriz ı αN 0 M 0 se le llama submatriz de αNM . Si |N0 | = |M0 | = 1 entonces la submatriz es una entrada. Un rengl´ n es una submatriz donde |N0 | = 1 y M0 = M o sea una submatriz del o tipo αiM . Una columna es una submatriz donde |M0 | = 1 y N = N0 o sea una submatriz ´ o ı del tipo αNj . Una ultima observaci´ n acerca de las matrices, es que toda esta terminolog´a de “columnas” y “renglones” viene de la manera usual en forma de tabla en que escribimos una matriz concreta. El espacio de tensores Bueno, ¿y si tenemos m´ s de dos conjuntos de ´ndices? Pues es lo mismo. Una NML­ada a ı es una (N × M × L)­ada. Al igual que en las matrices denotaremos por αNML a una NML­ ada con tres conjuntos de ´ndices o sea un tensor de exponente 3. Las matrices son tensores ı de exponente 2 y las N­adas son tensores de exponente 1. Los tensores de exponente 0 son los elementos del campo.

44

Cap´tulo 2. Espacios vectoriales ı

Si bien podemos pensar un tensor de exponente 1, co­ mo una serie de elementos del campo uno al lado de otro y pensar los de exponente 2, como una tabla rectangular de elementos del campo, tambi´ n podemos pensar los tensores e de exponente 3, como un conjunto de elementos del campo dispuestos en un arreglo que llenan un cubo en el espacio. Para cada i ∈ N tenemos que αiML es un tensor de exponen­ te 2 o sea una matriz. Todo αNML nos lo podemos imaginar como muchas matrices puestas una encima de la otra. Sin embargo cuando el exponente del tensor es grande ya nuestra imaginaci´ n no da o para visualizar geom´ tricamente un arreglo de los elementos del campo dispuestos en un e cubo de dimensi´ n grande. Es mucho m´ s util el manejo algebraico de estos, que tratar o a ´ de visualizarlos. En este contexto, la terminolog´a de “renglones” y “columnas” se hace ı inutilizable. Como es l´ gico, los tensores con conjuntos de ´ndices fijos forman un espacio o ı vectorial. La suma se hace por coordenadas y tambi´ n la multiplicaci´ n por un escalar. e o

2.3 Subespacios
Sea E un espacio vectorial sobre K. Un subespacio es un conjunto no vac´o de vectores ı que es un espacio vectorial para las mismas operaciones. Un conjunto de vectores F no vac´o es un subespacio si y solo si para ı cualesquiera a, b ∈ F y λ ∈ K los vectores a + b y λa est´ n en F. a Prueba. Si F es un subespacio de E entonces, por definici´ n a + b y λa est´ n en F. o a Rec´procamente, sea F un conjunto de vectores de E que cumple las hip´ tesis. Como la ı o suma de vectores es asociativa y conmutativa en E, tambi´ n lo es en F. Sea a ∈ F (existe por e ser F no vac´o). Tenemos 0a = 0 ∈ F. Adem´ s ∀b ∈ F (−1) b = −b ∈ F. Con esto se ı a comprueba que (F, +) es grupo abeliano. Los axiomas de espacio vectorial se cumplen en F por ser este un subconjunto de E. Uni´ n e intersecci´ n de subespacios o o ¿Ser´ n la intersecci´ n (y la uni´ n) de subespacios un subespacio? La uni´ n de subespa­ a o o o cios no es un subespacio. Un ejemplo de esto son el eje x y el eje y en el plano cartesiano (veremos prontamente que son subespacios) sin embargo, la uni´ n de los mismos no es un o subespacio ya que por ejemplo (0, 1) + (1, 0) = (1, 1) que no pertenece a la uni´ n de los dos o ejes. Por el contrario, la intersecci´ n de subespacios si es un subespacio. o La intersecci´ n de un conjunto de subespacios es un subespacio. o

podemos ver que los vectores en este hai espacio son los puntos de la l´nea por el origen que pasa por a. El conjunto hai = {αa | α ∈ R} de todos los m´ ltiplos del u vector a es un subespacio de R2 ya que αa + βa = (α + β) a. b.Secci´ n 2. bi. cada uno de ellos multipl´quese por un escalar y s´ mese los resultados”. Geom´ tricamente. Como o podemos despreciar los sumandos iguales a cero. Si N es infinito tenemos un problema. claro que si. Geom´ tricamente. Sea a un vector a no nulo en R2 . o Es posible que no se entienda esta notaci´ n. Consideremos el conjunto de vectores {αa + βb | α. bi do la paralela a hbi obtenemos el punto αa en la recta hai y vemos que p = αa + βb. Luego. La intersecci´ n de subespacios nunca es vac´a porque cada subespacio contiene al o ı 0. p ∈ ha. e a Combinaciones lineales Veamos unos ejemplos importantes de subespacios. Si a y b son dos vectores en cada uno de los subespacios de un conjunto entonces. Para cada a punto p de este plano dibujemos la paralela a la l´nea hai que ı p pasa por p obteniendo un punto de intersecci´ n con la l´nea o ı b hbi el cual es βb para alg´ n β ∈ R. teniendo en cuenta la identificaci´ n de vectores e o con los puntos del plano cartesiano. As´ por ı ejemplo si N = {a. a + b tambi´ n est´ en cada uno de los subespacios del conjunto. En otras palabras. Sea N un conjunto de X o vectores. Lo mismo sucede para αa. Estos ejemplos nos motivan a la siguiente definici´ n. y α (βa) = (αβ) a. ¿Ser´ es­ a te plano el subespacio ha. dibujan­ u a ha. tenemos que una combinaci´ n lineal es o siempre una suma de un n´ mero finito de vectores. ı u Todo esto est´ muy bien si el conjunto N es finito. la notaci´ n i∈N αi i debe interpretarse as´: “t´ mese o ı o los vectores de N.3 o Subespacios 45 Prueba. An´ logamente. vemos que este conjunto contiene a la l´nea hai que pasa por e ı a y a la l´nea hbi que pasa por b. u El conjunto de todas las combinaciones lineales de N es un subespacio. d} entonces una combinaci´ n lineal de N es un vector de la forma o P αa+βb + γc+δd. El conjunto de ´ndices es el conjunto de o ı vectores N por lo que en la suma hay tantos sumandos como vectores hay en N. ı En R3 hay un solo plano que contiene estas dos lineas. bi y es un subespacio ya que αa+βb+α0 a+β0 b = (α + α0 ) a+(β + β0 ) by λ (αa + βb) = λαa+λβb. c. que la N­ada αN u cuyas coordenadas son los coeficientes de la combinaci´ n lineal es de soporte finito. bi? Pues. . β ∈ R}. ı Sean ahora a y b dos vectores en R3 no colineales o sea a 6= βb. Este conjunto de vectores se denota por ha. a ¿Que es una suma infinita de vectores? La manera de evitar este problema es que le pedire­ mos a los coeficientes αi que todos salvo un n´ mero finito sean cero o sea. A los escalares αi se les llama coeficientes i∈N de la combinaci´ n lineal. Una combinaci´ n lineal de N es cualquier vector de la forma que se o αi i muestra en el recuadro a la derecha.

6. F3 est´ contenido en cualquier subespacio que contiene a N y en particular o a o F3 ⊆ F1 . Por la proposici´ n 2. el m´ s peque˜ o que contiene a n a n . F contiene a hNi. i∈N Cerradura lineal Denotaremos por hNi al conjunto de todas las combinaciones lineales de N.3 el conjunto F2 es un subespacio que contiene a o o N y de 2. Lo mismo ocurre con γ αi i = i∈N γαi i. o o Por definici´ n. a n Prueba. La intersecci´ n de todos los subespacios que contienen a N.6. Si F contiene a N entonces. F2 y F3 a los tres conjuntos del enunciado de la proposici´ n.5 obtenemos que F1 ⊆ F2 . Prueba.3.3 hhNii es el subespacio m´ s a peque˜ o que contiene a hNi. 2. Como hNi es un subespacio. Supongamos ahora que N ⊆ M. cualquier combinaci´ n lineal de N est´ en F. F contiene a todos los m´ ltiplos de los vectores en N u y a todas sus sumas finitas. por 2. Espacios vectoriales ı u que es una combinaci´ n lineal de N yaP todos¢los (αi + βi ) salvo un n´ mero finito tienen o ¡ que P que ser cero. A cualquiera de los tres conjuntos (¡son iguales!) de la proposici´ n anterior se le denota o por hNi y se le llama cerradura lineal de N o tambi´ n el subespacio generado por N. ¨ N ⊆ M ⇒ hNi ⊆ hMi (monoton´a). o a Los siguientes tres conjuntos de vectores coinciden 1. Por o definici´ n F1 = hNi. El conjunto de todas las combinaciones lineales de N. Si F es un subespacio que contiene a N entonces. o 3. Denotemos por F1 . El incremento es inmediato de 2. La prueba termina usando la transitividad de la inclusi´ n de conjuntos. P P Prueba. Por definici´ n de intersecci´ n tenemos que F2 ⊆ F3 . Cualquier combinaci´ n lineal de N es tambi´ n combinaci´ n lineal de M (haciendo cero todos los o e o coeficientes de los vectores en M\N). de la aso­ ciatividad y conmutatividad de la suma de vectores y de la distributividad del producto por X X X escalares obtenemos: (αi + βi ) i αi i+ βi i = i∈N i∈N i∈N Prueba. e Propiedades de la cerradura lineal La cerradura lineal cumple las siguientes propiedades: ¨ N ⊆ hNi (incremento). El subespacio m´ s peque˜ o que contiene a N. Sean i∈N αi i y i∈N βi i dos combinaciones lineales de N entonces. Finalmente. ı ¨ hhNii = hNi (idempotencia). Luego.46 Cap´tulo 2.

0. Diremos a a o que N es un conjunto generador si hNi es todo el espacio o sea. 2. Solo depende del espacio. Es m´ s. en general. y. Por ejemplo. 2. 0. Esto quiere decir que cada vector de E se define por un cierto n´ mero de elementos del campo (coordenadas) y que este n´ mero es independiente u u 2 del vector a definir. envoltura). As´. 2) = (0.Secci´ n 2. 2) por lo que fN no es inyectiva. 1) son tres vectores en R3 . En matem´ ticas las palabras “clausura”. En general una funci´ n que a un conjunto N le hace corresponder otro conjunto hNi y que cumple o las propiedades 1­3 se le llama operador de cerradura (clausura. veremos que los conjuntos de vectores para los cuales fN es biyectiva a tienen la misma cantidad de vectores. porque en este caso existe la o a funci´ n inversa f−1 : E → K{N} que nos permitir´ introducir coordenadas en cualquier espa­ o N cio vectorial. 1. En todas las ramas de las matem´ ticas se encuentran operadores de cerradura. X . Ejercicio 46 Demuestre que (x ∈ hN ∪ yi \ hNi) ⇒ (y ∈ hN ∪ xi). [129] 2. sea N = {x. en R nos hacen falta siempre dos reales ı para dar un vector y en R7 nos hacen falta siete. O sea. K{N} 3 αN 7→ αi i ∈ E Conjuntos generadores Primero. a Ejercicio 45 Demuestre que N es un subespacio si y solo si N = hNi. Por a o ´ esto con el mismo exito. equivalente a que el operador de cerradura se defina como la intersecci´ n de todos los cerrados que o contienen al conjunto. 0) y z = (0. En esta secci´ n estableceremos que en todo espacio vectorial existen conjuntos N para o los cuales la funci´ n fN es biyectiva. la cerradura de N.4 Bases Observemos que la definici´ n de combinaci´ n lineal de N de­ o o termina la funci´ n fN del recuadro a la izquierda que a ca­ o i∈N da N­ada de soporte finito αN le hace corresponder el vector P o i∈N αi i. si fN es sobreyectiva. es bueno que el lector encuentre el parecido a entre el concepto de cerradura lineal y el concepto de “cerradura” en an´ lisis (la intersecci´ n a o de todos los cerrados que contienen a un conjunto). Que se cumplan las propiedades 1­3 es. 0. Tampoco es sobreyectiva porque (1. En este caso a los conjuntos tales que N = hNi se le llaman cerrados.4 o Bases 47 hNi no puede ser otro que hNi. Esta funci´ n no tiene porque que ser sobreyectiva ni inyectiva. otros autores le llaman “clausura lineal” o “envoltura lineal” a nuestro concepto de cerradura lineal. hhNii = hNi. En este caso fN (2. depende del con­ junto de vectores N. “cerradura” y “envoltura” son sin´ nimos. lo m´ s f´ cil. 0) = fN (0. y = (0. 1). La imagen de la funci´ n fN es hNi . Este hecho es fundamental. Adem´ s. z} donde x = (0. 0) no tiene preimagen. 1.

todos sus coeficientes o son cero. Si dos combinaciones lineales de N son iguales entonces. la existencia de combinaciones lineales iguales con al­ gunos coeficientes diferentes es equivalente a la existencia de combinaciones lineales iguales a cero con algunos coeficientes no cero. ı ¡P ¢ ¡⊆ ¢ P (3 ⇔ 4) Observese que αi i = i∈N βi i ⇔ a i∈N i∈N (αi − βi ) i = 0 y adem´ s (αi = βi ) ⇔ (αi − βi = 0). Rec´proca­ ı mente. si no se cumple 4 entonces hay un vector a ∈ N y una combinaci´ n lineal de N igual o a cero y con αa 6= 0. Prueba. Por monoton´a de la cerradura lineal tenemos hNi ⊆ hMi. Ejercicio 47 Busque en la prueba del Teorema de Caracterizaci´ n de Conjuntos Lineal­ o mente Independientes (2. (1 ⇔ 2) Si 1 no es cierto entonces existe a ∈ N tal que hNi = hN\ai pero entonces a ∈ hN\ai lo que contradice 2. Rec´procamente. Supongamos M ⊇ N. Observese que en un lenguaje m´ s descriptivo. Cualquier vector en N no es combinaci´ n lineal de los restantes. a un fN es inyectiva si y solo si se cumple la propiedad 3 del siguiente resultado. Esto contradice 4. Luego. 2. Por incremento N\a ⊆ hN\ai y como adem´ s a ∈ hN\ai a entonces N ⊆ hN\ai. necesariamente hMi tambi´ n lo es. Pasando todos los sumandos hacia un lado de la igualdad obtenemos una combinaci´ n o lineal de N igual a cero con un coeficiente distinto de cero. si 2 no es cierto entonces existe ı a ∈ N tal que a∈ hN\ai. Por monoton´a e idempotencia hNi P hN\ai lo que contradice 1. Cualquier subconjunto propio de N genera un subespacio m´ s peque˜ o a n que todo N.48 Cap´tulo 2. Los generadores son un filtro Prueba. o 3.9) donde se usa que en los campos hay inversos nultiplicativos. ı Si hNi es todo el espacio entonces. veamos cuando fN es inyectiva. Teorema de Caracterizaci´ n de Conjuntos Linealmente Independientes o Sea N un conjunto de vectores. e Conjuntos linealmente independientes Ahora. 4. obtenemos que a ∈ hN\ai. todos sus coeficientes son iguales. Esto contradice 2. Las siguientes afirmaciones son equivalentes 1. Despejando a. (2 ⇔ 4) Si no se cumple 2 entonces hay un vector a ∈ N que es combinaci´ n lineal de o N\a. Si una combinaci´ n lineal de N es cero entonces. Espacios vectoriales ı Todo sobreconjunto de un conjunto generador es generador. [129] Diremos que un conjunto de vectores N es linealmente independiente si se cumple .

Los conjuntos de o vectores que no son linealmente independiente se les llama linealmente dependientes. Sea N ⊆ M tal que M es LI. Prueba. Los independientes son un ideal Todo subconjunto de un conjunto LI es LI. Bases La relaci´ n entre los conjuntos generadores y los conjun­ o tos LI la podemos ver intuitivamente en la figura a la derecha. por la caracterizaci´ n 2. Cualquier combinaci´ n lineal de N es combinaci´ n o o lineal de M. An´ lo­ a gamente a los conjuntos de vectores linealmente dependientes los llamaremos conjuntos LD.9. hay o una combinaci´ n de N ∪ a igual a cero cuyos coeficientes no todos son igual a cero. Prueba. Si el o coeficiente en a fuera diferente a cero obtendr´amos una contradicci´ n con que N es LI. el coeficiente en a es diferente a cero y despejando a obtenemos a ∈ hNi. E Conjuntos generadores Conjuntos LI ∅ . demostremos un peque˜ o resultado que usaremos o n repetidamente en lo adelante. Si N ∪ a es LD entonces. Estas notaciones se deben pronunciar “ele i” y “ele de”. ı o Luego. Luego toda combinaci´ n lineal de N igual a cero tiene todos sus coeficientes o iguales a cero Antes de pasar a la definici´ n de base. La siguiente proposici´ n nos dice que o “esta franja no puede ser muy ancha”. Mientras m´ s arriba m´ s gran­ a a de es el subconjunto. Aqu´ est´ n representados los subconjuntos del espacio E que ı a son generadores o que son LI.4 de los conjuntos LI. Lema de Aumento de un Conjunto LI Si N es independiente y N∪ a es dependiente entonces a ∈ hNi.4 o Bases 49 alguna (y por lo tanto todas) las afirmaciones de la proposici´ n anterior.Secci´ n 2. A partir de ahora para no repetir constantemente frases largas a los conjuntos de vectores linealmente independientes los llamaremos conjuntos LI. Nuestro inter´ s ahora se va a concentrar e en la franja del centro donde hay subconjuntos que a la vez son generadores y LI.

N es generador.2 de los conjuntos LI esto contradice la o suposici´ n de que N es LI. N es generador y cualquier subconjunto propio de N no es generador.11) tenemos N ⊆ hMi. Por incremento N ⊆ hNi.9. o (3 ⇒ 1) Sea N generador minimal. e o Sea F un subespacio (en particular puede ser todo el espacio). e Nuestra tarea es encontrar un M que es maximal con estas propiedades. Como N es generador / a ∈ hNi .12) el ser base es o equivalente a ser un conjunto LI lo m´ s grande posible o ser un conjunto generador lo m´ s a a chico posible. existe una base M tal que L ⊆ M ⊆ N.9. Luego o todo sobreconjunto propio de N es LD. por la caracterizaci´ n 2. (2 ⇒ 3) Sea N independiente maximal. Por el Teorema de Caracterizaci´ n de Bases (2.11) tenemos a ∈ hNi .2 de los conjuntos LI se sigue que N ∪ a es LD. Sea a ∈ N. Si M es maximal con estas propiedades (∀a ∈ N\M M ∪ a es LD) entonces por el Lema de Aumento de un Conjunto LI (2. Las siguientes afirmaciones son equivalentes 1. N es generador y N es LI. Esto es f´ cil si a . Por el Lema de Aumento de un Conjunto LI (2. Tambi´ n.1 o de los conjuntos LI existe subconjunto propio M de N tal que hMi = hNi . Luego. el ser base es equivalente a que nuestra funci´ n fN del principio de e o esta secci´ n sea biyectiva. esto significa que M tambi´ n lo es y por lo tanto M es una base. N es LI y cualquier sobreconjunto propio de N es LD. Si N es LD entonces. Si N ⊆ M son dos bases diferentes entonces N es un subconjunto propio de M y por el Teorema de Caracterizaci´ n de Bases (2. a Prueba. Las bases de todo el espacio se llaman simplemente bases. Teorema de Caracterizaci´ n de Bases o Prueba.50 Cap´tulo 2. Prueba. (1 ⇒ 2) Sea N independiente y generador. Esto contradice la suposici´ n de que N es minimal. o Lema de Incomparabilidad de las Bases Dos bases diferentes no est´ n contenidas una dentro de la otra. Si alg´ n subconjunto propio de N fuera generador entonces existir´a a ∈ N u ı tal que a ∈ hN\ai y por la caracterizaci´ n 2. Un conjunto de vectores que es generador de F y que es LI se le llama base de F. Sea M un conjunto LI tal que o L ⊆ M ⊆ N. Sean L y N como en las hip´ tesis del teorema. 2. Entonces. 3. De la caracterizaci´ n 2. Como N es generador.9. Si a ∈ N entonces / N ∪ a es LD.12) esto es una contradicci´ n. Como N es generador entonces M tambi´ n lo es. o o Teorema de Existencia de Bases Sea N un conjunto generador y L ⊆ N un conjunto LI. Espacios vectoriales ı Sea N un conjunto de vectores.

14): 1. Por ser M base tenemos que b y v son combinacio­ nes lineales de M o sea existen escalares apropiados tales que X X αx x v = λa a + λx x b = αa a + x∈M\a x∈M\a Como Mb es LI entonces. 2. Todo espacio vectorial tiene base. [129] Dimensi´ n o Ahora lo que queremos ver es que todas las bases tienen el mismo n´ mero de vectores.11) todo b ∈ N ser´a combinaci´ n lineal ı o de M\a. Como N es finito este proceso tiene que terminar en alg´ n u momento con el M deseado. ı ı Como hNi es todo el espacio en particular tendr´amos a ∈ hM\ai lo que no es posible ya ı que M es LI. Prueba. Sean A = {a1 . Si para todos los b ∈ N\ (M\a) el conjunto Mb fuera LD entonces. Cualquier conjunto LI esta contenido en una base. podemos despejar a de la primera ecuaci´ n.. Demostremos que Mb es generador. para cualquier a ∈ M existe b ∈ N tal que (M\a) ∪ b es base..4 o Bases 51 el conjunto N es finito. b no es una combinaci´ n lineal de M\a y por lo tanto αa 6= 0. an } y B dos bases. Esto significa que Mb es generador. Primero ponemos M igual a L. Construyamos M. si no. Cualquier conjunto generador contiene a una base. 3. . N ⊂ hM\ai y por monoton´a e idempotencia tendr´amos hNi ⊆ hM\ai . Sea v un vector arbitrario. substituirla en la segunda y as´ obtener o ı que v ∈ hMb i. Sea a un vector fijo pero arbitrario en M. Hemos demostrado que existe b ∈ N\ (M\a) tal que Mb es LI. Agregamos a al conjunto M y repetimos este proceso. Por la Propiedad del Cambio de las Bases . u Para probar esto se necesita ver primero una propiedad cl´ sica de las bases. O sea. a Propiedad del Cambio de las Bases Si M y N son dos bases entonces. Para un vector b ∈ N denotemos Mb = (M\a) ∪ b. Ejercicio 48 Pruebe que las siguientes afirmaciones son consecuencia directa del Teorema de Existencia de Bases (2. entonces existe a ∈ N\M tal que M ∪ a es LI. por el Lema de Aumento de un Conjunto LI (2. Prueba. Equicardinalidad de las Bases Dos bases cualesquiera de un espacio vectorial tienen el mismo cardinal.. o Luego.Secci´ n 2. Si M es maximal terminamos.

o ı Ejercicio 49 Pruebe que si E un subespacio de F entonces dim E ≤ dim F. Como a B es base obtenemos An = B y por lo tanto B tambi´ n tiene n vectores.15) existe otra base A1 = {b1 . Como M es finita entonces. [130] Bases can´ nicas o Ya sabemos que todo espacio vectorial tiene bases. Por esto es conveniente construir bases que son las m´ s “sencillas” para a .15) a A1 obtenemos otra base A2 = {b1 . A los interesados en esto les recomiendo leer ahora la ultima secci´ n de este cap´tulo. Sin embargo.14) es solo para el caso que el con­ junto generador es finito. u Sea F un espacio vectorial finito dimensional y E un subespacio de F. Para darnos cuenta de que hay muchas cosas que se cumplen o en el caso finito dimensional pero no en el caso infinito dimensional veamos como ejemplo el siguiente resultado que tendremos m´ ltiples ocaciones para utilizarlo. a3 . An todas con n vectores y adem´ s An ⊆ B. Finalmente.. Por el contrario. .13). Aplicando la Propiedad del Cambio de las Bases (2. Por el Teorema de Existencia de Bases (2. Si dim E = dim F entonces E = F. Observese que |A2 | = n ya que en otro caso A2 Ã A1 lo que contradice el Lema de Incomparabilidad de las Bases (2. si o sus bases son infinitas entonces. el n´ mero de vectores en N es igual al n´ mero de vectores en M. b2 . Observese que |A1 | = n ya que en otro caso A1 Ã A lo que contradice el Lema de Incomparabilidad de las Bases (2. La di­ o mensi´ n de un espacio vectorial E se denotar´ por dim E.. Nuestra prueba del Teorema de Existencia de Bases (2.... u u Luego N = M y por lo tanto E = hNi = hMi = F. Observese que la prueba de Equicardinalidad de las Bases (2. .14) existe una base M del espacio F que contiene a N.. A4 . an } donde b1 ∈ B. Espacios vectoriales ı (2.16) la hemos he­ cho solamente para el caso que el espacio tiene una base finita.. Repitiendo este proceso obtenemos bases A3 .. a2 . La teor´a de o ı los espacios vectoriales de dimensi´ n finita es m´ s sencilla pero m´ s completa que la de los o a a espacios de dimensi´ n infinita.17. el espacio vectorial es de dimensi´ n infinita. [130] Ejercicio 50 Encuentre un ejemplo donde no se cumple 2. N tambi´ n es finita. solo hemos probado que los espacios vectoriales que tienen un conjunto generador finito tienen base.52 Cap´tulo 2. . las pruebas generales dependen de un a conocimiento m´ s profundo de la Teor´a de Conjuntos que no presuponemos que lo posea el a ı ´ lector. Sin embargo no solamente tienen una base sino muchas. Sea N una base de E. e Al cardinal de una base (cualquiera) se le llama dimensi´ n del espacio vectorial. Es importante que el lector sepa que estas tres afirmaciones son v´ lidas en general. Los espacios vectoriales que tienen o a una base finita se les llama finito dimensionales o de dimensi´ n finita. Prueba. Como e las dimensiones coinciden.. an } tal que b2 ∈ B.13).

Esto quiere decir que el conjunto N es generador. . N es una base de este espacio la cual es su base can´ nica. Sea N el conjunto de todos esos vectores. o La ª Veamos el espacio de polinomios K [x]. Tenemos (α1 . o Todos los espacios que hemos visto que no tienen base can´ nica son de dimensi´ n infi­ o o nita. Por otro lado. A la o base N se le llama base can´ nica de K [x]. o o Ejercicio 51 Demuestre que el conjunto {(x − x0 )i | i ∈ N} es una base de K [x]. Luego. en el caso de que M es finito K{M} = KM y la base can´ nica o de KM es la construida en el p´ rrafo anterior. Luego. 0) y e2 = (0.2. Sin embargo. 1). Sea N el conjunto xi | i ∈ N . n} denotemos por ei ı el vector cuya i­esima coordenada es 1 y todas las dem´ s son cero (recuerde que todo cam­ a po Pntiene uno y cero). para el espacio de series no se puede dar explicitamente una base. Luego. necesariamente. . A la base N se le llama base can´ nica de Kn . La o {M} dimensi´ n de K es el cardinal de N ya que hay una biyecci´ n entre N y M. si αe1 + βe2 = (α. Cualquier vector (a. Es claro que ´ todo polinomio se puede escribir de forma unica como combinaci´ n lineal finita de N. © dimension de Kn es n. e2 }. Luego. i} y por lo tanto tiene dimensi´ n 2. De aqu´ obtenemos que conjunto N es una base que la llamamos base can´ nica ı o de R2 . Si el conjunto de ´ndices es finito entonces estamos hablando de todas las ı M M­adas o sea de K . . Los reales como espacio o o vectorial sobre los racionales no tienen una base can´ nica. Sean e1 = (1.4 o Bases 53 los ejemplos de espacios vectoriales que construimos en la Secci´ n 2. b) = ae1 + be2 .9. o Comenzemos con R2 . . . α y β son ambos cero. 0) entonces. Para el espacio K{M} de todas las M­adas de soporte finito ya hicimos casi todo el trabajo (v´ ase Kn ). Efectivamente.Secci´ n 2. El o o ejemplo m´ s sencillo de esto es tomar un subespacio de un espacio de dimensi´ n finita. b) en R2 tiene una manera de expresarse como combinaci´ n lineal de N = {e1 . . o o Desafortunadamente. la dimensi´ n de R2 es 2. Tenemos a P αN = i∈N αi eN donde los coeficientes son distintos de cero solamente en un subconjunto finito de indices. O sea. Sea N el conjunto de todos esos vectores. entonces no hay manera de construir una base can´ nica del mismo incluso en el caso de que todo el espacio tenga una base can´ nica. [130] Ejercicio 52 ¿Cual es la base can´ nica del espacio de las NM­matrices? [130] o . Si a o este subespacio es suficientemente general. . o tenemos la igualdad (a. no todos los espacios de dimensi´ n finita tienen una base can´ nica. K [x] es de dimensi´ n infinita contable. Para cada i en el conjunto de ´ndices M denotemos por ei el vector cuya i­esima e ı coordenada es 1 y las dem´ s son cero. Los vectores e1 y e2 se pueden visualizar geom´ tricamente como los dos vectores de e longitud 1 en ambos ejes de coordenadas. . β) = 0 = (0. N es generador y por la caracterizaci´ n 2. αn ) = n ´ i=1 αi ei y esto significa que cada vector en K se expresa de forma unica como combina­ ci´ n lineal de N. En el caso de que el conjunto M sea infinito a entonces el espacio KM no tiene una base can´ nica. o o Recordemos al lector que lo de soporte finito es no trivial solo para cuando el conjunto M es infinito.3 de los conjuntos LI el o o conjunto N es LI. o n Pasemos ahora a K . Para cada i en el conjunto de ´ndices {1. o El campo de los n´ meros complejos como espacio vectorial sobre los reales tienen como u base can´ nica al conjunto {1.

Esto quiere decir que “cualquier propiedad” debe conservarse al aplicar un isomorfismo. Isomorfismos lineales En el Cap´tulo 1 vimos los morfismos de operaciones binarias. Como f es una biyecci´ n existen a. e ´ Esta ultima expresi´ n ser´ la que usemos porque tiene dos importantes ventajas. Sin embargo o esto no presenta mayores dificultades. hay mucha m´ s cantidad de a a a personas que la conoce y por lo tanto facilita la comunicaci´ n con ingenieros y cient´ficos o ı de diversas areas. o a es m´ s corta que la primera. Segundo es mucho m´ s antigua. b ∈ E tales que o f (a) = x . o o . Una transformaci´ n ı o lineal f : E → F es un isomorfismo de espacios vectoriales o isomorfismo lineal si esta es biyectiva. Ejercicio 53 Demuestre que la composici´ n de morfismos es un morfismo. Sea α ∈ K y x. Una funci´ n f : E → F se le llama morfismo de espacios o f (αa) = αf (a) vectoriales si para cualesquiera a. Como f es isomorfismo tenemos f−1 (x + y) = f−1 (f (a) + f (b)) = f−1 (f (a + b)) = a + b = f−1 (x) + f−1 (y) f−1 (αx) = f−1 (αf (a)) = f−1 (f (αa)) = αa =αf−1 (x) que es lo que se quer´a demostrar.54 Cap´tulo 2. Prueba. anillos y campos. f (b) = y. que los isomorfismos son nada m´ s que un cambio de los nombres de los a elementos y las operaciones. ı Ya observamos. grupos.5 Clasificaci´ n de espacios vectoriales o En esta secci´ n veremos que todo espacio vectorial es isomorfo a un espacio de N­ o ´ adas de soporte finito. [130] o El estudio de las transformaciones lineales lo pospondremos hasta el siguiente cap´tulo. ı ´ Para los espacios vectoriales es igual. Espacios vectoriales ı 2. Sean E y F dos espacios vectoriales sobre el mismo campo f (a + b) = f (a) + f (b) K. la unica diferencia es que en ellos hay definida una operaci´ n que no es interna del espacio: el producto de un escalar por un vector. La siguiente proposici´ n es un ejemplo de esta afirmaci´ n. Para el caso finito dimensional esto quiere decir que el unico (salvo isomorfismos) espacio vectorial de dimensi´ n n sobre un campo K que existe es el espacio o n de las n­adas K . b ∈ E y cualquier α ∈ K se cumplen las propiedades del recuadro. A los morfismos de espacios vectoriales tambi´ n se les llama transformaciones lineales. Primero. y ∈ F. ı Aqu´ estaremos interesados en los isomorfismos de espacios vectoriales. An´ logamente al caso de operaciones binarias tenemos el siguiente resultado: a La inversa de cualquier isomorfismo lineal es un isomorfismo lineal.

y = f (x) ∈ F. a los coeficientes αi se les llama coordenadas de x en la base N. ya vimos que fN es sobreyectiva si y solo si N es generador. i∈N i∈N Por otro lado. Luego. y x es o P ´ un vector de F entonces. si N es una base de F. Sea f : E → F un isomorfismo de espacios vectoriales. Ejercicio 54 Demuestre que los isomorfismos conmutan con el operador de cerradura lineal y que trasforman subespacios en subespacios de la misma dimensi´ n. e Supongamos que M es LI entonces.Secci´ n 2. la funci´ n inversa f−1 : F → K{N} es un isomorfismo lineal llamado o N coordinatizaci´ n de F mediante la base N. con­ juntos generadores en conjuntos generadores y bases en bases. existe una unica N­ada αN ∈ K{N} tal que x = i∈N αi i. para cualquier y ∈ F el vector x = f−1 (y) es combinaci´ n o lineal de M y por la equivalencia anterior el vector y es combinaci´ n lineal de N. Al principio de la secci´ n ante­ o rior introducimos la funci´ n fN que a cada N­ada de soporte finito le hace corresponder la o combinaci´ n lineal cuyos coeficientes son dicha N­ada. En este caso. Esta funci´ n es siempre una trans­ o o formaci´ n lineal ya que o X X X fN (αN + βN ) = (αi + βi ) i = αi i + βi i = fN (αN ) + fN (βN ) i∈N i∈N X X i∈N fN (λαN ) = (λαi ) i = λ αi i = λfN (αN ) . Sean adem´ s! ∈ E . que fN es inyectiva si y solo si N es LI y por lo tanto fN es un isomorfismo si y solo si N es una base. Sea M ⊆ E y denotemos N = f (M) ⊆ F. Luego. o Coordinatizaci´ n o Sea N un conjunto de vectores del espacio vectorial F. Prueba.5 o Clasificaci´ n de espacios vectoriales o 55 Un isomorfismo transforma conjuntos LI en conjuntos LI. Si M es generador entonces. En el caso de que N sea una base. N es LI. poniendo x = 0 obtenemos à ! à ! X X αi i = 0 ⇔ αj j = 0 i∈M j∈N luego. cualquier combinaci´ n lineal de N que es nula tambi´ n es combinaci´ n lineal nula de o e o M y por lo tanto todos sus coeficientes son cero. .! a x à Como f es isomorfismo tenemos à à ! X X X αi i = x ⇔ αi f (i) = y ⇔ αj j = y i∈M i∈M j∈N donde el conjunto de coeficientes {αi | i ∈ M} es exactamente el mismo que {αj | j ∈ N}. En otras palabras. si o M es generador entonces N tambi´ n lo es.

ı Esta es claramente un isomorfismo de espacios vectoriales (ya que la suma de N­adas es por coordenadas y lo mismo con el producto por un escalar). En el caso de que N sea finito con n elementos . Ya en este caso. Rec´procamente. La clave para ver que los espacios vectoriales son isomorfos es que estos tengan la misma dimensi´ n. el n´ mero n puede ser un n´ mero fijo suficientemente grande digamos n = 11. a Teorema de Clasificaci´ n de Espacios Vectoriales o Todo espacio vectorial es isomorfo a un espacio de N­adas de soporte finito. Esta proposici´ n nos permite saber como son TODOS los espacios vectoriales. La interpretaci´ n geom´ trica de estos dos espacios como los segmentos dirigidos o e con origen en el cero da una intuici´ n saludable acerca de lo que es cierto y lo que no. el c´ lculo algebraico con s´mbolos y los razonamientos l´ gicos. este espacio es Kn por lo que es v´ lido el siguiente teorema. Si E y F son isomorfos entonces por 2. Sean E y F dos espacios vectoriales. No hay ninguna raz´ n (por ahora) para que deseemos distinguir dos espacios o vectoriales que son isomorfos.19 un isomorfismo entre ellos transforma biyectivamente una base de uno en una base del otro por lo que tienen la misma dimensi´ n. se debe pensar en R2 y R3 . o Prueba. u u para entender es necesario usar varios m´ todos: las analog´as geom´ tricas en dimensiones e ı e peque˜ as. Mediante los isomorfismos de coordinatizaci´ n podemos pensar que E = K{N} y o {M} F = K .21). Ya vimos o (mediante la base can´ nica) que el espacio vectorial de todas las N­adas (funciones) de o soporte finito tiene dimensi´ n |N|. Casi todo lo que n a ı o se puede demostrar para espacios vectoriales finito dimensionales se demuestra en el caso . hay una biyecci´ n f : M → N. Si los dos tienen la misma dimensi´ n entonces. Al hablar de un espacio vectorial en primer lugar. uno es igual a otro salvo los “nombres” de los vectores y las operaciones.56 Clasificaci´ n o Cap´tulo 2. o En segundo lugar el lector debe pensar en el ejemplo Rn . La funci´ n g la po­ o o demos pensar como la que simplemente le cambia el nombre a los ´ndices de una N­ada. Todo espacio vectorial finito dimensional es isomorfo a Kn . Escogiendo el conjunto N adecuadamente obtenemos o todas las dimensiones posibles. o o {N} {M} Sea g : K 3 αN 7→ βM ∈ K la funci´ n tal que βi = αf(i) . sean N y M bases de E y F respecti­ o ı vamente. Si esto sucede. Si el lector lo prefiere. Como pensar en espacios vectoriales A partir de ahora el lector debe siempre tener en mente el Teorema de Clasificaci´ n de o Espacios Vectoriales (2. o Dos espacios vectoriales sobre el mismo campo son isomorfos si y solo si tienen la misma dimensi´ n. Espacios vectoriales ı Se dice que dos espacios son isomorfos si existe una funci´ n que es un isomorfismo o entre ellos.

Subespacios de Rn ¿Cuales son todos los subespacios de Rn ? Del Teorema de Clasificaci´ n de Espacios o Vectoriales (2. Si i = 1 entonces. lo m´ s f´ cil es pensar en Kn .21) sabemos que estos tienen que ser isomorfos a Ri para i ∈ {0. si el lector no le tiene miedo al concepto de campo (que es uno de los objetivos de este libro) entonces. . a2 + b2 i. Pero an­ o a a tes. Los que se interesan en las ciencias de la computaci´ n deben tambi´ n pensar en Zn y o e p n en general en cualquier K donde K es un campo finito. Adem´ s. bn )). o En tercer lugar se debe pensar en Cn . Luego.6 Suma de subespacios En esta secci´ n introduciremos las operaciones m´ s b´ sicas entre subespacios. El problema es que nadie conoce (ni conocer´ nunca) una base de este espacio. el subespacio es por 2. an . que es o o o ı la ciencia de cifrar mensajes.. i} o e es una base de C como espacio vectorial sobre R. Las aplicaciones m´ s relevantes a incluyen la codificaci´ n de informaci´ n con recuperaci´ n de errores y la criptograf´a. b2 . Las demostraciones de muchos hechos v´ lidos a en Rn se copian tal cual para espacios vectoriales de dimensi´ n finita sobre cualquier campo. Sin embargo. an + bn i) 7→ (a1 . Ya vimos que hai es la l´nea que pasa por el origen y por el punto a que es el final del vector a.6 o Suma de subespacios 57 particular de Rn con la misma complejidad. Esto tiene una gran ventaja en el sentido a a de que no hay que pensar en los detalles particulares que se cumplen en uno u otro campo. 1. existe un vector a tal que el subespacio es igual a hai. Desde este punto de vista podemos pensar (no rigurosamente) a Cn como un R2n en el que hay menos subespacios. Hay una manera a a n de pensar en C que ayuda un poco para tener intuici´ n geom´ trica.. estos teoremas no dicen mucho a ı para espacios vectoriales de dimensi´ n mayor que el cardinal de los naturales ℵ0 . .. Si E es un subespacio de Cn sobre R entonces no ne­ o cesariamente E es un subespacio de Cn sobre C . Luego. los ı subespacios de dimensi´ n 1 de Rn son las lineas rectas que pasan por el origen. Nuestros teoremas o a nos garantizan que hay un isomorfismo entre R como espacio vectorial sobre Q y las funcio­ nes de soporte finito de una base de este espacio a Q. el hecho de que C es algebraicamente a ı a cerrado hace que para Cn algunos problemas sean m´ s f´ ciles que en Rn . De la misma manera Cn es un espacio vectorial sobre R de dimensi´ n 2n o sea. Ahora. El espacio vectorial Cn es extremadamente impor­ tante dentro de las matem´ ticas y la f´sica. o 2. b1 .. O sea.. . Como ya vimos {1. .Secci´ n 2. en el caso infinito dimensional la situaci´ n es m´ s fea. Para R2 este o . a2 . hay una biyecci´ n natural entre Cn y R2n (la bi­ o o yecci´ n es (a1 + b1 i.. . Si i = n entonces. el subespacio tiene que ser isomorfo a R y tiene que tener una base de un vector. .17 todo el espacio. los casos interesantes son los que 0 < i < n. Sin embargo o esta biyecci´ n no es un isomorfismo. Si i = 0 entonces todo el subespacio es el vector 0 (el origen de u o coordenadas). es saludable dar una interpretaci´ n geom´ trica de los subespacios para que el lector o e pueda comparar el caso general con el caso de los espacios R2 y R3 . as´ que realmente. n} seg´ n sea su dimensi´ n.

Ya observamos adem´ s que E ∪ F no es un subespacio.58 Cap´tulo 2. el subespacio tiene que ser isomorfo a R2 y tiene que tener una base {a. En la proposici´ n 2. b} de dos vectores. Luego. Por esto. Ahora trataremos de calcular la dimensi´ n de E + F. Despu´ s de esta definici´ n el resultado 2. Todo a + b es una combinaci´ n lineal de E ∪ F. . .22 se puede reformular como hE ∪ Fi = e o E + F. El subespacio a n hE ∪ Fi tiene una estructura muy simple: hE ∪ Fi = {a + b | a ∈ E. Rec´pro­ X o ı αx x + βy y camente.3 vimos que E ∩ F es o un subespacio. Suma de conjuntos y subespacios Sean E y F dos subespacios sobre un campo K. En este caso hay un unico plano (R2 ) que pasa a por estos tres puntos y tambi´ n ya vimos que este plano es ha. bi. Para o esto necesitaremos primero encontrar bases de E ∩ F y E + F. Es por esto que al subespacio hE ∪ Fi se le llama la suma de los subespacios E y F y desde ahora se le denotar´ por E + F. . Que sean LI o lo que quiere decir es que sus puntos y el origen no est´ n contenidos en un subespacio de a ´ dimensi´ n menor que i. hay un a subespacio que es el m´ s peque˜ o que contiene a los dos y este es hE ∪ Fi. a La igualdad modular Sean E y F dos subespacios. b ∈ F} X Prueba. b y u ´ el origen de coordenadas no est´ n alineados. b ∈ B} Dados dos conjuntos cualesquiera de vectores A y B definimos la suma de estos como en el recuadro a la izquierda. Esto quiere decir que todo elemento de hE ∪ Fi es de la forma a + b con a en E y b en F. Sin embargo. ai } de i vectores LI. los planos por el origen y todo el espacio. ai i. Por definici´ n de intersecci´ n E ∩ F es el subespacio m´ s grande contenido o o a en E y F. A + B = {a + b | a ∈ A. . . En otras palabras. los puntos finales de los vectores a. . . Ahora tenemos que pensar por lo menos en los subespacios de R4 y ya se nos acaba la intuici´ n y la terminolog´a geom´ trica. el primero y el segundo sumando son elementos de E y F respectivamente. Para R3 este an´ lisis termina con o a todas las posibilidades: sus subespacios son: el origen. Como E y F son subespacios entonces. a Si i = 2 entonces. Un subespacio de o ı e dimensi´ n i en Rn esta generado por una base {a1 . La base {a. las lineas por el origen. pasemos al caso general. b} tiene que ser LI y en este caso eso quiere decir que b no es un m´ ltiplo escalar de a. Si este es el caso entonces hay un unico Ri que contiene a todos o estos puntos y este es el subespacio ha1 . Espacios vectoriales ı an´ lisis termina con todas las posibilidades. los subespacios de e dimensi´ n 2 de Rn son los planos que pasan por el origen. . . toda combinaci´ n lineal de E ∪ F se puede escribir como o x∈E y∈F en el recuadro a la derecha.

Efectivamente. Como N es base de E ∩ F y las bases son los conjuntos LI m´ s grandes. Para la prueba de la otra inclusi´ n sea a ∈ E ∩ F. Luego. a Solo nos queda probar que E ∪ F es una base de E + F. Luego. Demostremos primero que E ∩ F = N. tenemos x ∈ E. obtenemos z ∈ E ∩ F. Por construcci´ n. o αi = 0 para todo i ∈ E\N y por lo tanto x = 0. . y ∈ E ∩ F y o z ∈ F.14) existe una base E de E que contiene a N. De aqu´ obtenemos que X ı X αi i+ (αi + λi ) i 0=x+y+z= i∈E\N i∈N y como F es LI deducimos que los restantes coeficientes tambi´ n son cero. An´ logamente. En primer lugar. la f´ rmula se reduce a la conocida igualdad entre cardinales de o conjuntos |E| + |F| = |E ∪ F| + |E ∩ F|. como z = − (y + x) y E es un subespacio. cualquier a + b ∈ E + F es combinaci´ n lineal de E ∪ F por lo que E ∪ F es generador de E + F. Sea N una base de E∩F . Por 2. por la forma en que contruimos E y F tenemos N ⊆ E ∩ F. todos los coeficientes de esta combinaci´ n lineal son cero. Sean x. por el Teo­ a rema de Existencia de Bases (2. Adem´ s. Como N es LI y est´ contenida en E entonces.6 o Suma de subespacios 59 Existen E una base de E y F una base de F tales que E ∩ F es base de E ∩ F y E ∪ F es base de E + F. y. segundo y tercer sumando respectivamente en la igualdad anterior. Substituyendo x obtenemos X X 0=y+z= αi i+ αi i i∈N i∈F\N y demostremos que todos los αi son cero. e Igualdad modular Si E y F son dos subespacios entonces. Prueba. a existe una base F de F que contiene a N. o sea z = i∈N λi i o para ciertos coeficientes λi . o Necesitamos probar que E ∪ F es LI. tenemos que N ∪ a es LI. z el primer.Secci´ n 2. En particular. a P Como N es una base de E∩F el vector z es combinaci´ n lineal de N. obtenemos que a ∈ N.23 existen bases E y F de E y F tales que E ∪ F es base de E + F y E ∩ F es base de E ∩ F. Como N ∪ a ⊆ E o entonces. Prueba. Para esto supongamos que X X X X 0= αi i = αi i+ αi i+ αi i i∈E∪F i∈E\N i∈N i∈F\N Como E es LI. dim E + dim F = dim (E + F) + dim (E ∩ F). E ∩ F ⊆ N.

b ¡ E ⊕ 0F = ¡ b) 0| a ∈ E. Por o definici´ n de suma de subespacios tenemos que E0 + F0 = E ⊕ F . este poquito nos o a llevar´ a profundas reexiones. Es claro que los espacios E y E0 son isomorfos y por lo tanto tienen la misma dimensi´ n. 0) | a ∈ E} y F0 = {(0. Mejor nos concentraremos en algo m´ s interesante. a dim (E ⊕ F) = dim E + dim F. b) 7→ a + b ∈ E + F es un isomorfismo de espacios vectoriales. Otro tanto ocurre con F y F0 . b = a + a . a Isomorfismo Can´ nico entre la Suma y la Suma directa o Si E y F son subespacios tales que E ∩ F = {0} entonces la funci´ n o E ⊕ F 3 (a.b + b λ (a. Isomorfismo can´ nico entre la suma y la suma directa. A continuaci´ n probaremos solo un poquito m´ s. Nosotros omitiremos esta prueba por ser trivial y aburrida. b) + a .24) obtenemos dim (E0 + F0 ) = dim E0 + dim F0 − dim (E0 ∩ F0 ) = dim E + dim F. La diferencia est´ en que la suma directa ya trae en su definici´ n las operaciones de suma de a o vectores y multiplicaci´ n por un escalar. Prueba. b) | b ∈ F}. λb) Observese que como conjunto la suma directa es el producto cartesiano de conjuntos. o ´ De esta ultima proposici´ n y de la igualdad modular se deduce que si dos subespacios E o y F son tales que E ∩ F = {0} entonces dim (E ⊕ F) = dim (E + F) o sea E ⊕ F es isomorfo a E + F. b) = (λa. De la Igualdad modular o (2. Sea E0 = {(a.¢ ∈ F} ¢ 0 0 (a. ¿Puede tener E + F dimensi´ n diferente a las de la tabla? o Suma directa Para dos espacios vectoriales Ey F(no necesariamente contenidos en otro espacio) sobre un mismo campo Kdefiniremos la suma directa de ellos como el espacio vectorial {(a. o sea que cumplen todos los axiomas. Sin embargo.60 Cap´tulo 2. . Deber´amos probar que la suma directa es efectiva­ o ı mente un espacio vectorial. Espacios vectoriales ı E 1 1 1 F 1 1 2 (E + F) 1 2 2 E 1 2 2 F 2 2 2 (E + F) 3 3 4 Ejercicio 55 Use la igualdad modular para cons­ truir ejemplos de subespacios reales E y F tales que ellos y E + F tienen las dimensiones definidas en la tabla del recuadro a la derecha.

Secci´ n 2.6 o

Suma de subespacios

61

Observemos que el isomorfismo (a, b) 7→ a + b no depende de escoger base alguna en E ⊕ F. Todos los isomorfismos que construimos antes de esta proposici´ n se construye­ o ron escogiendo cierta base en alguno de los espacios. Los isomorfismos que no dependen ´ de escoger alguna base juegan un papel importante en el algebra lineal y se les llama iso­ morfismos can´ nicos. Decimos que dos espacios vectoriales son can´ nicamente isomorfos o o si existe un isomorfismo can´ nico entre ellos. As´ por ejemplo todo espacio vectorial E de o ı dimensi´ n 3 es isomorfo a K3 pero no es can´ nicamente isomorfo a K3 porque no se pue­ o o de construir de cualquier espacio vectorial de dimensi´ n 3 un isomorfismo con K3 que no o dependa de escoger alguna base. Cuando veamos los productos escalares veremos que hay fuertes razones para que diferenciemos las bases. Los isomorfismos no can´ nicos no ne­ o cesariamente preservan una u otra propiedad de las bases. Por otro lado, los isomorfismos can´ nicos si las preservan. Si por un lado, debe haber cierta resistencia a considerar iguales o a dos espacios vectoriales isomorfos (no todas las bases son iguales) por el otro, los espacios can´ nicamente isomorfos no se diferencian en nada uno del otro, por lo que se puede pensar o que es el mismo espacio.

Prueba. Sea f la funci´ n definida en el enunciado. Tenemos o f (λ (a, b)) = f (λa, λb) = λa + λb = λ (a + b) = λf (a, b) f ((a, b) + (x, y)) = f (a + x, b + y) = a + x + b + y = f (a, b) + f (x, y) por lo que solo queda demostrar que f es biyectiva. Por definici´ n de suma de subespacios o f es sobreyectiva. Para probar la inyectividad supongamos que f (a, b) = f (x, y) entonces, a − x = y − b. Como a, x ∈ E entonces a − x ∈ E. Como b, y ∈ F entonces y − b ∈ F. Luego a − x = y − b ∈ E ∩ F = {0} por lo que a = x y b = y.

Ejercicio 56 1. Demuestre que E ⊕ F y F ⊕ E son can´ nicamente isomorfos. o

2. ¿Como se debe llamar esta propiedad de la suma directa de espacios? 3. Demuestre que la suma directa de espacios es asociativa. 4. ¿Tiene la suma directa elemento neutro? [130]

Subespacios complementarios Sea S un espacio vectorial y E un subespacio de S . Diremos que el subespacio F es complementario de E en S si S = E ⊕ F. Esta igualdad por el Isomorfismo Can´ nico entre o la Suma y la Suma directa (2.26) lo que quiere decir es que S = E + F y E ∩ F = {0}. En R2 dos lineas por el origen diferentes son complementarias una a otra. En R3 un plano y una l´nea no contenida en el plano (ambos por el origen) son complementarios uno a otro. ı Todo subespacio tiene complementario. Prueba. Sea E un subespacio de S. Sea A una base de E. Por el Teorema de Existencia de Bases (2.14) hay una base C de S que contiene a A. Sea F el espacio generado por B = C\A.

62

Cap´tulo 2. Espacios vectoriales ı

Como C es generador de S, todo elemento en S es combinaci´ n lineal de C y en particular o todo elemento de S se expresa como a + b con a ∈ E y b ∈ F. Luego S = E + F. Por otro lado, si x ∈ E ∩ F entonces, tienenà existir combinaciones ! que lineales tales que à ! X X X X x= αa a = αa a ⇒ αa a − αa a = 0 . ´ Como C es LI entonces, por la caracterizaci´ n 2.9.4 de los conjuntos LI la ultima combina­ o ci´ n lineal tiene todos sus coeficientes iguales a cero. Luego, E ∩ F = {0}. o Si E y F son dos subespacios complementarios entonces cada vector x se expresa de forma unica como x = a + b donde a ∈ E y b ∈ F. ´ Prueba. Si E y F son complementarios entonces E + F es todo el espacio y por lo tanto todo vector es de la forma a + b. Si a + b = a0 + b0 entonces a − a0 = b0 − b ∈ E ∩ F = {0} ´ por lo que la descomposici´ n x = a + b es unica. o ´ Ejercicio 57 Demuestre el rec´proco de 2.28: Si cada vector se expresa de forma unica ı como x = a + b con a ∈ E y b ∈ F entonces, los subespacios son complementarios. [130] Ejercicio 58 Pruebe que E = E1 ⊕ E2 ⊕ · · · ⊕ En si y solo si cualquier vector x ∈ E se ´ expresa de forma unica como x = x1 + · · · + xn con xi ∈ Ei . Sugerencia: Usar 2.28, el ejercicio anterior y la asociatividad de la suma directa para aplicar inducci´ n en el n´ mero o u de sumandos n. Espacios vectoriales versus conjuntos Hemos demostrado ya unos cuantos resultados que se parecen mucho a los de Teor´a ı de Conjuntos y siempre es saludable establecer analog´as con resultados ya conocidos. Para ı acentuar m´ s esta similitud hagamos un diccionario de traducci´ n a o Conjunto ←→ Espacio vectorial Subconjunto ←→ Subespacio vectorial Cardinal ←→ Dimensi´ n o Intersecci´ n de subconjuntos ←→ Intersecci´ n de subespacios o o Uni´ n de subconjuntos o ←→ Suma de subespacios Uni´ n disjunta o ←→ Suma directa Complemento ←→ Subespacio complementario Biyecciones ←→ Isomorfismos Si nos fijamos atentamente muchos de los resultados que hemos demostrado para espa­ cios vectoriales tienen su contraparte v´ lida para conjuntos usando el diccionario que hemos a construido. Probablemente, el ejemplo m´ s notable de esto son las igualdades modulares a para conjuntos y para espacios vectoriales.
a∈A a∈B a∈A a∈B

Secci´ n 2.7 o

Espacios cocientes

63

Sin embargo, es preciso ser cuidadosos en tratar de llevar resultados de los conjuntos a los ´ espacios vectoriales. Por ejemplo, el complemento de un subconjunto es unico y no siempre ´ hay un unico subespacio complementario. Otro ejemplo, un poco m´ s substancial, es que la a intersecci´ n de conjuntos distribuye con la uni´ n o sea A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) . o o Por otro lado la intersecci´ n de subespacios en general no distribuye con la suma o sea, la o igualdad A∩(B + C) = (A ∩ B)+(A ∩ C) no siempre es verdadera. Para ver esto t´ mese en o R3 los subespacios A = h(0, 0, 1) , (1, 1, 0)i , B = h(1, 0, 0)i y C = h(0, 1, 0)i . Calculamos A ∩ (B + C) = h(1, 1, 0)i y (A ∩ B) + (A ∩ C) = {(0, 0, 0)} y vemos que son distintos.

Ejercicio 59 Si A y B son dos conjuntos entonces la diferencia sim´ trica de los mismos es e
el conjunto A +2 B = (A ∪ B) \ (A ∩ B). Demuestre que todos los conjuntos finitos de un conjunto cualquiera U forman un espacio vectorial de dimensi´ n |U| sobre el campo Z2 para o la suma +2 y el producto 1A = A, 0A = ∅. Vea, que los conceptos de nuestro diccionario de traducci´ n se aplican a este caso en forma directa. o

2.7 Espacios cocientes
Ya vimos que para un subespacio E del espacio F, siempre existen subespacios comple­ mentarios a el. Sin embargo hay muchos de estos subespacios complementarios y no hay una manera can´ nica de escoger alguno de ellos. En esta secci´ n nos dedicaremos a cons­ o o truir can´ nicamente el espacio cociente F/E que es el espacio de todos los subespacios afines o paralelos a E y que es isomorfo a cualquier subespacio complementario de E. Subespacios afines Ya vimos que en el plano cartesiano R2 los subespacios son el origen {0}, todo R2 y las lineas que pasan por el origen. Sin embargo, hay otras lineas en el plano que no pasan por el origen. Para obtener una de estas lineas lo que tenemos que hacer es trasladar una l´nea por el origen ` ı mediante un vector x (v´ ase la figura). De esta manera, obtenemos la e l´nea `0 que se obtiene sumandole x a cada vector en la l´nea `. Observese ı ı que si x 6= 0 entonces las lineas ` y `0 no se intersectan.

`0 ` x

R2

Esto nos motiva a la siguiente definici´ n. Sea A un conjunto de vectores y x un vector. o Al conjunto A + x = {a + x | a ∈ A} se le llama la traslaci´ n de A con el vector x. El o lector debe observar que la operaci´ n de trasladar es un caso particular (cuando uno de los o sumandos solo contiene a un solo vector) de la operaci´ n de suma de conjuntos de vectores o introducida en la secci´ n anterior. o

Ahora observemos. M´ s precisamente: ı e a Si a ∈ E + x entonces. un ı o ı ı o plano es un subespacio af´n de dimensi´ n dos. ı Prueba. que un trasladado de un subespacio af´n es a su vez un subespacio ı af´n ya que (E + x) + y = E + (x + y). En otras palabras. Observese que los subespacios son tambi´ n subespacios afines. Espacios vectoriales ı Un subespacio af´n es el trasladado de un subespacio. Luego.64 E+x=E+a xa Cap´tulo 2. Es un error com´ n (debido al caso de lineas en el plano) pensar que es equivalente u que dos subespacios sean paralelos a que estos no se intersecten. Si E+x = F+y entonces. ı o Dos subespacios afines paralelos o son el mismo o no se intersectan. As´. E = E + z. Este resultado nos permite definir la dimensi´ n de un subespacio af´n. el lector debe pensar en dos lineas no coplanares en R3 . Para convencerse de que esto no es cierto. si E = E + x entonces dim E = dim E. Como F+y−x contiene al cero entonces. Probemos primero el caso que x = 0. . Tenemos y ∈ E ⇔ y−a ∈ E ⇔ y ∈ E+a. Prueba. E = F+y−x. Esto significa que el conjunto de los subespacios afines se parte en clases de paralelismo y dos subespacios son paralelos si y solo si est´ n en la misma clase de paralelismo. un punto es e o n ı un subespacio af´n de dimensi´ n cero. La relaci´ n de paralelismo entre subespacios afines es de o equivalencia ya que si E = F + x y G = E + y entonces. Prueba.29. En o o otras palabras. Dos subespacios afines se le llaman paralelos ı si uno es un trasladado del otro. Basta trasladar con el vector cero. E + x = E + a. Las e traslaciones de un subespacio cumplen una propiedad muy sencilla pero 0 E fundamental: que es posible trasladar el subespacio con diferentes vec­ tores y obtener el mismo subespacio af´n (v´ ase la figura a la izquierda). Es com´ n utilizar la terminolog´a u ı geom´ trica para hablar de los subespacios afines de dimensi´ n peque˜ a. a Todo subespacio af´n es paralelo a un solo subespacio. ı un conjunto de vectores E es un subespacio af´n si existen un subespacio ı E y un vector x tales que E = E + x. Cada uno de ellos o ı ´ es paralelo a un unico subespacio y su dimensi´ n es la dimensi´ n de ese subespacio. G = F + (x + y). Ahora por el caso general. por 2. x − y ∈ F. una l´nea es un subespacio af´n de dimensi´ n uno. Sabemos que. z = a − x ∈ E y del primer caso. E + x = E + z + x = E + a. Como F es un subespacio. E + x = E + y = E + x0 . Si y ∈ (E + x) ∩ (E + x0 ) entonces. y − x ∈ F y por lo tanto F = F + y − x = E.

Luego. Ejercicio 62 ¿Que pasa si sumamos dos espacios afines no paralelos? El isomorfismo con los complementarios R2 F E Sea F un subespacio complementario a E. En otras palabras (v´ ase la figura a la derecha) la suma e 0 y de cualquier vector en E con cualquier otro en F esta en un mismo espacio paralelo a E y F. Esta observaci´ n nos dice que la suma de subespacios afines es una operaci´ n binaria o o dentro de D/E. z ∈ E ∩ F. Como D = E ⊕ F existen ı ´ unos unicos vectores y ∈ E y z ∈ F tales que x = y+z. Sean E = E + x un subespacio af´n paralelo a E y λ un escalar. cualquier subespacio af´n paralelo ı a E intersecta a F en un y solo un vector. existe . o Prueba. Esta suma es asociativa y conmutativa debido a la asociatividad y conmuta­ tividad de la suma de los vectores en D. D/E es un grupo abeliano para la suma. Entonces. Si E = E + x y F = E + y son dos subespacios afines paralelos entonces R2 x E + F = (E + x) + (E + y) = (E + E) + (x + y) = E + (x + y) lo que muestra que E + F est´ en la misma clase de paralelismo a que E y F. x0 y0 x + x0 y + y0 Denotemos ahora por D/E al conjunto de todos los subespacios afines de D paralelos a E. Ejercicio 61 Cual es el espacio cociente de R3 por el plano xy.Secci´ n 2. Tenemos ı 2 2x λE = λ (E + x) = λE + λx = E + λx lo que muestra que λE est´ en la misma R x a clase de paralelismo que E. Ejercicio 60 Compruebe los axiomas de espacio vectorial para el espacio cociente D/E. Este producto convierte a D/E en un espacio vectorial llamado espacio cociente de D por E. El subespacio E es el neutro para esta operaci´ n y o el opuesto de E + x es E − x. Definiremos λA como en el recuadro a la izquierda.7 o El espacio cociente Espacios cocientes 65 Sea D un espacio vectorial y E un subespacio de D. En otras palabras (v´ ase la figura a la derecha) el e 2y producto de un escalar por todos los vectores en E resulta en espacio paralelo 0 y a E. D/E es can´ nicamente isomorfo a cualquier complementario de E. Luego por 2. Sea λA = {λa | a ∈ A} A un conjunto arbitrario de vectores y λ un escalar. Sea E = E + x cualquier subespacio af´n paralelo a E.29 E+x = E+y+z = E + z y por lo tanto z ∈ E + x o sea. Si z0 es otro vector en E ∩ F entonces. Para convertir a D/E en un espacio vectorial nos falta el producto por escalares.

Entonces.8 El caso de dimensi´ n infinita o En la Secci´ n 2. Diremos que x ∈ P es una cota superior de A si para cualquier y ∈ A se cumple que y ≤ x. Prueba. a f (x + y) = E + (x + y) = (E + x) + (E + y) = f (x) + f (y) f (λx) = E + (λx) = λ (E + x) = λf (x) por lo que f es un isomorfismo. las estructuras cocientes si se pueden construir. Diremos que x ∈ A es elemento maximal de A si para cualquier y ∈ A se cumple que x ­ y. Adem´ s o a o a es importante que el lector se familiarize con el concepto. no siempre existen estructuras “complementarias” (por ejemplo en la teor´a de a ı grupos). en el estudio de estructuras algebraicas m´ s generales. Como estas demostraciones dependen de resultados de Teor´a de Conjuntos y una expo­ ı sici´ n de esta nos llevar´a a escribir otro libro.14) y la Equicar­ o dinalidad de las Bases (2.16) pero solo los probamos para el caso de que el espacio tiene dimensi´ n finita. Luego. lo haremos todo en forma minimalista: Antes o ı de cada una de las dos pruebas daremos las definiciones y resultados exclusivamente que necesitamos. 2. Por ejemplo. Sea F un subespacio complementario a E. Si embargo. ı El Lema de Zorn Un conjunto ordenado es un conjunto con una relaci´ n de orden. todo grupo tiene un cociente por cualquier subgrupo normal. f es biyectiva. Sea P un conjunto ordenado y A un e e subconjunto de P. y ∈ A se cumple que x ≤ y o que y ≤ x. Los resultados complicados de Teor´a de Conjuntos no los demostraremos. Diremos que A esta inductivamente ordenado si A 6= ∅ y . cualquier subespacio complemen­ o tario a E es can´ nicamente isomorfo a D/E. Espacios vectoriales ı a ∈ E tal que z0 = a + x. Luego. Por­ o o que siempre aparece un curioso que quiere saber. es dim D − dim E. o sea una relaci´ n o o reexiva antisim´ trica y transitiva (v´ ase el glosario). De aqu´ x = −a + z0 y por la unicidad de la descomposici´ n de ı o un vector en suma de vectores de espacios complementarios. ´ Adem´ s.32 la aplicaci´ n f : F 3 x 7→ (E + x) ∈ D/E tiene inversa (que a cada o E + x ∈ D/E le hace corresponder el unico vector en (E + x) ∩ F). o Es posible (gracias al isomorfismo con los complementarios) desarrollar toda el algebra lineal sin ´ la introducci´ n de los espacios cocientes. En esta secci´ n demostramos estos resultados para los casos faltantes. Esta proposici´ n tambi´ n nos dice que la di­ o o e mensi´ n de D/E es la misma que la de un complementario a E o sea. es m´ s c´ modo hacerlo con ellos.66 Cap´tulo 2. Por otro lado. Se dice que A es una cadena si para cualesquiera x. f : F 3 x 7→ (E + x) ∈ D/E es un isomorfismo de espacios vectoriales. y = −a y z = z0 . Observese que el isomorfismo f es can´ nico. Por 2.4 enunciamos el Teorema de Existencia de Bases (2. ya que.

El siguiente resultado a es cl´ sico en teor´a de conjuntos. Luego. esto significa que M tambi´ n lo es y por e lo tanto M es una base. Denotemos o T = {M | M es linealmente independiente y L ⊆ M ⊆ N} . Como B0 es finito. y {Bi }i∈I es una cadena entonces. El conjunto T est´ naturalmente ordenado por inclusi´ n. Sea M un elemento maximal de T.34) el conjunto T tiene un elemento a maximal. o sea B0 es linealmente dependiente.11) tenemos N ⊆ hMi. Efectivamente. Sea {Bi }i∈I una a ı S cadena arbitraria en T y denotemos B = i∈I Bi . La suma de cardinales se define como el cardinal de la uni´ n de a o dos conjuntos disjuntos. T est´ inductivamente ordenado y por el Lema de Zorn (2. El producto de cardinales se define como el cardinal del producto . El conjunto B es una cota superior de la cadena {Bi }i∈I y tenemos que convencernos que B est´ en T. A la clase de equivalencia que contiene al conjunto A se le llama cardinal del conjunto A y se denota por |A|. existe o un subconjunto finito B0 de B y una combinaci´ n lineal de B0 igual a cero tal que todos sus coeficientes son no cero. Supongamos que B es linealmente dependiente.8 o El caso de dimensi´ n infinita o 67 cualquier cadena contenida en A tiene una cota superior que est´ en A. Nuestra tarea es encontrar un elemento maximal de T. Prueba. a o Entonces ∀x ∈ N\M M ∪ x es dependiente y por el Lema de Aumento de un Conjunto LI (2. Sean L y N como en las hip´ tesis. existe una base M tal que L ⊆ M ⊆ N. Probemos que el conjunto T est´ inductivamente ordenado.Secci´ n 2. Cardinales Dados dos conjuntos A y B denotaremos |A| ≤ |B| si existe una inyecci´ n de A en B. tiene que existir i0 tal que B0 ⊆ Bi0 y esto contradice que todo sub­ conjunto de un conjunto linealmente independiente es linealmente independiente. Como N es generador. Los cardinales est´ n ordenados por la relaci´ n a o de orden que ya definimos. El cardinal infinito m´ s peque˜ o es ℵ0 que es el cardinal de los naturales (ℵ es la primera letra del alfabeto a n hebreo y se llama “´ lef”). a ı Lema de Zorn Cualquier conjunto inductivamente ordenado tiene un elemento maximal. Como para cualquier i tenemos a Bi ⊆ N entonces. B ⊆ N. Entonces. Los cardinales pueden ser finitos o infinitos. Existencia de bases Teorema de Existencia de Bases (caso general) Sea N un conjunto generador y L ⊆ N un conjunto LI. o La relaci´ n A ∼ B definida como |A| ≤ |B| y |B| ≤ |A| es una relaci´ n de equivalencia o o entre todos los conjuntos. Entonces. T es no vac´o ya que L ∈ T.

a y b est´ n en el o a mismo conjunto Ai . fi (a) = fi (b) y por lo tanto a = b. usando 2. Theory of sets. A ⊆ hB\b0 i y como A es base obtendr´amos que B\b0 es generador lo que contradice que B es base.68 Cap´tulo 2. Por otro lado. Luego. Sea ϕ : i∈I Ai → T × I definida por ϕ (a) = o (fi (a) . Si |A| es infinito entonces. i) si a ∈ Ai . 1950. ℵ0 |A| = |A|.. o Tenemos |B| ≤ |R| ya que si hubiera un b0 ∈ B no relacionado con ning´ n elemento de u ı A entonces. Ya probamos el caso de que una de las dos bases es finita. ı a∈A . Nosotros omitiremos la prueba. Por definici´ n de ϕ si ϕ (a) = ϕ (b) entonces. P |Ai | ≤ t |I|. Sean A y B dos bases. como |A| es infinito y |Ba | es finito entonces. Podemos pensar que los Ai son disjuntos.37 obtenemos X |B| ≤ |R| = |Ba | ≤ ℵ0 |A| = |A| . Prueba. o Si ∀i |Ai | ≤ t entonces. Equicardinalidad de las bases Equicardinalidad de las Bases (caso infinito) Dos bases cualesquiera tienen el mismo cardinal. ϕ es inyectiva. b) ∈ R si y solo si b ∈ Ba . New York. El primero es muy ´ sencillo y daremos una demostraci´ n para el. i∈I Prueba. Como B es una base y debido a la finitud de las combinaciones lineales entonces ∀a ∈ A el m´nimo subconjunto Ba ⊆ B tal que ı a ∈ hBa i existe y es finito. Luego. podemos suponer que A y B son infinitos. p´ gina e a 121). Construyamos la relaci´ n R ⊆ A × B de manera que (a. Necesitaremos dos resultados acerca de los cardinales de conjuntos. Sea T un conjunto de cardinal t. Dover. Luego |B| ≤ |A| y por simetr´a de nuestros razonamientos|A| ≤ |B|. Espacios vectoriales ı cartesiano de conjuntos.36 y 2. Por S hip´ tesis existen inyecciones fi : Ai 7→ T . El siguiente resultado que necesitamos se demuestra (usando muchas cosas) en la Teor´a ı de Conjuntos (v´ ase por ejemplo: Kamke E.

Nuevamente. Imagenes de subespacios Toda TL transforma subespacios en subespacios. o 3..1 Definici´ n y ejemplos o Sean E y F dos espacios vectoriales sobre K. Una funci´ n o f : E → F se le llama transformaci´ n lineal de E en F si para f (a + b) = f (a) + f (b) o cualesquiera vectores a y b y cualquier escalar λ se cumplen f (λa) = λf (a) las propiedades del recuadro a la derecha. Prueba. Tenemos f (λx) = λa por lo que λa ∈ F0 . Sea f : E → F una TL y E0 un subespacio de E. El objetivo de este cap´tulo es familiarizar al lector con el a ı concepto de transformaci´ n lineal y sus propiedades b´ sicas. en lugar de decir que f es una transformaci´ n lineal.y tales que f (x) = a y o f (y) = b.as transformaciones lineales son uno de los objetos m´ s estudiados y m´ s importan­ a a tes en las matem´ ticas. Veremos o el concepto de nucleo e imagen de una transformaci´ n lineal etc. Sea ahora λ un escalar. f (x + y) = a + b por lo que a + b ∈ F0 . Introduciremos las ma­ o a trices y estudiaremos la relaci´ n de las mismas con las transformaciones lineales. Luego. Sean a y b vectores en F0 . . En plural escribi­ o remos TLs. Tenemos. Denotemos F0 = f (E0 ) la imagen de E0 . Las TLs NO necesariamente transforman conjuntos LI en conjuntos LI ni tampoco conjuntos generadores en conjuntos generadores. Por definici´ n existen vectores x. diremos que f es una TL.. para no reescribir constantemente frases largas. F0 es un subespacio de F.

A pesar e o o ı de su simplicidad las homotecias juegan un papel fundamental en la comprensi´ n de las TL o y este papel se debe a que ellas son todas las TL en dimensi´ n 1. Si 0 < α < 1 entonces hα es realmente una contracci´ n o o o pero interpretaremos las contracciones como dilataciones con raz´ n m´ s peque˜ a que 1. Un ejemplo sencillo es la funci´ n R 3 x 7→ x3 ∈ R. Si a cada vector x de un espacio E le hacemos a o corresponder el vector 2x obtenemos la funci´ n h2 : E 3 x 7→ 2x ∈ E . Si coordinatizamos la Tierra con unos ejes de coordenadas con origen en el centro de la misma. nuestros ant´podas ı ı son la personas que viven “pies arriba” del “otro lado” de la Tierra. Sin embargo no es lineal. o a n En la figura de la derecha observamos la dilataci´ n x 7→ 2x en el o 2 plano cartesiano R . dejar fijos los angulos y elevar al cubo el m´ dulo del vector. En ella hay dos curvas cerradas de cinco p´ talos. La figura es expresamente ı complicada para que el lector tenga la oportunidad de pensar un poco en que punto se va a transformar cada punto. o e o En el caso del campo R las homotecias tienen una interpretaci´ n geom´ trica muy clara. Cualquier homotecia hα v 7→ −v con α < 0 se puede representar como h−1 (h−α ) por lo que hα se puede interpretar geom´ tricamente como una dilataci´ n seguida de la funci´ n ant´podal. Hay funciones que transforman subespacios ı o en subespacios y no son TLs. ı Lo mismo ocurre si en lugar del escalar 2 usamos cualquier otro escalar α ∈ K obtenien­ do la TL dada por hα : E 3 x 7→ αx ∈ E. A esta funci´ n se la denotar´ por Id. La segunda es la ant´poda de la primera (−10 − 2 sin 5θ). Hay dos casos particulares de homotecias especialmente importantes. Si o e α > 0 entonces cada punto x ∈ Rn se transforma en el punto αx que est´ en la misma recta a por el origen que x pero a una distancia del origen α veces mayor que x. Transformaciones lineales ı El rec´proco de la proposici´ n anterior NO es cierto. Si α = 1 entonces obtenemos la funci´ n identidad x 7→ x. Esto quiere decir que hα es la dilataci´ n de raz´ n α.70 Cap´tulo 3. El nombre viene de la siguiente interpretaci´ n. La curva interior (que es la gr´ fica de la funci´ n a o R2 5 + sin 5θ en coordenadas polares) se transforma en la misma curva pero del doble de tama˜ o (10 + 2 sin 5θ). o . A las funciones hα se les llama homotecias. Si o o v 7→ 2v trazamos una recta que pase por el centro de la Tierra intersectaremos la superficie en dos puntos. En la figura de la izquierda est´ representada la funci´ n ant´podal en a o ı 2 2 R . nuestros ant´podas ı se obtienen multiplicando por −1. n Si α = −1 entonces a la homotecia h−1 : x 7→ −x se le llama funci´ n antipodal. La primera es e R la misma que la de la figura anterior (10 + 2 sin 5θ). Para obtener una funci´ n contraejemplo en o ´ Rn basta usar coordenadas esf´ ricas. Si α = 0 o o a entonces obtenemos la funci´ n nula tambi´ n llamada funci´ n constante cero x 7→ 0. Esta funci´ n es una o TL ya que h2 (a + b) = 2 (a + b) = 2a + 2b = h2 (a) + h2 (b) h2 (λa) = 2λa = λ2a = λ = λh2 (a) Observese que en la segunda l´nea usamos la conmutatividad del producto de escalares. Esta manda el o cero en el cero y a R en R. Estos puntos se dicen que son ant´podas o sea. e o Homotecias Veamos el ejemplo m´ s simple de TL.

A la funci´ n i : E 3 x 7→ x ∈ F se le llama inmersi´ n o o de E en F. Como {a} es una base tiene que existir un escalar λ ∈ K tal que f (a) = λa. o ´ Si x. ¿Habr´ algu­ e a na TL natural de E en F? Lo que podemos hacer es buscarnos un espacio G complementario de F (existe por 2. No hay mucho que decir de las inmersiones excepto de que hay una para o cada subespacio.1 o Definici´ n y ejemplos o 71 Si dim E = 1 entonces toda TL de E en E es una homotecia. Prueba. Tenemos λx = λπF (x)+λπG (x) . Las inmersiones son la TL m´ s simples que est´ n definidas de un espacio en otro a a distinto. Luego x + y = (πF (x) + πF (y)) + (πG (x) + πG (y)) . Proyecciones Ahora supongamos al rev´ s (de las inmersiones) que F es subespacio de E . Las proyecciones son transformaciones lineales. Sea ahora λ ∈ K.27) De esta manera E = F ⊕ G y por 2. Prueba. De esta manera πF es una funci´ n fija y bien definida.28 tenemos que cada vector x ∈ E ´ se descompone de manera unica como a + b donde a es un vector en F y b es un vector en ´ G . el primer sumando de la derecha est´ en F y el segundo en G y por la unicidad de la descomposici´ n necesariamente a o tenemos πF (λx) = λπF (x) . Como f es lineal tenemos f (x) = f (αa) = αf (a) = αλa = λαa = λx lo que demuestra que f es una homotecia. Nuevamente. Escojamos un subespacio G complementario de F . El primer sumando de la derecha est´ en F y el segundo en G . Las inmersiones son TLs inyectivas y son las restriciones a subespacios de la funci´ n identidad. y son dos vectores entonces hay descomposiciones unicas x = πF (x) + πG (x) y y = πF (y) + πG (y) . Por la unicidad de la descomposici´ n a o necesariamente tenemos πF (x + y) = πF (x) + πF (y) . . Esto no es cierto. Cualquier proyecci´ n πF o o restringida a F es la identidad por lo que necesariamente es sobreyectiva. La notaci´ n πF sugiere erroneamente que esta funci´ n solo depende del subespa­ o o cio F . Inmersiones Hasta ahora las TL que hemos visto (las homotecias) est´ n definidas de un espacio en a si mismo. Sea E un subespacio de F. Sea {a} una base de E y f una TL de E en E.Secci´ n 3. Sea x = αa un vector arbitrario en E . el subespacio F puede tener muchos subespacios comple­ mentarios diferentes y la proyecci´ n depende del subespacio complementario que o escojamos. As´ para cada x ∈ E tenemos un unico a ∈ F y esto nos da una funci´ n que denotaremos ı o por πF y la llamaremos proyecci´ n de E en F a lo largo de G .

72 Cap´tulo 3. En el caso general es exactamente igual. De manera an´ loga obtenemos o ı a πy (a) y sabemos que a = πx (a) + πy (a). Sean ahora f y g dos transformaciones lineales. Tenemos que F o es un subespacio de dimensi´ n k y uno de sus complemen­ o tarios G es de dimensi´ n n − k. no pudimos dibujar el espa­ o cio Rn as´ que el lector deber´ contentarse con ver la figura ı a en el caso n = 3. o El producto de un escalar por una TL es una TL. e Dados dos espacios complementarios F . Prueba. Denotemos h = f + g. Prueba. El espacio vectorial de las transformaciones lineales Sea f una TL y λ un escalar. A esta operaci´ n se le llama suma de TLs. A esta o operaci´ n se le llama producto de un escalar por una TL. Como es l´ gico. .2 Operaciones entre transformaciones lineales Ahora. Esto ya lo hicimos una vez cuando introducimos las coordenadas cartesianas en R2 . An´ logamente se observa que πF (a) = a (G + a) ∩ F. La in­ ı tersecci´ n (F + a) ∩ G es un solo punto y este punto es o el vector πG (a) . G y un vector a como hallar un vector en F y otro en G que sumados den a. veremos que operaciones se definen naturalmente entre las TLs. k = 2. Hay un solo subespacio o af´n paralelo a F que pasa por a y este es F + a. Denotaremos por λf a la funci´ n a 7→ λf (a). Efectivamente. 3. Denotaremos por f + g a la funci´ n o a 7→ f (a) + g (a). Dado un vector a trazamos la l´nea paralela al eje y que pasa por a y ı la intersecci´ n del eje x con esta l´nea es un vector πx (a) . tenemos (λf) (a + b) = λf (a + b) = λ (f (a) + f (b)) = (λf) (a) + (λf) (b) (λf) (αa) = λf (αa) = λαf (a) = αλf (a) = α (λf) (a) lo que significa que λf es una TL. Transformaciones lineales ı ¿Como son geom´ tricamente las proyecciones? En esencia el problema es el siguiente. Esta construc­ ci´ n se ilustra en la figura de la derecha. o La suma de dos TLs es una TL. Tenemos h (αa) = f (αa) + g (αa) = α (f (a) + g (a)) = αh (a) h (a + b) = f (a + b) + g (a + b) = f (a) + g (a) + f (b) + g (b) = h (a) + h (b) lo que significa que h es una TL.

Demostremos que h = g ◦ f ∈ Mor (E. f ◦ (g + h) = f ◦ g + f ◦ h (distributividad a la izquierda) 3. F). f ◦ (g ◦ h) = (f ◦ g) ◦ h (asociatividad) 2. (f + g) ◦ h = f ◦ h + g ◦ h (distributividad a la derecha) 4.Secci´ n 3. Como (f ◦ (g ◦ h)) (a) = f (g (h (a))) = ((f ◦ g) ◦ h) (a). Tenemos o h (a + b) = g (f (a + b)) = g (f (a) + f (b)) = g (f (a)) + g (f (b)) = h (a) + h (b) h (αa) = g (f (αa)) = g (αf (a)) = αg (f (a)) = αh (a) que es lo que se quer´a demostrar. F) y g ∈ Mor (F. G) o sea. Sea h = g ◦ f la composici´ n de dos TLs. la composici´ n es o asociativa. Para la distributividad a la derecha usamos las igualdades ((f + g) ◦ h) (a) = (f + g) (h (a)) = f (h (a)) + g (h (a)) = = (f ◦ h) (a) + (g ◦ h) (a) = ((f ◦ h) + (g ◦ h)) (a) Finalmente para probar que la composici´ n conmuta con el producto por escalares tenemos o (f ◦ λg) (a) = f (λg (a)) = λf (g (a)) = (λ (f ◦ g)) (a) = = λf (g (a)) = (λf) (g (a)) = (λf ◦ g) (a) . Los axiomas de espacio vectorial se comprueban de manera muy simple usando las definiciones. podemos sumar transformaciones lineales y multiplicarlas por escalares. f ◦ λg = λf ◦ g = λ (f ◦ g) (conmuta con el producto por escalares) Prueba. La composici´ n h = g ◦ f se define o como la funci´ n E 3 a 7→ g (f (a)) ∈ G. o que h es una TL. o Prueba. ı La composici´ n de TLs cumple las siguientes propiedades: o 1. Al espacio vectorial de todas las TLs del espacio E en el espacio F lo denotaremos por Mor (E.2 o Operaciones entre transformaciones lineales 73 Luego. la prueba de la distributividad del producto por escalares con respecto a la su­ ma es la siguiente: (λ (f + g)) (a) = λ (f (a) + g (a)) = λf (a) + λg (a) = (λf + λg) (a). La composici´ n de TLs es una TL. El lector debe ya debe poder encontrar por si mismo el porqu´ de la validez de cada una e . Por ejemplo. F) es un espacio vectorial. Composici´ n de transformaciones lineales o Sean f ∈ Mor (E. G) dos TLs. Con (f ◦ (g + h)) (a) = f ((g + h) (a)) = f (g (a) + h (a)) = = f (g (a)) + f (h (a)) = (f ◦ g) (a) + (f ◦ h) (a) = ((f ◦ g) + (f ◦ h)) (a) probamos la distributividad a la izquierda. Esta notaci´ n es debido que a las transformaciones lineales tambi´ n se les llama o e morfismos de espacios vectoriales. Debido a todo lo dicho es v´ lido el siguiente resultado: a Mor (E.

El conjunto de todos los OLs de E se denotar´ por End E. Transformaciones lineales ı de las igualdades utilizadas en esta prueba. Primero. . Estos son un espacio vectorial de dimensi´ n dos so­ u o bre los reales pero adem´ s sabemos multiplicar n´ meros complejos. Lo a hacemos as´ porque a los OLs tambi´ n se les llama endomorfismos de un espacio vectorial. El segundo ejemplo son los n´ meros complejos. pero adem´ s sabemos multiplicar polinomios. e ´ ´ Un algebra se le llama conmutativa si el producto de vectores es conmutativo. obtenemos otro OL. usaremos la abreviatura OL para referirnos a los operadores lineales. o O sea. ı e Por definici´ n tenemos End E = Mor (E. ´ El algebra de operadores lineales A una TL de un espacio vectorial en si mismo se le llama operador lineal. La principal diferencia entre las TLs y los OLs o es que la operaci´ n de composici´ n es una operaci´ n interna en espacio vectorial End E. Alg2 o o ´ y Alg4. Los OLs juegan (como veremos m´ s adelante) un papel muy importante en el estudio de las TLs y por esto es que a merecen un nombre especial. Este ejemplo se generaliza a los polinomios sobre cualquier campo. Este producto cumple todos los axiomas de a Alg1­Alg4. E). se le lla­ Alg4) ∗ conmuta con el producto por escalares ´ ma algebra . 0). Si un espacio vectorial cualquiera (el cual ya trae definidos la suma y el pro­ Alg1) ∗ es asociativa ducto por escalares) tiene otra operaci´ n Alg2) ∗ es distributiva con respecto a + o binaria ∗ que cumple los axiomas en el Alg3) ∗ tiene elemento neutro recuadro a la derecha entonces. Hemos demostrado el siguiente resultado o El espacio vectorial End E en un algebra con respecto a la composici´ n. 1) 6= (−1.74 Cap´tulo 3. es el neutro para la composici´ n. Nuevamente. Sin embargo. Ya vimos (3. La multiplicaci´ n de a u o complejos tambi´ n cumple todos los axiomas Alg1­Alg4.8 ) que la operaci´ n de composici´ n de OLs cumple los axiomas Alg1. si componemos dos OLs. Pero esto es obvio ya que la funci´ n identidad cumple que f◦Id = Id ◦f = f. Para ver que End E es un algebra solo nos queda comprobar que la composici´ n tiene o elemento neutro. (g ◦ f) (1. Observese que los primeros tres axiomas los podemos resumir en uno: la suma de vectores y ∗ definen un anillo en el espacio vectorial. o ´ ´ Hay otras dos algebras importantes que deben ser muy conocidas por el lector. −1) = (f ◦ g) (1. 0) = o o e (−1. Las algebras u End E casi nunca son conmutativas (salvo en dimensi´ n 1). El algebra de los ´ ´ n´ meros complejos y el algebra de polinomios sobre un campo son conmutativas. el conjunto de los polinomios con coeficientes reales R [x] es un espacio vectorial sobre R. El cuarto axioma lo que quiere decir es que para cualquier escalar λ y cualesquiera vectores a y b se cumple que λa ∗ b = a ∗ λb = λ (a ∗ b). Por ejemplo en el plano cartesiano R2 o la rotaci´ n f en 45◦ y la reecci´ n g en el eje y son (como veremos despu´ s) OLs. O o o o sea.

¿Ser´ posible para cualquier funci´ n g : N → F o a o encontrar una extensi´ n h : E → F de g que sea TL? ¿Ser´ unica tal extensi´ n? Veremos o a´ o que ambas preguntas tienen respuesta positiva si N es una base. . Si h y g son dos funciones tales que h es una restricci´ n de g entonces se dice que g o es una extensi´ n de h. Formulemos nuestro problema m´ s precisamente. Un operador lineal se le llama singular si este no tiene inverso. la funci´ n inversa de un OL es e o un operador lineal. Cada vez que se tiene una funci´ n o 0 0 0 f : A → B tambi´ n se tiene una funci´ n f : A → B definida por f (a) = f (a) para e o 0 0 cualquier a ∈ A . En el cap´tulo anterior. A la funci´ n f se le llama restricci´ n de f a A0 y la denotaremos por fA 0 . La suma de OLs no singulares puede ser singular ya que. ya que podemos escoger arbitrariamente los valores de h (x) para todos los x ∈ A\A0 . En el caso contrario se le llama no singular. En nuestro caso. o ı cuando vimos los isomorfismos de espacios vectoriales. En otras palabras los automorfismos son los endomorfismos biyectivos.3 o El grupo general lineal Extensiones lineales 75 Una funci´ n cualquiera es biyectiva si y solo si esta tiene inversa. cada elemento tiene inverso ya que f ◦ a f−1 = f−1 ◦ f = Id. A los OLs no singulares tambi´ n se les llama automor­ e fismos del espacio vectorial. Luego. Sean E y F dos espacios vectoriales sobre K y N un a conjunto de vectores de E. Es un problema frecuente en matem´ ticas el encontrar extensiones que cumplan ciertas a propiedades. por ejemplo. demostramos que si una TL tiene in­ versa entonces esta inversa tambi´ n es una TL. 3. Sabemos que N ⊂ E y por lo tanto tenemos la restricci´ n hN : N → F. Sin embargo. la composici´ n es una operaci´ n binaria en GL (E) que ya sabemos o o que es asociativa y tiene elemento neutro. Si est´ dada una funci´ n g : A0 → B y A es un sobreconjunto de o a o A0 entonces. Extensiones y restricciones Sean A y B dos conjuntos y A0 un subconjunto de A. o o Todas las diferentes restricciones de f se obtienen al tomar diferentes subconjuntos A0 . la funci´ n o nula cumple que 0 = f − f. GL (E) es un grupo para la composici´ n al cual se llama grupo o general lineal del espacio vectorial E.3 Extensiones lineales Estudiaremos en esta secci´ n una manera universal de construir TLs. la composici´ n de OLs no singulares es siempre un o OL no singular. pueden haber muchas extensiones h : A → B de g. En particular. debemos encontrar extensiones que sean TLs. veamos o algunas consideraciones de tipo general acerca de funciones entre conjuntos arbitrarios.Secci´ n 3. Luego. Pero antes. Sea h : E → F una TL. Adem´ s. Al conjunto de todos los OLs no singulares del espacio vectorial E se le denota por GL (E).

F) le corresponde hN su restricci´ n a N (que es una N­ada). Sea N una base de E o ´ y g : N → F una funci´ n arbitraria de N P F. F) Recordemos ahora de la Secci´ n 2. la descomposici´ n de x en la base N tiene coeficientes αi = 0 o para i 6= x y αi = 1 para i = x. Cualquier x ∈ E se expresa de forma unica o en o como combinaci´ n lineal de N o sea x = i∈N αi i. hemos construido una correspondencia biun´voca entre ı FN y Mor (E. g : E → F dos TLs y N una base de E. A cada N­ada hN ∈ FN le corresponde su extensi´ n lineal h ∈ Mor (E. Si N es una base de E entonces. Observese que o i∈N (como debe ser) la restricci´ n de h a N es igual a g ya que si x ∈ N o entonces. a Prueba. Transformaciones lineales ı Para demostrar la existencia de la extensi´ n debemos construirla. Supongamos que f (i) = g (i) para ´ cualquier i ∈ N. Queremos ver que esta correspondencia es un isomorfismo de espacios vectoriales. F) o o y a cada TL h ∈ Mor (E. A la funci´ n h del o X x 7→ αi g (i) recuadro a la derecha se le llama extensi´ n lineal de g. F). Las TLs est´ n predeterminadas por sus valores en una base. i∈N i∈N i∈N i∈N El isomorfismo entre FN y Mor (E. Tenemos X X X h (x + y) = (αi + βi ) g (i) = αi g (i) + βi g (i) = h (x) + h (y) i∈N i∈N i∈N X X h (λx) = λαi g (i) = λ αi g (i) = λh (x) y esto prueba que h es una TL. i∈N i∈N Para demostrar la unicidad de la extensi´ n debemos convencernos de que dos TLs dis­ o tintas no pueden coincidir en una base. Luego ! Ã ! Ã X X X X αi i = αi f (i) = αi g (i) = g αi i = g (x) f (x) = f y por lo tanto las TLs f y g son iguales. . Sean f.2 que el conjunto de todas las funciones de N en F es o el conjunto de las N­adas de vectores de F. Las extensiones lineales son transformaciones lineales. Cualquier x ∈ E se expresa de forma unica como combinaci´ n lineal de N o P o sea x = i∈N αi i.76 Cap´tulo 3. que este es un espacio vectorial para la suma y el producto por escalares definidos por coordenadas y que se denota por FN . Prueba.

Para la suficiencia sea N una base de E y hN ∈ FN una N­ada de vectores de F tal que sus coordenadas son todas diferentes (la inyectividad) y que el conjunto de sus coordenadas (la imagen) es una base M = h (N) de F. h es inyectiva. Nos o falta la propiedad evidentemente necesaria de que la restricci´ n de la TL debe ser inyectiva. Probemos que P la extensi´ n lineal h : E → F de hN es un isomorfismo. X X αi h (i) = βi h (i) i∈N i∈N y como todos los h (i) = hi son diferentes. o Prueba. F) 3 h 7→ hN ∈ F es un isomorfismo de espacios vectoriales. Luego. sean h. la biyecci´ n o N r : Mor (E. si x = i∈N αi i y P o y = i∈N βi i son dos vectores cualesquiera en E y h (x) = h (y) entonces. La (1. o Una TL es un isomorfismo si y solo si su restricci´ n a una o base es inyectiva y la imagen de esta restricci´ n es una base. 1) en la base can´ nica de R3 como en el recuadro a la derecha transforma a o (0. F) y FN son isomorfos es natural que esperemos que cualquier propiedad de las TL se tradusca de alguna u otra manera al lenguaje de las N­adas de vectores. 0) 7→ (1. F) y λ un escalar. Ya vimos en el cap´tulo anterior que ı un isomorfismo transforma una base del dominio en una base del codominio.9. Por la caracterizaci´ n 2. Tenemos r (h + h0 ) = (h + h0 )N = hN + h0N = r (h) + r (h0 ) r (λh) = (λh)N = λhN = λr (h) que se cumplen por las definiciones de suma y producto por escalares de las N­adas. En este caso queremos hacer la traduci´ n de la propiedad de una TL o de ser o no un isomorfismo de espacios vectoriales. Para ver que h es sobreyectiva sea z vector en F.Secci´ n 3.3 o Extensiones lineales 77 Si N es una base de E entonces. 0. Solo nos queda probar que r es una TL. h0 ∈ Mor (E. 0) 7→ (0. 0) respuesta es NO. 1) 7→ (0. Ya hemos probado la necesidad. Por ejemplo.3 de los conjuntos LI los coeficientes de estas combi­ o naciones lineales tienen que coincidir αi = βi y por lo tanto x = y. Un criterio de isomorfismo Al establecer que los espacios Mor (E. 1) esta base en la base can´ nica de R2 y sin embargo no es inyectiva. Efectivamente. Prueba. ¿Ser´ esta a propiedad suficiente para comprobar que una TL es un isomorfismo?. 1. 0. la extensi´ n lineal de la funci´ n definida o o (0. Efectivamente. . estas son dos combinaciones lineales iguales de la base M. Como M es una base P F existen de P coeficientes γi tales que z = i∈N γi h (i) y por lo tanto z = h (v) donde v = i∈N γi i.

A la matriz αMN que le corresponde a f mediante el isomorfismo construido se le llama matriz de la TL f en las bases M y N. Para cada i ∈ N la columna αMi es el vector f (i) coordinatizado en P la base M. Para cada f ∈ Mor (E. K matrices tales que cada columna es de soporte finito. F0 ). Construya algunas columnas de la matriz αNN de esta TL en la base can´ nica del espacio de polinomios. P La f´ rmula f (i) = o e a∈M αai a nos dice tambi´ n como construir f dada αMN . F).(n−1) con las condiciones a o de frontera αkn = 0 si k > n y αkn = 1 si k = 0 o k = n. A esta M­ada se le llama producto de la matriz αMN por el vector βN y se denota por αMN βN . F) ↔ Mor (E0 . Es f´ cil ver y es intuitivamente claro que esta corres­ a l l ¡ ¢ pondencia biun´voca Mor (E. Ã ! X X X X X βi f (i) = βi αai a = αai βi a F 3 f (x) = . Sean N y M bases de E y F respectivamente.(n−1) + α(k−1). Para el caso que m´ s nos interesa en a ¡ M ¢N MN que N y M son bases finitas obtenemos Mor (E. O sea f (i) = a∈M αai a. o ¢ ¡ Rec´procamente para cada g ∈ Mor K{N} . Las imagenes de los i ∈ N las calculamos por la f´ rmula y a f la construimos por extensi´ n o o P lineal.78 Cap´tulo 3. Demuestre que las entradas de esta matriz o est´ n definidas por la ecuaci´ n recursiva αkn = αk. aplicando 3. F) ↔ Mor K{N} . F). Ejercicio 64 Pruebe que la funci´ n K [x] 3 o Pn i=0 a∈M a∈M i∈N i∈N i∈N P La expresi´ n i∈N αai βi es un escalar y hay uno para cada a ∈ M por lo que son las o coordenadas de una M­ada. Transformaciones lineales ı 3. Ejercicio 63 Sean E ↔ E0 y F ↔ F0 isomorfismos de espacios vectoriales. P ai xi 7→ n ai (x + 1)i ∈ K [x] es un i=0 isomorfismo de espacios vectoriales. Luego. Tenemos los a isomorfismos de coordinatizaci´ n E ↔ K{N} y F ↔ K{M} .4 Coordinatizaci´ n de transformaciones lineales o Para darle coordenadas a una TL lo primero es darle coordenadas a los espacios entre los cuales est´ definida la TL. K{M} tenemos la ı g f composici´ n f : E → K{N} → K{M} → F que es una TL en o E −→ F Mor (E. F) ↔ K = K . O sea. Sea f ∈ Mor (E. F) tenemos o ¡ ¢ f {N} la composici´ n g : K → E → F → K{M} que es una TL en Mor K{N} . isomorfismo Mor (E.12 obtenemos o ¡ {M} ¢N ¡ {N} {M} ¢ = K{M}×N que es el conjunto de las MN ↔ K el isomorfismo Mor K . si E 3 x = i∈N βi i entonces. Los resultados de la secci´ n anterior nos dicen como o construir αMN dada f. K{M} . K{M} es un isomor­ K{N} −→ K{M} ı g fismo de espacios vectoriales. Construya un Podemos pensar a N como la base can´ nica de K{N} .

Por ejemplo. El producto escalar de estas N­adas αN βN = αi βi es el escalar del recuadro a la derecha. No se debe confundir el “producto por un escalar” con el “producto escalar”.4 o αMN βN = X Coordinatizaci´ n de transformaciones lineales o αMi βi 79 Observese que este producto lo podemos escribir como en el re­ cuadro a la izquierda. tanto ı ı N un rengl´ n αiN como una columna βNj son vectores del espacio K de N­adas y podemos o formar su producto αiN βNj . En otras palabras αMN βN es la combinaci´ n o lineal de las columnas de αMN cuyos coeficientes son las coordenadas de βN .Secci´ n 3. ı . En esta secci´ n estudiaremos m´ s sistem´ ticamente el isomorfismo entre las TLs y las o a a matrices repitiendo m´ s detalladamente todo lo dicho en esta introducci´ n.14). A esta matriz se le llama el producto de las matrices αMN y βNL y se denotar´ por αMN βNL . [130] Ejercicio 67 Pruebe que ∀αN ∈ RN se cumple que α2 = αN αN ≥ 0. o e o El producto escalar can´ nico o X Sean αN y βN dos N­adas. x (λy) = (λx) y = λ (xy) (conmuta con el producto por escalares) Ejercicio 65 Pruebe las principales propiedades del producto de N­adas (3. De esta manera. Observese que el conjunto de ´ndices de las columnas de la primera. si γML = a αMN βNL entonces γij = αiN βNj . a ı El producto escalar cumple las siguientes propiedades: 1. coincide con el conjunto de ´ndices de los renglones de la segunda. Si el lector no a o entendi´ muy bien. xy = yx (conmutatividad) 2. el producto i∈N escalar de dos vectores es un elemento del campo. N El producto de matrices ı Sean αMN y βNL dos matrices. Cuando hacemos esto. le recomiendo seguir adelante y despu´ s releer esta introducci´ n. M´ s adelante veremos que hay otros productos definidos en a cualquier espacio vectorial. 2}. Por esto a este producto lo llamaremos can´ nico y solamente o est´ definido en el espacio vectorial de las N­adas para cierto conjunto finito de ´ndices N. Esto quiere decir que este producto se obtie­ i∈N ne multiplicando las columnas de αMN por las correspondientes coordenadas de βN y sumando los resultados. para todos los i ∈ M y todos los j ∈ L obtenemos una ML­matriz formada por todos estos productos. Resumiendo. si los conjuntos de ´ndices son M = {1. x (y + z) = xy + xz (distributividad a la izquierda) 3. (y + z) x = yx + zx (distributividad a la derecha) 4. Ejercicio 66 Busque tres vectores x y z en el plano R2 tales que (xy) z 6= x (yz). As´. El primero es un producto de un escalar por un vector y el segundo es un produc­ to de dos vectores.

Sin embargo. o o Obviamente. podemos sumar dos N­adas pero no podemos sumar una N­ada columna con una N­ada rengl´ n. 3 3 α2N βN1 α2N βN2 α2i βi1 i=1 i=1 α2i βi2 Productos de matrices y vectores Sean αMN y βNL dos matrices. o Observese que. La transformaci´ n lineal de una matriz o o Sea αMN una MN­matriz. Esta matriz define una funci´ n KN 3 βN → αMN βN ∈ KM . En este libro. Intuitivamente. la prueba directa de este hecho es muy sencilla. Repita este ejercicio ı hasta que usted comprenda muy bien el concepto de producto de matrices. sino tambi´ n el producto escalar de dos vectores al constatar e que αN βN = α1N βN1 . podemos pensar que βN1 es una N­ada βN .80 Cap´tulo 3. en forma gr´ fica tenemos a ⎞ ⎛ µ ¶ β11 β12 ¶ µ α11 α12 α13 ⎝ α1N βN1 α1N βN2 β21 β22 ⎠ = α21 α22 α23 α2N βN1 α2N βN2 β31 β32 y por definici´ n de producto escalar de vectores tenemos o µ ¶ µ P3 ¶ P3 α1N βN1 α1N βN2 α1i βi1 α1i βi2 Pi=1 = Pi=1 . no solo el producto de matrices por vectores y al rev´ s son casos particu­ e lares del producto de matrices. Transformaciones lineales ı N = {1. N­adas columna y N­adas rengl´ n o o sea α1N = αN1 = αN . u Claro. En este caso podemos hacer el producto de matrices αMN βN1 = αMN βN y este es el producto de una matriz por un vector definido al princi­ pio de esta secci´ n. 3} y L = {1. Ejercicio 68 Tome dos matrices con entradas enteras y multipl´quelas. Para esto. En este caso o podemos escribir αMN = α1N y diremos que α1N es un vector rengl´ n o N­ada rengl´ n. Si el conjunto de o a indices M tiene un solo elemento entonces la matriz αMN tiene un solo rengl´ n. Esta ¡ funci´ n es una TL como ya vimos al principio de esta secci´ n utilizando el isomorfismo o ¢ o Mor KN . 2} entonces. An´ logamente se define el producto por el otro lado. . Obviamente. no haremos distinciones entre N­adas. En este caso podemos escribir βNL = βN1 y diremos que βN1 es un vector columna o una N­ada columna. este abuso de la notaci´ n aunque es muy c´ modo puede llevar (si nos pone­ o o mos pedantes) a contradicciones. podemos pensar que α1N es una N­ada αN . En este caso podemos hacer el producto de matrices α1N βNL = αN βNL y esta es la definici´ n del producto de un vector o por una matriz. dimos las definiciones de producto de una matriz por un vector y al rev´ s. Por ejemplo. el lector debe pensar que cuando aparesca un vector en un e producto de matrices este se convierte en vector fila o columna seg´ n sea conveniente. Si el conjunto de indices L tiene un solo elemento en­ tonces la matriz βNL tiene una sola columna. KM ↔ KMN . 2.

¢ esto N M ya lo probamos al principio de esta secci´ n al construir el isomorfismo Mor K . Sean f ∈ Mor KN . La matriz de una transformaci´ n lineal o En la proposici´ n anterior vimos que al mutiplicar MN­matrices por N­adas obtenemos o ejemplos de TLs.Secci´ n 3. por definici´ n de la base o can´ nica y del producto de una matriz por un vector tenemos la igualdad del recuadro. K o ↔ MN N M ı a o K . KM y g ∈ Mor KM . Recordemos que ei es la N­ada con coordenadas o δji = 1 si i = j y δji = 0 si i 6= j.4 o Coordinatizaci´ n de transformaciones lineales o 81 El multiplicar una matriz fija por N­adas es una TL. o sea. Sea f : KN → KM una TL y αMN su matriz. Por las propiedades del producto de vec­ tores tenemos que para todo i ∈ M se cumple que αiN (βN + γN ) = αiN βN + αiN γN y que αiN (λβN ) = λ (αiN βN ). Sabemos que f y α e = P MN i j∈M αMj δji = αMi f0 son TLs. A la matriz αNM cuyas columnas son las imagenes de la base can´ nica mediante la TL o f la llamaremos matriz de la TL f. Sea f : KN → KM una TL. Ahora queremos ver que estos son todos los ejemplos posibles. Para cualquier γN ∈ KN y cualquier i ∈ L tenemos X X X βij (αjN γN ) = βij αjk γk = βiM (αMN γN ) = j∈M j∈M k∈N . Sea f0 : βN 7→ αMN βN . KL dos TLs. o o o ´ Ejercicio 69 Halle la matriz de la rotaci´ n con angulo α en R2 . Esto significa que son v´ lidas las igualdades αMN (βN + γN ) = a αMN βN + αMN γN y αMN (λβN ) = λ (αMN βN ). Sea E = {ei : i ∈ N} la base can´ nica de KN . Prueba. aqu´ es m´ s simple ya que tenemos bases can´ nicas de K y K . [130] o Composici´ n de TLs y producto de matrices o La matriz de la composici´ n de dos TLs es o igual al producto de las matrices de las TLs. Prueba. Sin embargo. Sea αMN una matriz cualquiera pero fija. Si i ∈ N entonces. Denotemos αMi = f (ei ) ∈ KM . pa­ ra cualquier βN ∈ KN se cumple que f (βN ) = αMN βN . Sean αMN y βLM las matrices de f y g respectivamente. En¡realidad. que cualquier TL de KN en KM se obtiene multiplicando por una MN­matriz. ¢ ¡ ¢ ¡ Prueba. Entonces. Luego o f y f0 coinciden en la base can´ nica y por extensi´ n lineal ambas son la misma funci´ n.

el conjunto de ı a MN ´ndices de los renglones de α−1 es N y no M. se desprenden de las respec­ a tivas propiedades de las TLs y de la proposici´ n 3. Co­ mo la composici´ n de TLs es asociativa tenemos (h ◦ g) ◦ f = h ◦ (g ◦ f) y por lo tanto o (γKL βLM ) αMN = γKL (βLM αMN ). Adem´ s. Sean f. ı MN De la definici´ n es inmediato que una matriz tiene inversa si y solo si su TL es un iso­ o morfismo de espacios vectoriales. La matriz de (h ◦ g) ◦ f es (γKL βLM ) αMN . ´ . An´ logamente. KM y αMN la matriz de f. distribuye por ambos lados con la suma de matrices y conmuta con el producto por un escalar. La proposici´ n 3. o XX βij αjk γk = k∈N X (βiM αMk ) γk = (βiM αMN ) γN Ejercicio 70 Pruebe la asociatividad del producto de matrices directamente de la definici´ n o de producto o sea. βLM y γKL respectivamente.17. Transformaciones lineales ı k∈N j∈M y por lo tanto βLM (αMN γM ) = (βLM αMN ) γN . La matriz de h ◦ (g ◦ f) es γKL (βLM αMN ). g y h TLs cuyas matrices son αMN . Observese que el conjunto de ´ndices de las columnas de α−1 es M y no N. Solo falta el neutro para el producto que es la matriz de la identidad en KN . sin usar TLs. Esto prueba la asociatividad. Prueba. A la matriz de la TL f−1 se le llama matriz inversa de αMN y se denota por α−1 .17 obtenemos o MN −1 −1 que la matriz inversa cumple que αMN αMN = INN y αMN αMN = IMM . ya sabemos que la aplicaci´ n que a un OL en KN le hace corresponder su a o matriz es un isomorfismo de espacios vectoriales. ¡ N ¢ −1 ¡ o −1 −1 existe la TL f tal que f ◦ f = Id K y f ◦ f = Id KM . Como γN 7→ βLM (αMN γN ) es la TL g ◦ f entonces. Esta matriz es INN que cumple que Iij = δij (el delta de Kronecker) y que la llamaremos matriz identidad. De la proposici´ n 3. [130] Prueba. El resultado anterior hace la mayor parte del trabajo necesario ´ para mostrar que KNN es un algebra.17 completa la tarea de o ´ demostrar que esta aplicaci´ n es un isomorfismo de algebras.82 = Cap´tulo 3. Ya sabemos que KNN es un espacio vectorial para la suma de matrices y el producto de una matriz por un escalar. o Matrices inversas ¡ ¢ Sea f ∈ Mor KN . En particular los conjuntos de ´ndices N y M tienen que ı El espacio de todas las NN­matrices ¡ ¢ es un algebra isomorfa a End KN . Las dem´ s propiedades se prueban exactamente igual o sea. ı El producto de matrices es asociativo. tenemos (g ◦ f) (γN ) = (βLM αMN ) γN que es lo que se quer´a probar. La funci´ n¢f es biyectiva si y solo si.

Por 3. Use el ejercicio 69 para hallar las matrices en la base can´ nica de f.13 al lenguaje de matrices. g y f ◦ g. su prueba aqu´ se nos har´a innecesariamente complicada. Conocemos los isomorfismos de coordinatizaci´ n o N K ↔ E ↔ K . Es posible probar un criterio an´ logo al anterior substituyendo las columnas por los ren­ a glones.17 para o ´ hallar f´ rmulas para el seno y el coseno de la suma de dos angulos. para cualquier v ∈ V tenemos la v = αiv i f´ rmula en el recuadro a la derecha. V . [131] o 3. KM su TL. En este caso las letras V y N tienen el sentido de que V es la base “vieja” y que N es la base “nueva”. Sea αNV la matriz cuyas columnas son los vectores de la base V expre­ X sados en las coordenadas de N. Nuestro problema ahora es: dado una V­ada βV que son las coordenadas del vector x en la base V como hallar las coordenadas γN de x en la base N. la transformaci´ n que lleva unas o coordenadas a otras es una TL. la matriz debe ser cuadrada. A la matriz αNV se le llama matriz de o i∈N cambio de base (de V a N). Use 3. Una matriz cuadrada αMN tiene inversa si y solo si sus columnas son todas diferentes y son una base de KM .5 Cambios de base Es usual en las aplicaciones que sea conveniente realizar ciertos c´ lculos en un sistema de a ´ coordenadas y despu´ s realizar otros c´ lculos en otro sistema de coordenadas.5 o Cambios de base 83 tener el mismo cardinal ya que estos cardinales son las dimensiones del dominio y el codo­ minio de esta TL. La resticci´ n de f a la base can´ nica de KN es la N­ada de las columnas de la matriz αMN . Ahora nos preocuparemos en traducir nuestro criterio de isomorfismo 3.13 para o que f tenga funci´ n inversa es necesario y suficiente que esta restricci´ n sea inyectiva (las o o columnas diferentes) y que su imagen (el conjunto de columnas) sea una base de KM . O sea. O sea. Sin embargo. En el algebra e a lineal estos cambios de coordenadas son lineales o sea. Cambios de base en un espacio vectorial Sean V y N dos bases del espacio E.Secci´ n 3. Esta matriz no es otra cosa que la matriz del isomorfismo KV → E → KN . a ´ Ejercicio 71 Sean f y g las rotaciones del plano R2 en los angulos α y β respectivamente. Sea αMN una matriz cuadrada y f ∈ Mor KN . ¡ ¢ o Prueba. Mejor lo ı ı dejaremos para el pr´ ximo cap´tulo donde esto ser´ una f´ cil consecuencia de un resultado o ı a a mucho m´ s importante.

o ı Cambios de base en el espacio de transformaciones lineales Veamos como cambia la matriz de una TL cuando cambian las bases. 2). λMW αWV γ−1 es la matriz de f en las bases N y M. De P la unicidad de las coordenadas de cualquier vector en la base N obtenemos la igualdad v∈V αiv βv = γi que es la que se nacesitaba demostrar. N son las bases nuevas. Transformaciones lineales ı Si βV es la V­ada de las coordenadas de un vector en la base V entonces. e2 } es la base can´ nica y para construir la matriz o o αNV de cambio de base necesitamos las coordenadas de V en la base N. V = {e1 . N dos bases del espacio E y W. F) ↔ KMN . y) ∈ R2 en la base N = {a1 . Las coordenadas (x. Descompongamos x ∈ E en las dos bases. Luego. W son las bases “viejas” y M. u = pa1 + qa2 tenemos: µ ¶ µ ¶−1 µ ¶ µ ¶µ ¶ µ ¶ p 2 1 x 2 −1 x 2x − y = = = . Nuevamente. para cualquier v ∈ V i∈N X y cualquier w ∈ W tenemos las f´ rmulas en el recuadro a la derecha. 3) y a2 = (1. x = v∈V βv v = i∈N γi i à à ! ! X X y por lo tanto X X X x= βv αiv i = αiv βv i = γi i v∈V i∈N i∈N v∈V i∈N Ejemplo. o λjw j w= Estas matrices no son otra cosa que las matrices de los isomorfismos de j∈M V N W M coordinatizaci´ n K → E → K y K → F → K . Tenemos. NV . Sean V. y) son las coordenadas de u en la base can´ nica. Conocemos los isomorfismos de coordinatizaci´ n KWV ↔ Mor (E.84 Cap´tulo 3. denotando p y q las coordenadas que buscamos. q 3 2 y −3 2 y 2y − 3x ´ y en estos c´ lculos lo unico que no conoce el lector es como calcular la matriz inversa. El problema ahora es: dada una WV­matriz o αWV que es la matriz de la TL f : E → F en las bases V y W como hallar la matriz βMN de f en las bases N y M. o Si αWV es la matriz de f en las bases V y W entonces. Luego. O sea. a esto lo pospondremos hasta el pr´ ximo cap´tulo. o sea. P P Prueba. a2 } donde a1 = (2. V. Estas coordenadas se pueden hallar resolviendo dos sistemas de ecuaciones lineales pero es m´ s sencillo usar a la siguiente argumentaci´ n. X Sea γNV la matriz de cambio de base de V a N en E. Las columnas de esta matriz ya las tenemos. son a1 y a2 . Como un cambio de base es un isomorfismo entonces la matriz o αNV tiene inversa que es la matriz de cambio de la base N a la base V. Queremos calcular las coordenadas de un vector u = (x. M dos bases del espacio F. Pero. αNV βV es la N­ada de las coordenadas del mismo vector en la base N. Sea λMW la v= γiv i matriz de cambio de base de W a M en F.

a2 } donde a1 = (2. Se dice que un diagrama de βMN funciones es conmutativo si cualesquiera dos caminos di­ rigidos entre dos cualesquiera conjuntos son funciones iguales. βMN . Las columnas de αWV son las imagenes por f de la base f (v) = αwv w V expresadas en la base W o sea. Ya no hay que probar la conmutatividad de este ya que el. ∀v ∈ V se cumple la f´ rmula o w∈W del recuadro a la derecha.5 o Cambios de base 85 X Prueba. E) es un OL entonces. Las columnas de βMN son las imagenes por f de la base f (i) = βji j N expresadas en la base M. Luego. En este caso. 2). O sea. γNV tiene inversa por lo que podemos despejar βMN . N dos bases de E. Luego. Sea γNV la matriz de cambio de αVV KV −→ KV base de V a N en E.Secci´ n 3. hallar la matriz βNN de f en la base N. M. o Substituyendo en la f´ rmula de la derecha à f´ rmulas que definen las matrices λMW y o las o ! γNV obtenemos X X X γiv f (i) = λjw αwv j i∈N j∈M w∈W De la unicidad de la representaci´ n de cualquier vector en la base M obtenemos que para o P P cualesquiera j ∈ M y v ∈ V se cumple que i∈N βji γiv = w∈W λjw αwv y por lo tanto βMN γNV = λMW αWV . j∈M i∈N j∈M w∈W . El problema ahora es: dada una VV­matriz αVV que es la matriz del OL f en la base V. Como γNV es la matriz de un isomorfismo entonces. el que el diagrama a la izquierda sea conmutativo lo quiere decir es que βMN γNV = λMW αWV . para cualquier i ∈ N se cumple la j∈M f´ rmula del recuadro a la izquierda. la o matriz de f en la base can´ nica es o ¶−1 µ ¶µ ¶µ ¶ µ 2 1 cos α − sin α 2 1 cos α + 8 sin α −5 sin α = 3 2 sin α cos α 3 2 13 sin α cos α − 8 sin α y en esta igualdad substituimos f (i) por la f´ rmula de la izquierda para obtener à ! o à ! X X X X βji γiv j = λjw αwv j. 3) y a2 = (1. Sean V. γNV ↓ N K −→ KN es un caso particular del anterior. no tiene sentido escoger bases diferen­ tes para el dominio y el codominio ya que estos son iguales. γNV . y γNV ↓ ↓ λMW λMW son las matrices de TLs entre espacios como se muestra KN −→ KM en el diagrama a la izquierda. Denotemos por βMN la matriz de f en las X bases N. En nuestro caso. Sea f la TL del plano R2 que tiene la matriz del recuadro a cos α − sin α la izquierda en la base V = {a1 . Las matrices αWV . La proposici´ n anterior la podemos interpretar gr´ ficamen­ o a αWV KV −→ KW te de la siguiente manera. NV µ ¶ Ejemplo. βNN γNV = γNV αVV βNN y despejando obtenemos que βNN = γNV αVV γ−1 . el diagrama es el de la dere­ ↓ γNV ´ cha. sin α cos α ¿Cual ser´ la matriz de f en la base can´ nica? La matriz de cambio a o de base a la base can´ nica es la que tiene como columnas a los vectores a1 y a2 . Cambios de base en el espacio de operadores lineales Si f ∈ End (E) = Mor (E.

Solamente en el caso que la TL es un OL o sea.86 Cap´tulo 3. Sea K un subespacio complementario cualquiera pero fijo del Ker f. f (b) = y. Sin embargo. Descrip­ a o e tivamente la imagen es el conjunto de los vectores en el codominio que tienen preimagen y el nucleo es el conjunto de los vectores en el dominio cuya imagen es el vector 0. en este caso pasan cosas raras ya que. aunque a estos subespacios tienen dimensiones complementarias ellos NO son complementarios en general. Al conjunto {y ∈ F | ∃x ∈ E f (x) = y} se le llama imagen de la TL. Transformaciones lineales ı y esto es una advertencia de que un operador lineal puede tener en una base una matriz que es igual a la de la rotaci´ n en la base can´ nica y sin embargo no es una rotaci´ n. Sea f : E → F una TL. Esto quiere decir que Ker f es un subespacio. Como f es lineal tenemos f (a + b) = f (a) + f (b) = x + y y adem´ s a f (λa) = λf (a) = λx. Prueba. La imagen de f se denotar´ por Im f. Sean a. b vectores en Ker f y λ ∈ K. Sean x. denotemos πK : E ³ K la proyecci´ n de E a K a lo largo del Ker f. o . y vectores en Im f y λ ∈ K. Tenemos f (a + b) = f (a) + f (b) = 0 + 0 = 0 y f (λa) = λf (a) = λ0 = 0. Sea f : E → o F una TL. como veremos m´ s adelante. Denotemos i : Im f → F la inmersi´ n del subespacio Im f o o ´ en F. Esta notaci´ n es debido a que en ingl´ s nucleo es “kernel”. La imagen y el nucleo de una TL son subespacios. El nucleo de a f se denotar´ por Ker f. b tales que f (a) = o x. Por ultimo. Esto quiere decir que Im f es un subespacio. o o o 3. vere­ e mos interesantes consecuencias de este resultado. El nucleo y la imagen de una TL son subespacios de espacios diferentes.6 El nucleo y la imagen de una transformaci´ n lineal o En esta secci´ n queremos ver que para describir todas las transformaciones lineales nos o es suficiente conocer las inmersiones. Por definici´ n existen a. Si f : E → F entonces Ker f ⊂ E e Im f ⊂ F. Definiciones Para esto comenzaremos con dos definiciones fundamentales. Descomposici´ n de transformaciones lineales o Ahora. cuando E = F el nucleo y la imagen son subespacios del mismo espacio. Sea fK la restricci´ n de f al subespacio K. Despu´ s. las proyecciones y los isomorfismos. demostraremos el resultado prometido al principio de la secci´ n. Al conjunto {x ∈ E | f (x) = 0} se le llama nucleo de la TL.

87 Este teorema lo podemos visualizar m´ s f´ cilmente si observa­ a a mos el diagrama de la derecha.y dos vectores en el dominio de f. f E −→ F πK ↓ ↑i K −→ Im f fK Prueba. este teorema lo usamos en el primer cap´tulo para probar que Zp es un campo para ı . Si el nucleo solo contiene al vector cero se dice que f tiene nucleo trivial. Prueba. Cualquier TL lineal inyectiva tiene nucleo trivial ya que en este caso la ´ preimagen de cualquier vector es unica. Por el teorema anterior Im f es isomorfo a un complementario de Ker f. o dim E = dim Ker f + dim Im f. De u hecho. fK es inyectiva. Sean x. fK (a − b) = 0. Tenemos (f (x) = f (y)) ⇔ (f (x) − f (y) = 0) ⇔ (f (x − y) = 0) ⇔ (x − y ∈ Ker f) y por lo tanto el que halla dos vectores diferentes cuyas imagenes sean iguales es equivalente a la existencia de un vector no nulo en el nucleo de la TL. a − b = 0 o sea a = b. Transformaciones lineales con nucleo trivial Observese que. Por 2. Lo importante es que el rec´proco tambi´ n es cierto. Por 2. De aqu´ obtenemos ı (i ◦ fK ◦ πK ) (x) = i (fK (πK (x))) = i (fK (a)) = f (a) = f (a) + f (b) = f (x) y con esto queda probado que f = i ◦ fK ◦ πK .6 El nucleo y la imagen de una transformaci´ n lineal o o Teorema de Descomposici´ n de una TL o f = i ◦ fK ◦ πK y fK es un isomorfismo. Sea x un vector arbitrario en el dominio de f. Como fK (a) = f (a) = f (a) + f (b) = f (x) entonces fK es sobreyectiva.28 existen unos unicos vectores a ∈ K.Secci´ n 3. Si fK (a) = fK (b) entonces. Sea f una TL. Prueba. Un criterio de isomorfismo Espero que el lector recuerde el sencillo resultado de teor´a de conjuntos: toda funci´ n ı o inyectiva de un conjunto finito en otro con el mismo n´ mero de elementos es biyectiva. Luego. La primera afirmaci´ n del Teorema o de Descomposici´ n de una TL (3. ı e Una TL es inyectiva si y solo si su nucleo es trivial. b ∈ Ker f tales que x = a + b.28 (p´ gina 62) existen unos a ´ unicos vectores a ∈ K. Para cualquier transformaci´ n lineal f : E → F. Como (a − b) ∈ K ∩ Ker f entonces. ´ Para probar que fK es un isomorfismo sea f (x) ∈ Im f.24) lo que dice es que este dia­ o grama es conmutativo. como para cualquier TL se tiene que f (0) = 0 entonces el vector cero siempre es un elemento del nucleo. b ∈ Ker f tales que x = a + b.

Esta ultima no depende de K y podemos quedarnos E/ Ker f ←→ Im f ? con ella. El espacio cociente E/ Ker f est´ formado por todos los subespacios afines Ker f + x.88 Cap´tulo 3. Por 3. El objetivo ahora. .17 (p´ gina 52) obtenemos F = Im f. Queremos substituir K por E/ Ker f en el Teorema de Descomposici´ n de una TL (3. De aqu´. Por 3. Por hip´ tesis dim F = dim E. a Como consecuencia de este resultado probaremos que para comprobar que dos opera­ dores lineales f y g en un espacio de dimensi´ n finita son el inverso uno del otro. Prueba. o aplicando 2. Luego.24) necesitamos escoger (ya o que hay muchos) un subespacio complementario K del nucleo de f. Ya vimos (v´ ase 2. Componiendo con f−1 obtenemos f−1 ◦ f ◦ g = f−1 ◦ Id y por lo tanto g = f−1 . Transformaciones lineales ı p primo. o sea que sea can´ nico. debido a que todas las dimensiones son o ı finitas. ¿Cuales funciones podemos escoger para nuestras incognitas? No tenemos muchas va­ riantes. Si f es inyectiva entonces. Como Im f es un subespacio de F entonces. Entonces. Luego.25 tenemos dim Ker f = dim E − dim Im f. Descomposici´ n can´ nica de transformaciones lineales o o Para aplicar el Teorema de Descomposici´ n de una TL (3. Por hip´ tesis dim F = dim E. f es sobreyecti­ o va. la a x 7→ Ker f + x ´ unica posible respuesta a nuestra pregunta son las funciones defini­ f (x) 7→ Ker f + x das en el recuadro a la izquierda. o Sean E y F dos espacios de dimensiones finitas e iguales. La funci´ n identidad es sobreyectiva.26 concluimos que f es inyectiva. F = Im f. dim Ker f = 0 y por lo tanto Ker f = {0}. Prueba.24) est´ n o a f involucradas tres funciones: la proyecci´ n πK (que es sobreyec­ o E −→ F tiva). la funci´ n f : E → Im f es un isomorfismo y por lo tanto o dim E = dim Im f. Sean f. la restricci´ n fK (que es biyectiva) y la inmersi´ n i (que es o o ?↓ ↑i ´ inyectiva). solo es o necesario comprobar una de las dos igualdades g ◦ f = Id o f ◦ g = Id. si f◦g = Id entonces. De 3. o En el Teorema de Descomposici´ n de una TL (3. As´ que todas nuestras incognitas est´ n representadas ı a en el diagrama de la derecha. Una TL f : E → F es inyectiva si y solo si es sobreyectiva.24) para as´ obtener otra versi´ n o ı o del mismo que no dependa de escoger nada.33) e que cualquier tal subespacio es isomorfo al cociente E/ Ker f. Si f es sobreyectiva entonces. es mostrar que “exactamente” el mismo resultado (simple pero ´ muy util) se cumple para espacios vectoriales de dimensi´ n finita. a El espacio Im f est´ formado por todas las imagenes f (x). g : E → E dos OLs de un espacio finito dimen­ sional. f ◦ g = Id si y solo si g ◦ f = Id.27 f es inyectiva y por lo tanto tiene inversa f−1 .

6 El nucleo y la imagen de una transformaci´ n lineal o o 89 La primera de estas funciones tiene dominio E. f (x) = f (y). codominio E/ Ker f. Como veremos en el pr´ ximo cap´tulo. la inyectividad de g es equivalente a que la funci´ n f sea constante en cualquier subespacio af´n paralelo al Ker f. codominio E/ Ker f y la o denotaremos por g. Los subespacios afines paralelos a Ker f son precisamente los conjuntos de vectores en que la funci´ n f es constante. o nat f0 i x 7−→ Ker f + x 7−→ f (x) 7−→ f (x) La importancia del resultado 3. La funci´ n natural es una TL ya que o nat (x + y) = Ker f + x + y = Ker f + x + Ker f + y = nat (x) + nat (y) nat (λx) = Ker f + λx = λ Ker f + λx = λ (Ker f + x) = λ nat (x) y adem´ s es evidentemente sobreyectiva. Esta funci´ n tiene dominio Im f. La funci´ n g es una TL ya que o g (f (x) + f (y)) = g (f (x + y)) = Ker f + x + y = g (f (x)) + g (f (y)) g (λf (x)) = g (f (λx)) = Ker f + λx =λ (Ker f + x) = λg (f (x)) y es tambi´ n evidentemente sobreyectiva.29 no se limita a ser el eje central de la descomposi­ ci´ n can´ nica de una transformaci´ n lineal.Secci´ n 3. o ı La cadena de equivalencias (y ∈ Ker f + x) ⇔ (∃a ∈ Ker f | y = a + x) ⇔ (f (y − x) = 0) ⇔ (f (y) = f (x)) nos convence de que g es inyectiva independientemente de quien sea f y de la validez del siguiente resultado. o Luego. e ¿Que quiere decir que g es inyectiva? Lo que quiere decir es que si los subespacios afines Ker f + x y Ker f + y son el mismo entonces. se le llama funci´ n o natural y se denota por “nat”. a La segunda de estas funciones es nuestra preocupaci´ n fundamental ya que tenemos que o probar que es un isomorfismo. este es o o o o ı tambi´ n clave para poder encontrar el conjunto de todas las soluciones de un sistema de e ecuaciones lineales. . Como para un subespacio af´n ı E paralelo al Ker f se cumple que (E = Ker f + x) ⇔ (x ∈ E) entonces. El isomorfismo f es el que a un subespacio af´n Ker f + x le hace corresponder f (x). Sin embargo esto es muy f´ cil porque la composici´ n de funciones a o f E −→ F nat ↓ ↑i E/ Ker f −→ Im f f0 es evidentemente igual a la funci´ n f. ı As´ completamos nuestro diagrama como en el recuadro a la ı derecha. Solo nos falta demostrar que este es conmutativo. g es un isomorfismo y por lo tanto tiene un isomor­ fismo inverso que denotaremos por f0 .

90 .

o Si |M| = |N| entonces los grupos SM y SN son isomorfos. Al grupo (SN . ∆ es un a isomorfismo de los grupos SM y SN . que o ωσω−1 ∆ tiene inversa SN 3 ρ 7→ ω−1 ρω ∈ SM . Al o o conjunto de todas las permutaciones de N lo denotaremos por SN . La excepci´ n es la prueba de 4. SN es un grupo respecto o o a la composici´ n. En este cap´tulo dare­ a ı mos la definici´ n de los determinantes. Una permutaci´ n de N es una biyecci´ n de N en N. Todo lo que se digamos acerca de la importancia de los de­ terminantes en las matem´ ticas es poco. El grupo sim´ trico e Sea N un conjunto finito. Adem´ s. . Este es uno de los conceptos sin los cuales a realmente no se puede entender nada en las matem´ ticas superiores. Prueba. de resolver los sistemas de ecuaciones lineales de forma general. El lector debe entender bien esta secci´ n para poder pasar al estu­ o o dio de los determinantes. Sean M y N son dos conjuntos del mismo cardi­ σ M −→ M nal. La composici´ n de biyec­ o ciones es una biyecci´ n y toda biyecci´ n tiene inversa.5 que por complicada e irrelevante o para los determinantes puede ser omitida en una primera lectura. 4. ∆ (σθ) = ωσθω−1 = ωσω−1 ωθω−1 = ∆ (σ) ∆ (θ) y por lo tanto. por lo tanto.os determinantes son una funci´ n que a cada matriz cuadrada le hace corresponder o un elemento del campo. ◦) se le llama el grupo sim´ trico de N. gracias a ellos.1 Permutaciones La definici´ n de determinante de una matriz pasa inevitablemente por la definici´ n del o o signo de una permutaci´ n. Observemos. Denotaremos por o e IdN a la funci´ n identidad que es el neutro de SN . m´ todos de c´ lculo o e a y seremos capaces. estudiaremos sus propiedades. Si ω : M → N es una biyecci´ n entonces fij´ ndonos en o a ↑ ω−1 el diagrama conmutativo del recuadro a la derecha obtenemos ω ↓ N −→ N una funci´ n ∆ : SM 3 σ 7→ ωσω−1 ∈ SN .

ym−1 ) se les llama disjuntos si ning´ n u xi es igual a alg´ n yj . xn−1 } ⊆ N. Sea j el natural m´ s peque˜ o tal que ωj (x) ya apareci´ antes a n o j en esta sucesi´ n. Luego. xn−1 ) = (xn−1 . . o o Prueba. Si o i ∈ M entonces. Observemos que ω (x) = x porque si no. . habr´a un n´ mero k mayor que o ı u cero y menor que j tal que ωj (x) = ωk (x) o sea. Hagamos inducci´ n en n. xn−1 ) y (y0 . no puede haber infinitos elemen­ o o tos diferentes ya que N es finito. . . Luego. ωj−1 (x) exactamente igual de como lo hace la permutaci´ n ω. el conjunto de biyecciones lo podemos partir en n partes disjuntas seg´ n u cual sea j = f (i). o o u Ciclos Sea M = {x0 . . De aqu´. o Toda permutaci´ n es composici´ n de ciclos disjuntos. . Para la prueba es m´ s claro encontrar ρ (n) el n´ mero de biyecciones f : M → N a u donde |M| = |N| = n. ω2 (x) . . . Se comprueba f´ cilmente que (x0 . . . x0 ) y a esto demuestra que todo ciclo se descompone en composici´ n de transposiciones. . . Hagamos la prueba por inducci´ n en n = |N|. . . x0 )◦. . ρ (n) = n (n − 1) ! = n!. Es importante notar que la composici´ n de ciclos disjuntos es conmu­ u o tativa pero la composici´ n de ciclos en general no lo es. A la permutaci´ n o ¯ xi+1 mod n si y = xi σ mostrada en el recuadro a la derecha se le llama ci­ σ (y) = y si y ∈ M / clo de orden n. o En particular. ωk (x) tendr´a dos preimagenes diferen­ ı tes ωk−1 (x) 6= ωj−1 (x) y esto no puede ser ya que ω es una biyecci´ n. ω = θ ◦ ρ = ρ ◦ θ donde ρ o ı es la restricci´ n de ω a N\M. ω (x) .◦(x2 . . Toda permutaci´ n es composici´ n de transposiciones. . o o . . el ciclo o ¢ © ª ¡ θ = x. Cada parte tiene tantos elementos como biyecciones f : M\i → N\j y por hip´ tesis de inducci´ n este n´ mero es (n − 1) !. ωj−1 (x) transforma los elementos de M = x. A esta permutaci´ n se le denotar´ por o a (x0 . . Para n = 1 el grupo SN tiene una o sola permutaci´ n que es la identidad y la identidad es un ciclo. ω (x) . ω (x) . . . Por inducci´ n. Sea x ∈ N. . u u El n´ mero de permutaciones de un conjunto con n elementos es n!. Dos ciclos (x0 . ρ ∈ SN\M se descompone en composici´ n de o o o ciclos disjuntos ρ = ρ1 ◦ · · · ◦ ρt y por lo tanto. x0 )◦(x1 . En la sucesi´ n x. La prueba o se completa porque toda permutaci´ n es composici´ n de ciclos. . el n´ mero de elementos de SN solo depende del n´ mero de elementos en N. u Prueba. . o o Prueba. Si n = 1 entonces ρ (n) = 1 = 1!. xn−1 ). .92 Cap´tulo 4. A los ciclos de orden 2 se les llama transposiciones. . en el grupo SM podemos cambiarle el nombre a los elementos de M mediante la biyecci´ n δ : M → N y obteniendo el grupo SN . ω = θ ◦ ρ1 ◦ · · · ◦ ρt . . . . . . Sea n > 1 y ω ∈ SN una per­ o mutaci´ n. . Determinantes ı El lector debe interpretar este resultado como que. .

(i. . ◦ ρq ¢ ¡o y por lo tanto f (π1 ◦ .. el factor ω (xi ) − ω (xj ) aparece en f (ω ◦ τk ). Para esto. ◦ πp ) = f ρ1 ◦ . . . . obtenemos f (ω ◦ τk ) f (ω) = ω (xk+1 ) − ω (xk ) ω (xk ) − ω (xk+1 ) y esto prueba que f (ω ◦ τk ) = −f (ω). que el conjunto N est´ ordenado. . p y q tienen la misma paridad. j) 6= (k. Observese que si j > i + 1 entonces. Necesitamos probar varias cosas acerca de la funci´ n f. constru­ yamos la funci´ n f : SN → Z [x1 . ◦ πp ) = f ρ1 ◦ .. . Si i. tenemos u f (ω ◦ θ) = f (ω ◦ θ1 ◦ . Tenemos π1 ◦ . . . n − 1} que llamaremos transposiciones normales. . Por 4. xn ] que a cada σ ∈ SN le hace corresponder el o polinomio del recuadro a la derecha. xn y forme­ Y mos el anillo de polinomios Z [x1 . . ◦ ρq . Luego. como θ se descompone como composici´ n θ = o θ1 ◦ .. . . Efectivamente. O sea. . ◦ ρq = (−1)q f (IdN ) y como f (IdN ) 6= 0 entonces. . p y q tienen la misma paridad. j) ◦ τi por lo que (por inducci´ n en j − i) obtenemos que cualquier transposici´ n o o se descompone en composici´ n de un n´ mero impar de transposiciones normales. j) tengamos i < j. . . o Veamos primero que para cualquier permutaci´ n ω y cualquier transposici´ n normal τk o o se cumple que f (ω ◦ τk ) = −f (ω). k + 1) entonces. . . . k + 1} entonces. Veamos ahora que para cualquier permutaci´ n ω y cualquier transposici´ n θ se cumple o o que f (ω ◦ θ) = −f (ω). ◦ πp = ρ1 ◦ .1 podemos suponer que estamos trabajando en el grupo sim´ trico SN donde e N = {1.1 o El grupo alternante Permutaciones 93 Si π1 ◦ . ◦ θr ) = −f (ω ◦ θ1 ◦ . esto es obvio. . Finalmente. Tambi´ n esto nos permite o e definir ciertas transposiciones especiales τk = (k. ◦ θr de un n´ mero impar de transposiciones normales. . ◦ θr−1 ) = · · · = (−1)r f (ω) y como r es impar obtenemos f (ω ◦ θ) = −f (ω).. k + 1) para cualquier k ∈ {1. (−1)p = (−1)q . j) = τi ◦ (i + 1. En los restantes casos tenemos / ⎧ ⎪ ω (τk (xk+1 )) − ω (τk (xj )) si i = k y j 6= k + 1 ⎪ ⎨ ω (τk (xk )) − ω (τk (xj )) si i = k + 1 y j 6= k ω (xi ) − ω (xj ) = ⎪ ω (τk (xi )) − ω (τk (xk+1 )) si j = k e i 6= k + 1 ⎪ ⎩ si j = k + 1 e i 6= k ω (τk (xi )) − ω (τk (xk )) Como f (ω ◦ τk ) y f (ω) tienen la misma cantidad de factores. . regresemos a las hip´ tesis originales. . . . o u Consideremos un conjunto de variables x1 .. . Cada permutaci´ n σ de N tambi´ n permuta 1≤i<j≤n o e estas variables mediante la regla σ (xi ) = xσ(i) . .. o Prueba. .Secci´ n 4. . . Esto nos permite suponer que a cada vez que escribamos una transposici´ n (i. . . xn ] en estas variables con (σ (xi ) − σ (xj )) coeficientes enteros. Como todas las πi y las ρj son transposi­ ciones obtenemos las igualdades ¡ ¢ (−1)p f (IdN ) = f (π1 ◦ . . n}. Ahora. ◦ ρq son dos descomposiciones de una permutaci´ n o en composici´ n de transposiciones entonces. j ∈ {k. . ◦ πp = ρ1 ◦ . . . primero debemos probar que si i < j son tales que (i. .

. . o o N − − Las funciones f : AN 3 ρ 7→ ρ ◦ σ ∈ AN y g : AN 3 θ 7→ θ ◦ σ ∈ AN son la inversa una de otra ya que. . ◦ πn ◦ ρ1 ◦ . . . obtenemos o (f ◦ g) (θ) = θ ◦ σ ◦ σ = θ y (g ◦ f) (ρ) = ρ ◦ σ ◦ σ = ρ. Luego AN es un grupo para la composici´ n o e o y se le llama grupo alternante. . Adem´ s.94 Cap´tulo 4. A− = AN ◦ σ. El lector debe N N N comparar esto con ?? (p´ gina ??) substituyendo el subgrupo AN por un subespacio E. Por esto. ◦ π1 y por lo tanto sgn π−1 = (−1)n = sgn π. . ◦ πn y ρ = ρ1 ◦ . Observese que estos dos elementos son diferentes si y solo si la caracter´stica del campo es diferente de 2. . El conjunto A− es una clase lateral porque si σ ∈ A− entonces. se le llama impar. . el lector debe familiarizarse muy bien con la definici´ n de o o esta funci´ n y sus propiedades. o ¨ sgn (π ◦ ρ) = sgn π sgn ρ ¨ sgn π−1 = sgn π Prueba. como la inversa de a cualquier transposici´ n es ella misma. . . . La composici´ n de dos permutaciones pares es par y la a o inversa de una permutaci´ n par es tambi´ n par. N Los conjuntos AN y A− tienen la misma cantidad de permutaciones. . ◦ πn )−1 = π−1 ◦ . Sean π = π1 ◦ . Determinantes ı Una permutaci´ n se le llama par si se descompone en composici´ n de un n´ mero par o o u de transposiciones. El signo ı de una permutaci´ n es la funci´ n sgn : SN → K que es 1 si la permutaci´ n es par y es −1 si o o o la permutaci´ n es impar. en la definici´ n o a o de determinante de una matriz los signos de los sumandos est´ n definidos precisamente a mediante la funci´ n sgn. En otro caso. Tenemos que establecer una biyecci´ n entre AN y A− . tenemos π−1 = (π1 ◦ . Al conjunto de todas las permutaciones pares de N se le denotar´ por AN . 1 y −1. observando que la inversa de una transposici´ n es ella misma. σ por un a vector x y la operaci´ n ◦ por la operaci´ n +. El primero es el neutro para el producto y el segundo es el opuesto para la suma del primero. Sea σ una transposici´ n. ◦ ρm y por lo o tanto sgn (π ◦ ρ) = (−1)n+m = (−1)n (−1)m = sgn π sgn ρ. ◦ π−1 = o n 1 πn ◦ . o o El signo de una permutaci´ n o En todo campo K hay dos elementos notables. La funci´ n sgn jugar´ un papel vital en todo lo que sigue. o ¡ ¢ ¡ ¢ ¡ ¢ Ejercicio 72 Pruebe que sgn π−1 ◦ ρ = sgn π ◦ ρ−1 = sgn ρ−1 ◦ π . ◦ ρm descomposiciones de π y ρ en composici´ n de transposiciones. N Prueba. . En particular. Al conjunto de las permutaciones impares lo denotaremos por A− y lo llamaremos la clase lateral de las permutaciones impares. . Tenemos π ◦ ρ = π1 ◦ .

2 o Propiedades b´ sicas de los determinantes a 95 4. Recordemos que SN es el conjunto de todas las las permutacio­ nes de N. Si |N| = 1 entonces o la matriz αNN consta de una sola entrada y su determinante es precisamente esta entrada. Sea p el punto de intersecci´ n de la recta o 0 p x u. por el Teorema de Tales obtenemos ax + by = 1 cx + dy = 1 (b ÷ (a − p) = d ÷ c) ⇒ (pd = ad − cb) u ´ Sabemos que. o sea σi es una forma corta de escribir σ (i). u + v. u. Substituyendo este y en alguna de las ecuaciones obtendremos y = ∆ x. o Sean ahora u = (a. u + v es a a ´ igual al tri´ ngulo 0. v. Denotemos ∆ = ad − bc. u. Si σ ∈ SN e i ∈ N entonces. u + v. Esta soluci´ n es la del recuadro a la derecha. En la figura a la derecha los tri´ ngulos a R2 q ´ p. u + v con el eje x. Los o a determinantes son la generalizaci´ n de este n´ mero a dimensiones arbitrarias. u. v tiene area igual a la del a paralelogramo 0. a ı a ˜ Determinantes de matrices pequenas Interpretemos esta definici´ n para conjuntos N con pocos elementos. Estos dos ejemplos nos dan una idea de la importancia del n´ mero ∆ = ad − bc para u la soluci´ n de sistemas de dos ecuaciones lineales y para el c´ lculo de areas en R2 . Luego. y v d De esto. p. pd es el area (base por altura) del paralelogramo b 0. p. Por este motivo en este cap´tulo ı todos los espacios ser´ n finito dimensionales y todos los conjuntos de ´ndices ser´ n finitos. u y 0. q. Que­ 2 R remos calcular el area de este paralelogramo. a. v. q. v. p. Recalquemos que los determinantes est´ n definidos solo cuando los conjuntos de ´ndices a ı de renglones y columnas coinciden y es un conjunto finito. Despejando x en x = d − b ∆ la primera ecuaci´ n y substituyendo en la segunda ob­ o a−c tenemos y.Secci´ n 4. Para esto. denotaremos por σi la imagen de i por la permutaci´ n o σ. El determinante de una matriz o X Y αNN en la cual los conjuntos de ´ndices de renglones y co­ ı det αNN = sgn σ αiσ i lumnas coinciden es por definici´ n el elemento del campo o σ∈ SN i∈N definido en el recuadro de la izquierda. v. d) dos vectores en el plano R2 y u + v como se muestra en la figura a la izquierda. Luego. ¯ . q. u + v con la recta paralela al o u eje x que pasa por v. u. u + v.2 Propiedades b´ sicas de los determinantes a Resolvamos el sistema de ecuaciones lineales de la iz­ quierda. sea q el punto de intersecci´ n de la recta u. hemos demostrado que el area del paralelogra­ 0 c pa x mo 0.d tienen dos angulos iguales o sea son congruentes. Estos dos vectores v e q definen un paralelogramo cuyos v´ rtices son 0. Es f´ cil ver que el tri´ ngulo v. o u Definici´ n de los determinantes o Sea N un conjunto finito. Recordemos tambi´ n que el signo de una e permutaci´ n sgn σ es 1 si σ es par y es −1 si σ es impar. v es igual a ∆ = ad − bc. b) y v = (c. el paralelogramo 0.

2} entonces tenemos 2 permutaciones de N que son (1. ⎛ α11 α12 α13 Gr´ ficamente. estos tres sumandos se pueden representar por la dia­ ⎝ a α21 α22 α23 ⎠ gonal principal de la matriz y los dos “tri´ ngulos” con lados paralelos a α31 α32 α33 a esta diagonal como se muestra en el recuadro de la derecha. a Matrices con filas nulas Si una matriz tiene una columna o un ren­ gl´ n nulo entonces. digamos N = {1. El determinante de la identidad ´ Ya vimos que el conjunto de matrices αNN es un algebra respecto al producto y suma de matrices y multiplicaci´ n por elementos del campo. la matriz identidad se puede representar gr´ ficamente como una que tiene µ a 1 0 unos en la diagonal y ceros en todas las dem´ s entradas como se muestra en el a 0 1 recuadro a la izquierda para una matriz de dos renglones y columnas. Las otras tres permutaciones tienen signo negativo y se corresponden con los sumandos ⎛ ⎞ −α11 α23 α32 . todos estos sumandos tienen un factor cero o o y por lo tanto la suma de todos ellos es cero. Gr´ ficamente. cuando N = {1. Hay 6 permutaciones de N y estas son (1. 3}. 1). . El elemento neutro para el producto o ¯ lo llamamos matriz identidad. 2. Pongamos ahora N = {1. 1). o Q Prueba. 1. A la primera le corresponde el sumando α11 α12 y a la segunda el sumando −α12 α21 . 2. Si un rengl´ n es nulo entonces. Las tres primeras son de signo positivo y se corres­ ⎞ ponden con los tres sumandos α11 α22 α33 . Lo mismo ocurre con las columnas. Cuando el conjunto de ´ndices est´ ordena­ ı a ¶ do. calcular determinantes con el uso directo de su definici´ n es muy ineficiente para o matrices de m´ s de tres renglones y columnas. estos tres a α11 α12 α13 sumandos se pueden representar por la diagonal alterna de la matriz ⎝α21 α22 α23 ⎠ y los dos “tri´ ngulos” con lados paralelos a esta diagonal como se a α31 α32 α33 muestra en el recuadro de la izquierda. su determinante es cero. Cada sumando de los determinantes i∈N αiσ i contiene como factor una entrada de cada rengl´ n. El n´ mero de sumandos en la definici´ n del determinante es SN = |N| !. −α12 α21 α33 y −α13 α22 α31 . 2). Gr´ ficamente. 3. 3). (2. denotamos INN y es la matriz cu­ 1 si i = j yas entradas son iguales al delta de Kronecker δij definido en el δij = 0 si i 6= j recuadro a la derecha. 1. 3. 3) y (3. (3.96 µ ¶ α11 α12 – α21 α22 + Cap´tulo 4. Este n´ mero u o u crece r´ pidamente con |N| como se ve en la siguiente tabla a 5 6 7 8 9 10 n 1 2 3 4 n! 1 2 6 24 120 720 5040 40 320 362 880 3628 800 Por esto. (1. Determinantes ı Si. 2) y (2. (2. 2} un a determinante es la suma de los dos productos que se muestran en el recuadro a la izquierda. α12 α23 α31 y α13 α21 α32 . 2). 1). 2.

⎛ α11 ⎜α21 ⎜ ⎝α31 α41 ⎞ α14 α24 ⎟ ⎟ α34 ⎠ α44 α12 α22 α32 α42 α13 α23 α33 α43 T det A = det AT Prueba. Prueba. Efectivamente por la definici´ n o NN ¸ ∙ X Y cambio de variable det αT = sgn σ ασ i i = NN = ω = σ−1 σ∈ SN i∈N ¸ ∙ Y X cambio de variable = sgn ω αω − 1 (i)i = = j = ω−1 (i) ω∈ SN i∈N X Y = sgn ω αjω j = det αNN .Secci´ n 4. 2. σ∈ SN i∈N i∈N El determinante de la transpuesta Dada una matriz αMN su transpuesta se define como la matriz βNM = αT tal que βij = αji . As´ por ejemplo. ω∈ SN j∈N Permutaciones de columnas y renglones o o Dada una matriz αMN y una permutaci´ n ω ∈ SN definimos la operaci´ n de permu­ tar las columnas de αMN mediante la permutaci´ n ω como la que resulta en la matriz o αMω(N) cuyas columnas son αMω − 1 (i) (¡observese el uso de la permutaci´ n inversa ω−1 !). Observese que el conjunto de ´ndices de los renglones de la matriz αT ı NM es M y no N como se podr´a pensar de los sub´ndices. . An´ logamente se define la operaci´ n de permutar los renglones. el aplicar el ciclo (1. X Y Y det INN = sgn σ δiσ i = sgn (IdN ) δii = 1. 4) resulta en ı α11 α12 α13 α14 ⎜α21 α22 α23 α24 ⎟ el intercambio de columnas representado en el recuadro a la iz­ ⎜ ⎟ a o ⎝α31 α32 α33 α34 ⎠ quierda. o Gr´ ficamente esta operaci´ n resulta en cambiar el orden de las a o ⎛ ⎞ columnas. Si laQ permutaci´ n σ ∈ SN no es la identidad entonces hay un i ∈ N tal que i 6= σi o y por lo tanto i∈N δiσ i = 0. para una permutaci´ n ρ ∈ SM la matriz αρ(M)N es o α41 α42 α43 α44 aquella cuyos renglones son αρ− 1 (j)N . o o El determinante no se altera al transponer una matriz.2 o Propiedades b´ sicas de los determinantes a 97 det INN = 1 El determinante de la matriz identidad es 1. Luego. Tenemos que demostrar que det αNN = det αT . Gr´ ficamente la a MN operaci´ n de transponer una matriz es hacer una reexi´ n o o con respecto a la diagonal de la matriz. ı ı La notaci´ n es as´ porque pensamos la transpuesta αT o ı MN como la aplicaci´ n de la operaci´ n T a la matriz αNM .

ρ∈ SN i∈N ρ∈ SN i∈N El determinante del producto ´ La ultima propiedad b´ sica de los determinantes es probablemente la m´ s importante a a ´ para el algebra lineal.98 Cap´tulo 4. o La demostraci´ n de este resultado es erronea. que utilizaremos muy frecuentemente. Para campos de caracter´stica 2 la igualdad 2a = 0 se ı cumple para ¡cualquier! elemento del campo. Luego. . o Efectivamente. La demostraci´ n para los renglones o o se obtiene transponiendo la matriz. El determinante del producto de dos matrices es igual al producto de los determinantes de las dos matrices. o le recomiendo al lector omitirla en una primera lectura. Sea ω la permutaci´ n de las columnas que intercambia las dos columnas iguales. Solamente hemos demostrado que un elemento a del o campo cumple que a = −a. det AB = det A det B Prueba. es: Si una matriz tiene dos columnas o dos renglo­ nes iguales entonces su determinante es cero. Sean A = αNN y B = βNN . De aqu´ obviamente 2a = 0. o Como ω no altera la matriz tenemos det αNN = det αNω(N) . Hay que demostrar det αNω(N) = sgn ω det αNN . Denotemos adem´ s TN al conjunto FN \ SN que es el de todas las funciones no biyectivas de N en N. Por otro lado la proposici´ n o anterior nos dice que det αNω(N) = sgn ω det αNN = − det αNN de lo que se deduce la tesis. Para el objeto de esta demostraci´ n denotemos por o a FN el conjunto de todas las funciones de N en N. det αNω(N) = sgn ω det αNN Prueba. ´ Una consecuencia de este ultimo resultado. Esto lo haremos en algunas p´ ginas m´ s adelante ı a a por lo que el lector puede estar seguro de que el corolario es cierto en cualquier caso. Si el campo es de caracter´stica diferente ı ı de 2 efectivamente esto significa que a = 0. Determinantes ı Al permutar las columnas o los renglones de una matriz con la permutaci´ n ω el determi­ o nante se altera por un factor igual a sgn ω. Claramente SN ⊂ FN . Para hacer la prueba en caracter´stica 2 es necesario usar la expansi´ n generalizada ı ı o de Laplace (por dos columnas) para as´ obtener el resultado. por la definici´ n tenemos o ∙ ¸ X Y cambio de variable det αNω(N) = sgn σ αiω − 1 (σi ) = = ρ = ω−1 ◦ σ σ∈ SN i∈N Y X Y X sgn (ω ◦ ρ) αiρi = sgn ω sgn ρ αiρi = sgn ω det αNN = Con esto demostramos la proposici´ n para las columnas. la demostraci´ n anterior es solo v´ lida para campos de o a caracter´stica diferente de 2. Sea ω ∈ SN una permutaci´ n. La demostraci´ n para los renglones se obtiene transponiendo la matriz. Como la demostraci´ n de esta propiedad es ciertamente complicada. Prueba.

Sea t ∈ A− la transposici´ n que intercambia j y k. 21) obtenemos o a X X Y X X Y det AB = sgn σ αiω i βω i σ i + sgn σ αiω i βω i σ i σ∈ SN ω∈ TN i∈N σ∈ SN ω∈ SN i∈N Por la definici´ n de determinante y de producto de matrices tenemos o X YX det AB = sgn σ αij βjσ i σ∈ SN i∈N j∈N O sea. Lo interesante de las matrices de permutaciones es que al multiplicar por o ellas se permutan renglones o columnas. k ∈ N tales que o ω (j) = ω (k) . Para esto recordemos o que AN es el subgrupo de las permutaciones pares e A− es la clase lateral de todas las N permutaciones impares. Adem´ s. Esta es una buena disculpa para introducir las matrices de permutaciones. Como ω no es una biyecci´ n existen j. A INω(N) se le llama matriz de la o permutaci´ n ω.11 es un caso particular de 4.k} i∈N ´ donde la ultima igualdad es v´ lida porque ωj = ωk . a Sea ω ∈ TN arbitraria pero fija. Si observamos detenidamente la definici´ n de ∇ o Y X X sgn σ αiω i βω i σ i ∇= vemos que para probar ∇ = 0 es suficiente construir para cada ω ∈ TN una biyecci´ n o f : AN → A− tal que si θ = f (σ) entonces. Sea INω(N) la matriz identidad a la que se le han permutado las columnas con la permutaci´ n ω ∈ SN . 1. La funci´ n f es biyectiva ya que su inversa es θ 7→ θ ◦ t.2 o Propiedades b´ sicas de los determinantes a 99 Q P P Q y usando la f´ rmula i∈N j∈N γij = ω∈ FN i∈N γiω i (Sec. N Y Y αiω i βω i σi = αiω i βω i θi i∈N i∈N ω∈ TN σ∈ SN i∈N Denotando por ∇ el primer sumando nuestro determinante se convierte en ¸ ∙ X Y X cambio de variable = sgn σ αiω i βω i σ i = =∇+ σ=ρ◦ω σ∈ SN ω∈ SN i∈N ¸ ∙ X X Y Y cambio de var =∇+ = sgn (ρ ◦ ω) αiω i βω j ρ(ω j ) = k = ωj ρ∈ SN ω∈ SN i∈N j∈N !Ã ! Ã X Y Y X sgn ω αiω i sgn ρ βkρk = ∇ + det A det B =∇+ ω∈ SN i∈N ρ∈ SN k∈N Esto nos garantizar´ que cada sumando positivo se cancele con otro negativo.13. p´ g.Secci´ n 4. . Sea f : AN 3 σ 7→ o N σ ◦ t ∈ A− . para completar la demostraci´ n tenemos que probar que ∇ = 0.6. a Matrices de permutaciones Ahora queremos ver que 4. tenemos o a N Y Y Y αiω i βω i (σ◦t)i = αjω j βω j σ k αkω k βω k σ j αiω i βω i σi = αiω i βω i σi i∈N i∈N\{j.

Luego γij = αiω − 1 (j) lo que prueba la proposici´ n para las o columnas. o o P Prueba. Cada sumando es cero a no ser que ω−1 (j) = k. Para ω = σ tenemos i∈N δii = 1 que est´ multiplicado por sgn ω. ¿La matriz de que permutaci´ n es o 1 0 0 ⎠ 21 22 23 la de m´ s a la derecha? ¿Concuerdan o no sus c´ lculos a a 0 1 0 con el resultado 4. Determinantes ı El resultado del producto αMN INω(N) (de IMω(M) αMN ) es la matriz αMN a la que se le han permutado las columnas (los renglones) usando la permutaci´ n ω (la permutaci´ n ω−1 ).100 Cap´tulo 4. en la definici´ n de Q o determinante Q cada producto i∈N δiω − 1 (σ i ) es cero para cada ω 6= σ. Tenemos γij = k∈N αik δkω − 1 (j) . No es dif´cil probar que M (σ ◦ ω) = M (σ) M (ω) y que cualquier ı ¡ ¢ matriz de permutaciones tiene inversa (igual a su transpuesta). Necesitaremos los cambios de u u ´ndices para definir los determinantes de las matrices cuadradas.3 Expansi´ n de Laplace o En esta secci´ n encontraremos una descomposici´ n de los determinantes como una com­ o o binaci´ n lineal de determinantes de matrices m´ s peque˜ as.14? Denotemos M (ω) = IN ω (N ) . a Ejercicio 73 4. Esto significa que las matrices de permutaciones son un ¡ subgrupo de GL KN que es isomorfo a SN . El unico “pero” es que. Esto es v´ lido para cualquier campo K. en o ı . A este n´ mero com´ n se le llama orden de la matriz. a ı ⎛ ⎞ Haga la mutiplicaci´ n de matrices del µ o ¶ 0 0 1 11 12 13 ⎝ recuadro a la derecha.14 dan una nueva prueba de 4. Efectivamente. La demostraci´ n para los renglones es igual. Cambios de ´ndices ı o Sea αMN y φ : N → L una biyecci´ n. si φ : N → M es una ı ı ´ biyecci´ n entonces. o Observemos que det INω(N) = sgn ω. De aqu´. As´. De la misma manera se definen los cambios de ´ndices de los renglones. Observese que ı las permutaciones de las columnas y los renglones son un caso particular de los cambios de ´ndices ya que una permutaci´ n no es m´ s que una biyecci´ n de un conjunto en si mismo. podr´amos definir det αMN = det αMφ(N) . Podemos construir una matriz βML = αMφ(N) por la f´ rmula βij = αiφ − 1 (j) (¡observese el uso de la inversa φ−1 !). A esta operaci´ n la o o llamaremos cambio de ´ndices de las columnas de la matriz αMN mediante la biyecci´ n ı o φ.13 y 4. Luego M : SN → GL KN es un morfismo ¢de grupos que es inyectivo. ı o a o Una matriz cuadrada es una matriz cuyas cantidades de renglones y columnas coinci­ den. Sea γMN = αMN INω(N) .11. Despu´ s veremos dos importan­ o a n e tes consecuencias de esta expansi´ n: que los determinantes son funcionales multilineales y o que una matriz tiene inversa si y solo si esta tiene determinante diferente de cero. 4.

Al cambiar los ´ndices en ambos lados de la igualdad los determinantes cambian en el ı mismo signo y la igualdad es cierta independientemente de los cambios de ´ndices escogidos. que el ser singular o no singular NO depende de la biyecci´ n escogida para definir det αMN . Es claro. o e o El cuanto depende esta definici´ n de φ lo responde la siguiente proposici´ n. Observese que θ = φ ◦ ϕ−1 es una permutaci´ n de M y que las matrices αMφ(N) y αMϕ(N) solo se diferencian en la permutaci´ n de las columnas θ. θ. Si este es el caso entonces. esta definici´ n no solo depende de la matriz αNM sino tambi´ n de la biyecci´ n φ. En muchos casos no u nos interesa el valor concreto det αMN sino solamente saber si es cierto o no que det αMN = 0. Como el signo de cualquier permutaci´ n es o 1 o −1 esto quiere decir que el determi­ o nante det αNM est´ definido “salvo signo” o sea. o Esto sucede por ejemplo si los conjuntos N y M son conjuntos de naturales. a ı Ejercicio 74 Pruebe que det αω(L)M βMθ(N) = det αω(L)M det βMθ(N) ∀ω. o En otros casos lo importante no es el valor de alg´ n determinante sino una igualdad entre u estos. 7 → 5. Por ejemplo si N = o {2. o Prueba. en el caso contrario se le llama no singular. 7} y M = {1. 4. o ı No podemos poner la conclusi´ n de este resultado como sgn φ det αMφ(N) = o sgn ϕ det αMϕ(N) ya que como φ y ϕ son biyecciones de N en M ninguna de las dos tiene signo. es que si o una matriz tiene una columna o rengl´ n nulo entonces su determinante es cero. Otro ejemplo. ı u Esta ambig¨ edad se resuelve en diferentes casos de varias maneras. o ¡ ¢ ¿Y por que no escoger de los dos posibles valores aquel que sea mayor que cero? Primero. 3.11. ı T Por ejemplo. en realidad no nos importa que biyecci´ n se escogi´ para o o calcular el determinante. a o . 5} entonces la biyecci´ n adecuada es 2 → 1. o o Si φ y ϕ son dos biyecciones de N¢en M enton­ ¡ ces. las igualdades det αMN = det αMN y det (αLM βMN ) = det αLM det βMN son v´ lidas independientemente de los cambios de ´ndices usados para definir los determinantes. a veces se necesita el valor del signo del determinante y segundo ¿que quiere decir que 0 < x ∈ Z5 ? La desigualdad 0 < x solo tiene sentido si en el campo est´ dada una relaci´ n de orden. 3 → 4. det αMφ(N) = sgn φ ◦ ϕ−1 det αMϕ(N) . que hay un elemento a ∈ K tal que el a determinante es a o es −a. Sin embargo en los casos m´ s importantes (R y C) de que el campo sea de a caracter´stica diferente de dos tenemos una ambig¨ edad al definir el determinante det αNM . Apl´quese 4. Este es el caso de R pero no el de Zp ni el de C. En este caso ´ podemos siempre escoger la unica biyecci´ n que conserva el orden. una matriz cuadrada αMN se le llama singular si det αMN = 0. Por ejemplo.3 o Expansi´ n de Laplace o 101 principio. En un campo de caracter´stica dos esto es irrelevante ya que en ı este caso 1 = −1.Secci´ n 4. [131] En otros casos hay una biyecci´ n natural que nos dice cual debe ser el valor de det αMN .

A los complementos algebraicos tambi´ n se o e les llama cofactores. La matriz α∗ cuyas entradas son los complemento algebraicos α∗ es NN ij la matriz de los complementos algebraicos de αNN o matriz de cofactores de αNN . Aqu´ hay que tener cuida­ o ı do. una biyecci´ n cualquiera. Luego det αN\i ω(N\j) = sgn ω sgn ϕ det αN\i ϕ(N\j) y ^ ^ pasando sgn ω al otro lado de la igualdad terminamos la prueba. ^ Ahora. Por ejemplo. Observese que ω◦ϕ−1 es una permutaci´ n de N\i.15 tenemos que det αN\i ω(N\j) = o ^ ^ ¡ ¢ −1 sgn ω ◦ ϕ o det αN\i ϕ(N\j) . Para evitar confuciones. Sea αNN una matriz y sean i. Sea ω otra permutaci´ n de N tal que ω (j) = i. las e o a matrices de cambio de bases est´ n naturalmente indexadas por conjuntos de vectores que no poseen un orden a natural. Por un lado ω es una biyecci´ n de N\j en N\i y por otro es una permutaci´ n de N. podemos dar la siguiente definici´ n. Sea ϕ : N\j → N\i. o Complementos algebraicos Estos razonamientos nos interesan ahora por el siguiente caso particular en el cual todo es m´ s f´ cil. M´ s a´ n. Podemos definir ϕ (j) = i y de esta o manera ϕ se convierte en una permutaci´ n de N. o El determinante de αNN es igual a la suma de las entradas del rengl´ n por sus cofactores. en todo elemento de ¢ ^ ^ N\i coincide con ω◦ϕ y adem´ s ω◦ ϕ−1 (i) = i. o Prueba. Si αij es una entrada de la matriz A = αNN o entonces el complemento algebraico de αij es α∗ = sgn ω det αN\i ω(N\j) donde ω es ij cualquier permutaci´ n de N tal que ω (j) = i. o det αNN = αiN α∗ = iN X j∈N αij α∗ ij . a las permutaciones de N las denotaremos en esta demostraci´ n por ω y ϕ respectivamente. Determinantes ı ´ En muchos de los textos de algebra lineal esta ambig¨ edad se resuelve postulando que los conjuntos u de ´ndices siempre tienen que ser conjuntos de naturales. Esto no solamente es innecesario. sino ı que tambi´ n hace la exposici´ n m´ s compleja y conceptualmente menos clara. Definamos el de­ o sgn ϕ det αN\i ϕ(N\j) terminante det αN\i N\j con la expresi´ n del recuadro a la derecha. ı o La expresi´ n sgn ϕ det αN\i ϕ(N\j) no depende de ϕ. La expansi´ n de un determinante por sus renglones o Teorema de Expansi´ n de Laplace o Sea αiN un rengl´ n arbitrario de la matriz αNN . ¿Que pasa −1 −1 con ω◦ ϕ ¡? Pues. en algunos textos. j ∈ N.102 Cap´tulo 4. las pruebas son incompletas ya que inevitablemente hay que renumerar los a u renglones y/o columnas y no se demuestra que los resultados son independientes de la renumeraci´ n. Veremos que si. o Parecer´a que no hemos hecho nada ya que en principio esta definici´ n depende de ϕ. ¿Habr´ una manera natural de definir el o a determinante de αN\i N\j ?. La matriz αN\i N\j se obtiene de la a a matriz αNN eliminando el rengl´ n i y la columna j. Por 4. a ^ ^ ¢ ¡ −1 −1 Luego sgn ω ◦ ϕ = sgn ω ◦ ϕ ^ ^ y por las propiedades de la funci´ n signo se tiene o ¡ ¢ −1 ^ ^ que sgn ω ◦ ϕ ^ ^ = sgn ω sgn ϕ. o o Otro tanto ocurre con ϕ.

Si se quiere sacar el complemento algebraico de αij entonces t´ chese el rengl´ n i. o ij Como es natural hay un teorema exactamente igual a este correspondiente a las columnas. As´ por ı ⎟ − det ⎜ ⎝ α31 α32 α33 α34 ⎠ ejemplo. n}. Sin embargo. En este caso la biyec­ 1 3 4 5 6 7 8 . Tenemos que 1 2 3 4 5 6 8 . Observese el parecido con el tablero.Secci´ n 4. t´ chese la columna j. todav´a debemos precisar el como calcular los cofactores en forma gr´ fica. Luego.. X X Y N X αij sgn ω sgn ρ αnω − 1 (ρn ) = αij α∗ det αNN = ij j∈N ρ∈ SN \ i n∈N\i j∈N ´ donde la ultima igualdad se obtiene por la definici´ n de α∗ .. Con estas permutaciones. Es especialmente util cuando hay renglones (o a n columnas) con muchos ceros. Este reduce el problema a calcular varios ´ determinantes de matrices m´ s peque˜ as.. Luego. ı a Si bien. Luego.3 o Expansi´ n de Laplace o [ 103 Si→j N Prueba. Hagamos el cambio de variable ρ = ω◦σ o en la sumatoria interior... los complementos algebraicos tienen una interpretaci´ n gr´ fi­ o a a ca muy sencilla. en el recuadro a la izquierda se muestra una matriz de orden cuatro en la cual estamos calculando el α41 α42 α43 α44 complemento algebraico de α23 . o Sabemos que ϕ transforma 7 7→ 6 7→ 5 7→ 4 7→ 3 7→ 2 7→ 7 y que deja fijos a todos los dem´ s elementos de N.. n definir ϕ (2) = 7 para completar una permutaci´ n de N. A ⎜ ⎝ + − + − ⎠ la derecha se muestra el sgn ϕ para una matriz con 4 renglones y − + − + columnas. s´ quese el determinan­ o a a ⎛ ⎞ te de la matriz que queda y finalmente multipl´quese ı α11 α12 α13 α14 ⎜ α21 α22 α23 α24 ⎟ por el signo de la regla del tablero de ajedrez. la definici´ n de estos es sencilla necesitamos encontrar una biyecci´ n simple de N\i o o en N\j que facilite los c´ lculos cuando N est´ ordenado o sea N = {1. ⎞ Como todo ciclo de longitud par tiene signo negativo y todo de ⎛ + − + − i+j longitud impar tiene signo positivo obtenemos sgn ϕ = (−1) lo ⎜ − + − + ⎟ ⎟ que es muy sencillo ya que es la “regla del tablero de ajedrez”. n ci´ n natural de N\2 en N\7 es la que se muestra en el o ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ recuadro a la izquierda y la llamaremos ϕ. . aplicando la N definici´ n de determinante y sacando factor com´ n obtenemos o X Y Xu αij sgn σ αnσ n det αNN = j∈N i→ σ∈ SN j j∈N n∈N\i Sea ω una permutaci´ n de N tal que ω (j) = i. Tenemos ρ (i) = i o sea. La expansi´ n de Laplace en forma gr´ fica o a El Teorema de expansi´ n de Laplace es la primera herramienta (aparte de la definici´ n) o o de que disponemos para calcular determinantes. .. a a Sea por ejemplo i = 2 y j = 7. ϕ es un ciclo de longitud j − i + 1 (si i > j entonces es un a ciclo de longitud i − j + 1). ρ ∈ Si→i = SN\i . Si i ∈ N entonces tenemos la partici´ n del grupo sim´ trico en el o e recuadro a la derecha donde Si→j = {σ ∈ SN | σ (i) = j} .

y que toman sus valores en E o sea. y) = f (a. .5. hay una propiedad un poco m´ s sutil que podr´a cumplir la funci´ n f y es a ı o que sea lineal en la primera variable. y). 1 1 x1 x2 x2 x2 1 2 ··· ··· xn−1 xn−1 1 2 ··· 1 · · · xn · · · x2 n ··· ··· · · · xn−1 n . Como ı E2 es un espacio vectorial sobre K entonces podr´a suceder que f sea un funcional lineal. que ∀y ∈ E se cumple que f (a + b. Sin embargo. A las TL de E en K se le llama funcio­ nales lineales del espacio E. En otras palabras. En este art´culo. y) 7→ f (x. Si f es lineal en las dos variables entonces. y) ∈ K. x2 . y) = λf (a. o o Sugerencia: Usar inducci´ n en n. . xn ) = (xj − xi ) Repita este ejercicio por alguna ⎛ ⎞ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ 1≤i<j≤n ⎜ ⎟ ⎠ A este determinante se le conoce como determinante de ⎝ Vandermonde. Tenemos 0 0 det A + det B = 0 6= 1 = det (A + B). Considerar el determinante de Vandermonde y la funci´ n o o f como polinomios en la variable xn . basta ver un ejem­ µ 0 0 ¶ plo. El lector debe notar que ya nos encontra­ mos con la funci´ n f en la prueba de la proposici´ n 4. se define la a propiedad de que f sea lineal en la segunda variable. se dice que f es un funcional bilineal (el “bi” es porque son dos variables). Multinearidad de los determinantes El determinante se puede ver como una funci´ n del espacio de matrices en el cam­ o µ ¶ po.17) en 1772 en un art´culo donde o ı ´ estudiaba las orbitas de los planetas interiores del sistema solar. En esta terminolog´a vemos que la propiedad det (A + B) 6= ı det A + det B lo que quiere decir es que el determinante NO es un funcional lineal del es­ pacio vectorial de las matrices. Consideremos las matrices A y B definidas a la izquierda. ecuacio­ a nes diferenciales y teor´a de las probabilidades. y) + f (b. Determinantes ı Al matem´ tico y f´sico Pierre­Simon Laplace (Francia 1749­1827) se le a ı conoce fundamentalmente por sus trabajos en mec´ nica celeste. o u o columna. Pasemos a considerar una funci´ n f con valor en K de dos o 2 variables x. An´ logamente. ¿Ser´ el determinante una TL? ¿Se cumplir´ que det (A + B) = a a 1 0 A= det A+det B? La respuesta es NO. .104 Cap´tulo 4. los determinantes B= 0 1 cumplen una propiedad bastante parecida. Ejercicio 76 Demuestre que el determinante de la ma­ triz en el recuadro a la derecha es igual a Y f (x1 . El public´ la demostraci´ n ı o o del Teorema de Expansi´ n de Laplace (4. Sin embargo. f : E 3 (x. Probar que ambos polinomios tienen las mismas raices y el mismo coeficiente principal. y) y f (λa. Laplace analiz´ el problema de soluci´ n de sistemas de ecuacio­ ı o o nes lineales mediante el uso de determinantes. Para probar que no. Sea E un espacio vectorial sobre el campo K. Ejercicio 75 T´ mese una matriz de orden cuatro y calcule su determinante usando el teo­ o rema de descomposici´ n de Laplace por alg´ n rengl´ n. .

Usando la descomposici´ n de Laplace por el e o o ∗ ∗ rengl´ n i obtenemos det αNN = αiN αiN = λxN αiN = λ det B. Los determinantes son los unicos funcionales multilineales de los renglones que son iguales a 1 en ´ la matriz identidad y que cambian por un factor de sgn θ cuando se permutan los renglones con la permutaci´ n θ. (Si el lector no entiende o porqu´ entonces. Dejaremos la prueba de este hecho para mucho m´ s adelante. Sea i ∈ N arbitrario pero fijo en toda esta prueba.Secci´ n 4. la funci´ n f : R3 3 (x. x) ∈ K es un funcional lineal entonces. Para probar que un funcional es multilineal hay que probar que es lineal en cada variable. Sea B la misma matriz e o que A excepto que su i­´ simo rengl´ n es xN . Si ∀y ∈ EN\i la funci´ n o o E 3 x 7→ f (y. sea f : EN → K una a funci´ n donde N es un conjunto de variables. z) 7→ x+y+z ∈ R es un funcional lineal.3 o Expansi´ n de Laplace o 105 Evidentemente todo esto se puede hacer cuando tenemos muchas variables en cuyo caso nos referiremos a los funcionales multilineales. Demuestre que det (A + B) = det A + det B + det C + det D. Luego. El espacio de ¡ ¢N matrices KNN es isomorfo a KN . diremos que f es lineal en la variable i. o Por transposici´ n el determinante es tambi´ n un funcional multilineal de las columnas. Un isomorfismo de estos es el que a cada matriz le hace corresponder la N­ada de sus renglones. Por ejemplo. y. y. Tenemos que probar que det A = det B + det C. e Ahora queremos ver que los determinantes son funcionales multilineales. La funci´ n o o 3 0 0 g : R 3 (x. z) 7→ xyz ∈ R es un funcional multilineal porque (x + x ) yz = xyz + x yz y tambi´ n para las otras variables. El determinante es un funcional multilineal de los renglones. o a . Observese que f no es multilineal y que g no es lineal. Diremos que f es un funcional multilineal si f es lineal en todas sus variables. Prueba. Sea A = αNN una matriz tal que su i­´ simo rengl´ n es la suma de dos N­adas xN y yN . o Sea ahora A = αNN una matriz tal que su i­´ simo rengl´ n es λxN . Sea B la misma matriz que A e o excepto que su i­´ simo rengl´ n es xN . Sea C la misma matriz que A excepto que su i­´ simo e o e rengl´ n es yN . o e Ejercicio 77 Sean A y B dos matrices con dos renglones y columnas. M´ s rigurosamente. Sea D la matriz cuya primera columna es la primera de B y su segunda columna es la segunda de A.) Usando e la descomposici´ n de Laplace por el rengl´ n i obtenemos o o ∗ det αNN = αiN αiN = (xN + yN ) α∗ = xN α∗ + yN α∗ = det B + det C iN iN iN ´ donde la ultima igualdad se cumple porque los cofactores de las matrices B y C de las entradas del rengl´ n i son los mismos que los de la matriz αNN . Podemos pensar o a f como una funci´ n de dos variables f : EN\i ⊕ E → K. Sea C la matriz cuya primera columna es la primera de A y su segunda columna es la segunda de B. Sea i ∈ N una variable. debe regresar al principio de esta secci´ n y volver a pensar la definici´ n de e o o funcional multilineal y el porqu´ el determinante es un funcional de los renglones. podemos pensar el determinante como un funcional cuyas variables son los renglones y que toma valores en el campo.

cualquier cambio de ´ndices ı ı apropiado reduce el c´ lculo de matrices inversas al caso en que el conjunto de columnas a coincide con el conjunto de renglones. Mediante el isomorfismo MN MN de las matrices con las TLs concluimos que αMN y α−1 son la matrices de dos TLs una MN la inversa de otra y por lo tanto estas TLs son isomorfismos. Aqu´. A−1 = A∗T det A Prueba. Por esto. su inversa es la transpuesta de la matriz de sus cofactores dividida por el determinante de A. Sea ϕ : N → M cualquier biyecci´ n.106 La inversa de una matriz Cap´tulo 4. g : KM → KM las TLs de las matrices A y B respectivamente. o Si AB = I entonces. Para probar que el rec´proco de esta afirmaci´ n tambi´ n es cierto. Determinantes ı Recordemos que. la clave o ı es que las matrices son finitas y cuadradas lo que significa que sus TLs son entre espacios de la misma dimensi´ n finita. det A−1 = (det A)−1 . lo que haremos es ı o e construir la matriz inversa en el caso de que el determinante sea diferente de cero. Luego. dada una matriz αMN decimos que βNM = α−1 es la matriz inversa MN de αMN si se cumple que αMN α−1 = IMM y α−1 αMN = INN . BA = I. nos olvidaremos un poco de los ´ndices para ı poder enunciar m´ s f´ cilmente nuestros resultados. Si A es una matriz no singular entonces. ella es cuadrada. Si i = j entonces αiM α∗ es la expansi´ n de Laplace del det A por o jM jM el rengl´ n i de lo que obtenemos que αiM βMj = 1. Adem´ s.28 (p´ gina 88) a obtenemos que g ◦ f = Id y por lo tanto BA = I. Por definici´ n de matriz inversa tenemos 1 = det I = det AA−1 = det A det A−1 o y por lo tanto det A 6= 0 y det A−1 = (det A)−1 . Mediante el isomorfismo de las matrices con las TLs concluimos que f ◦ g = Id. O sea. De 3. Es f´ cil ver usando la definici´ n de cambio de o a o −1 −1 ´ndices que βNM = αMN si y solo si βϕ(N)M = αMϕ(N) . Sea αMM = A o y B = βMM = (det A)−1 A∗T . a ¡ ¢ Prueba. Sea f. Si una matriz tiene inversa entonces ella es no singular. si αMN tiene inversa entonces. o . Prueba. Tenemos βMj = (det A)−1 α∗ y de la definici´ n de pro­ o jM ducto de matrices obtenemos que la entrada ij de la matriz AB es igual a αiM βMj = (det A)−1 αiM α∗ . a a La siguiente proposici´ n nos dice que para probar que una matriz es inversa de otra es o suficiente comprobar una de las dos igualdades involucradas en la definici´ n. Para hacer la demostraci´ n lo que hay que hacer es multiplicar.

20 la igualdad det γNM (det γNM ) = 1 es cierta e independiente del cambio de ´ndices que se utilize para definir el determinante de γNM . no nos queda ı claro si esta definici´ n depende o no de como hallamos escogido la base. o Si A y B son las matrices de f ∈ End E en dos bases entonces. det A = det B. Tenemos ¡ ¢ det βNN = det γNM αMM γ−1 = det γNM det αMM det γ−1 = det αMM NM NM −1 ya que por 4.4 La expansi´ n generalizada de Laplace o Ahora generalizaremos dram´ ticamente el teorema de expansi´ n de Laplace. Claro. o Para esto. un sumando del Teorema de expansi´ n de o Laplace es de la forma ∇IJ ∆IJ donde I y J son subconjuntos de cardinal 1. Sea αNN a o una matriz y I. denotemos I0 = N\I y J0 = N\J. Si escogemos una base de E entonces en esta base el OL f tiene por coordenadas una matriz A. Sean A = αMM y B = βNN las matrices de f en las bases M y N respectivamente. Si nos fijamos atentamente. Como la matriz C tiene dos renglones o o iguales entonces.Secci´ n 4. φ (x) = φ2 (x) si x ∈ L o Denotemos φ = φ1 ∪ φ2 la permutaci´ n de N definida en el recuadro a la derecha. jM El determinante de un operador lineal Sea f ∈ End E un OL. En estas notaciones. Podr´amos definir det f = det A. su determinante es cero y necesariamente αiM α∗ = 0.4 o La expansi´ n generalizada de Laplace o 107 Solo queda probar que αiM α∗ = 0 si i 6= j. Adem´ s. denotemos por ∆IJ = det αI0 J0 el determinante de la matriz a cuyas columnas son las que no est´ n en J y cuyos renglones son los que no est´ n en I (no nos a a preocupemos por los signos). 4. ı Luego.22) tenemos B = γNM Aγ−1 donde o NM γNM es la matriz de cambio de la base M a la base N. Nos gustar´a tener ı un teorema de expansi´ n donde los subconjuntos sean de un cardinal fijo pero arbitrario. J subconjuntos de N de la misma cardinalidad. Sin embargo. Prueba. este de­ terminante est´ definido solo salvo signo. denotemos por ∇IJ = det αIJ el determinante a de la matriz cuyas columnas son las de J y cuyos renglones son los de I. el determinante del OL f es por definici´ n del determinante de su matriz en o alguna base y esto no depende de la base escogida. vemos que esta jM es la expansi´ n de Laplace por el rengl´ n j del determinante de la matriz C obtenida de la o o matriz A substituyendo el rengl´ n j por el rengl´ n i. la siguiente ¯ proposici´ n nos dice que esto realmente no es un proble­ o φ1 (x) si x ∈ J 0 0 ma. ahora si nos tenemos que preocupar por los signos. . Por otro lado. Para ahorrarnos mucha escritu­ ra. Por la f´ rmula del cambio de bases para matrices (3. De los signos no nos preocuparemos ahora sino a solo m´ s adelante. Sin embargo. Sean φ1 : J → I y φ2 : J → I dos biyecciones.

o . Por 4. θ ∈ SN y los conjuntos I. J subconjuntos de N definamos ∇IJ y ∆IJ con ∇ = det α IJ Iφ(J) las f´ rmulas de la derecha donde φ denota una permutaci´ n (ar­ ∆ = sgn φ det α 0 0 o o IJ I φ(J ) bitraria pero la misma para las dos definiciones) tal que φ (J) = I (y en consecuencia φ (J0 ) = I0 ). tenemos la partici´ n del grupo sim´ trico o e I→J a la derecha donde SN = {σ ∈ SN | σ (I) = J}. Multiplicando estas 1 2 dos igualdades vemos que solo nos¢ queda probar que ¡ ¡ ¢ ¡ ¢ −1 sgn φ1 ◦ ϕ1 sgn φ2 ◦ ϕ−1 = sgn φ ◦ ϕ−1 . Sin embargo ∇IJ ∆IJ no depende de φ y esto es lo importante. e Como ya es costumbre tediosa. Luego ρ se puede descomponer en la composici´ n de o dos permutaciones θ ◦ ω donde θ ∈ SI y ω ∈ SI0 . hagamos la observaci´ n de que tambi´ n es v´ lida la o e a Expansi´ n Generalizada de Laplace cuando la hacemos por un conjunto de columnas.108 Cap´tulo 4.15 tenemos det αIφ 1 (J) = ϕ ¡ ¡ ¢ sgn φ1 ◦ ϕ−1 det αIϕ 1 (J) y det αI0 φ 2 (J0 ) = sgn φ2 ◦ ϕ−1 det αI0 ϕ 2 (J0 ) . o X X Y Entonces. para I. Prueba. Hagamos el cambio de variable ρ = φ ◦ σ. Substituyendo ρ por θ ◦ ω la suma se convierte en suma doble y si sacamos factores comunes⎛ obtendremos: ⎞ ! Ã X X Y Y X det αNN = sgn φ sgn θ αiφ − 1 (θn ) ⎝ sgn ω αiφ − 1 (ω n ) ⎠ |J|=p θ∈ SI n∈I ω∈ SI 0 n∈I0 Lo contenido en el primer par´ ntesis es det αIφ(J) = ∇IJ . θ2 = φ2 ◦ ϕ−1 y θ = φ ◦ ϕ−1 . Expansi´ n Generalizada de Laplace o Si I un conjunto de p renglones de la matriz αNN en­ P tonces. θ2 ∈ SI0 . ρ (I ) = I . Si I ⊆ N y |I| = p entonces. θ = θ1 ◦ θ2 = θ2 ◦ θ1 y esto implica la igualdad de los signos que necesitabamos. I0 son complementarios en N entonces. Como θ1 ∈ SI . Lo contenido en el segundo e par´ ntesis es det αI0 φ(J0 ) y este determinante multiplicado por sgn φ es ∆IJ . Esta definici´ n no es correcta en el sentido de que ambos o ∇IJ y ∆IJ dependen de φ. det αNN = ∇IJ ∆IJ donde la suma recorre to­ dos los subconjuntos de columnas J de cardinalidad p. det αNN = X ∇IJ ∆IJ |J|=p Sea φ una permutaci´ n de N tal que φ (J) = I. Determinantes ı La expresi´ n sgn φ det αIφ 1 (J) det αI0 φ 2 (J0 ) o no depende de las biyecciones φ1 y φ2 . De las definiciones es 1 2 inmediato que θ (y) = θ1 (y) si y ∈ I y θ (y) = θ2 (y) si y ∈ I0 . Sean ¢ 1 y ϕ2 otras dos biyecciones y ϕ = ϕ1 ∪ϕ2 . det αNN = sgn φ sgn ρ αiφ − 1 (ρn ) 0 |J|=p 0 I→ ρ∈ SN I Prueba. Ahora. denotemos θ1 = φ1 ◦ ϕ−1 . 2 Para esto. Aplicando la definici´ n de o X X Y determinante obtenemos det αNN = sgn σ αnσ n |J|=p σ∈ SI → J N |J|=p [ SI→J N n∈N n∈N Como ρ (I) = I entonces.

Como esto es u a a ⎞ a 0 0 a 1 1 a 1 1 A =⎝ 1 b 0 ⎠B =⎝ 0 b 1 ⎠C =⎝ 0 b 0 ⎠ 1 1 c 0 0 c 0 1 c [131] . decimos que αMM es triangular por bloques. i=2 Ejercicio 78 ¿Cuales de las siguentes matrices son triangulares? ⎛ ⎞ ⎛ ⎞ ⎛ Ejercicio 79 Sean M = {1. i=1 Prueba. . o j ∈ Mq y p < q entonces αij = 0.12 no es v´ lida para campos de caracter´stica a o a ı 2. Entonces decimos que αMM es diagonal por bloques. precisaremos los signos de las biyecciones en la expansi´ n generalizada de La­ o ´ til solo para calcular el place cuando la matriz est´ dada en forma gr´ fica. En particular. Hagamos la expansi´ n generalizada de Laplace o P por estos dos renglones obteniendo det αN N = ∇IJ ∆IJ . Matrices diagonales y triangulares por bloques o Sea αMM una matriz. Supongamos que la matriz αN N tiene los o renglones a y b iguales. ¿Cual es el aspecto de αMM en forma gr´ fica? [131] a La expansi´ n generalizada de Laplace en forma gr´ fica o a Ahora. Ahora ya podemos dar una demostraci´ n general. La matriz M0Q triangular por bloques con un bloque menos y por hip´ tesis de inducci´ n es o o det αM 0 M 0 = t det αM i M i . ∀i ∈ I = M1 se tiene que αij = 0. det αMM = ∇II ∆II = det αM 1 M 1 det αM 0 M 0 . Si αMM es una matriz triangular por bloques entonces. . por definici´ n de matriz triangular. Si J 6= I entonces. 5}. O sea. En este caso. Los ∇IJ son determinantes de dos renglones y columnas y en cada caso sus dos renglones son iguales.4 o La expansi´ n generalizada de Laplace o 109 El la p´ gina 98 vimos que nuestra demostraci´ n de 4. .Secci´ n 4. la o columna j es cero en αIJ e independientemente de la biyecci´ n que se escoja para calcu­ o lar el deteminante tenemos ∇IJ = 0. Si cada Mi contiene un solo ´ndice entonces decimos que αMM es diagonal. Para t = 1 la propo­ o u 0 sici´ n es trivial. Si cada Mi tiene un solo ´ndice entonces decimos que αMM es triangular. Aplicando la expansi´ n generalizada de Laplace o o P al conjunto de renglones I = M1 obtenemos det αMM = |J|=|I| ∇IJ ∆IJ . 2}. Haremos la prueba por inducci´ n en el n´ mero de bloques t. Supongamos que existe una partici´ n M1 ∪ · · · ∪ Mt = M y que αij = 0 si i y j pertenecen a bloques diferentes. Por la f´ rmula para calcular los determinantes de o matrices orden dos. . / Luego. Luego. 5} y αMM una matriz triangular por los bloques M1 = {1. Denotemos I = {a. Q det αMM = t det αM i M i . toda matriz diagonal es triangular. para la partici´ n M1 ∪ · · · ∪ Mt = M se cumple que si i ∈ Mp . obtenemos ∇IJ = 0 y por lo tanto det αN N = 0. b}. ı Supongamos ahora que. M2 = {3} y M3 = {4. Es ı claro de las definiciones que toda matriz diagonal por bloques es triangular por bloques. en αIJ hay una columna j ∈ M1 y por lo tanto j ∈ Mq con 1 < q. Denotemos M = M\M1 .

o Si N = {1. para cualesquiera subconjuntos I. Usando la definici´ n de θ calculamos o (kp . . j + 1. . . Calculemos el determinante de una matriz αNN del recuadro 4 5 1 1 ⎜ 1 2 3 2 ⎟ a la izquierda haciendo la expansi´ n generalizada de Laplace por el con­ o ⎜ ⎟ ⎝ 4 5 2 3 ⎠ junto I del segundo y cuarto renglones. . jt }< entonces. p = i1 y q = j1 . · · · . . i) si j < i sgn φj = (−1)i+j (la regla del “tablero de ajedrez”). . . p} y {`1 . . Para I 1 esto. . i) si j > i el ciclo que se muestra a la derecha y por lo tanto (j. . θ es siempre un ciclo de longitud Id si p = q |p − q| + 1 y por lo tanto sgn θ = (−1)p+q . recordemos que K = N\I = {k1 . . n} entonces. Luego. . Como i1 y j1 son los elementos m´ s peque˜ os de I y J respectivamente entonces. i sgn φJ = sgn φj1 sgn φI\i1 . ks }< y L = N\J = {`1 . I i1 1 ¡ ¢−1 J\j Prueba. Luego. q − 1. Determinantes ı determinante de matrices concretas y hacerlo as´ es por lo general extremadamente inefi­ ı ciente y complicado. it }< y J = {j1 . kp−2 . Tam­ o bi´ n. . I I Observese. . kp−1 . i1 }< = {1. . . ı ı Calculemos el signo de φJ . m2 . Tenemos que recorrer todos los 1 2 3 4 subconjuntos J de dos columnas. o sea φJ (I) = J y φJ (N\I) = N\J. . calculando la paridad de i∈I i + j∈J j. para hallar sgn φJ lo I que hay que hacer es multiplicar los signos de la regla del tablero de ajedrez de los elementos P P en la diagonal de αIJ . · · · . . . Tenemos que demostrar que sgn θ = (−1)i1 +j1 . φI = φi es (j. . . . t} se tiene que ip−1 < ip . . kq−1 . Para esto sean K = e o N\I = {k1 . . . j1 }< = {1. introduscamos la nota­ o ci´ n {m1 . que la biyecci´ n φ1 es la natural de renglones a columnas que se obtiene si o en una matriz αNN tachamos todos los renglones con ´ndices en K y todas las columnas con ı ´ndices en L. . p − 1. i1 ) si p < q que esta permutaci´ n es igual a la del recuadro a la o (kp−1 . `q−1 . tenemos una biyecci´ n natural entre los complementos de I y J. . · · · . . . . . . recomiendo omitir en una primera lectura lo que resta de esta secci´ n. . Tambi´ n se puede hacer. Luego. . · · · . tenemos a n que {k1 . Ahora. . `s }< . . kp+1 . . ı Iterando este resultado obtenemos sgn φJ = sgn φj1 sgn φj2 · · · sgn φjt . J\j . `s }< y definamos φ2 : K 3 kp 7→ `p ∈ L. . . ks }< y L = N\J = {`1 . . Observese que I i1 i2 it αir jr son las entradas en la diagonal de la submatriz αIJ de αNM . . . . . . Sea θ = φJ ◦ φI\i1 . q} y de aqu´ finalmente. i1 ) si p > q izquierda. e ⎛ ⎞ Ejemplo. entre dos cualesquiera subconjuntos I. . i + 1. . Para esto. J ⊆ N del mismo cardinal hay una biyecci´ n natural que conserva el orden.110 Cap´tulo 4. . . J ⊆ N del mismo cardinal la permutaci´ n φJ = φ1 ∪ φ2 o I cumple lo necesario para calcular el signo de un sumando de la expansi´ n generalizada de o Laplace. kq . i − 1. la biyecci´ n es φ1 : I 3 ip 7→ jp ∈ J. Al estudiar la expansi´ n (normal) de Laplace en forma gr´ fica o a I j J vimos que si I = {i} y J = {j} entonces. . Sea p el menor ´ndice tal que i1 < kp y sea q el menor ´ndice tal que j1 < `q (es admisible que p = s+1 y/o ı ı q = s + 1). j − 1. . mt }< para se˜ alar que ∀p ∈ {2. si o n I = {i1 . . De la misma manera φ2 es la biyecci´ n de renglones a columnas si tachamos ı o todos los renglones con ´ndices en I y todas las columnas con ´ndices en J.

4} {2. 4} la matriz αN\I N\J tiene dos renglones iguales por lo que tambi´ n el corres­ e pondiente sumando es cero. 4}. Solo nos quedan dos sumandos J = {1. . Caracterizaci´ n de Matrices No Singulares o Para cualquier matriz cuadrada A las siguientes afirmaciones son equivalentes: 1. 4} y cuando J = {2. Para ellos podemos µ − + ¶ µ + + ¶ extraer del tablero de ajedrez las submatrices del recuadro a − + + + la derecha y multiplicando los signos en las diagonales obte­ {1. A es no singular. Matrices no singulares Antes que nada recoleccionaremos en un solo resultado todo lo que hemos probado para las matrices no singulares.4} nemos sgn φI = −1 y sgn φI = 1. los conjuntos de columnas LI y las bases de las columnas. 3. 2. Por esto. el fundamento de los diversos ı m´ todos de c´ lculo del conjunto de soluciones de un sistema de ecuaciones lineales. diremos que un conjunto de renglones es LI si ellos son distintos dos a dos y es LI en el espacio de renglones de la matriz. los renglones de A son LI. 4} cuando J = {1. Adem´ s. o a a para J = {3. que si la columna 4 no est´ en J entonces la matriz αIJ tiene dos renglones a iguales por lo que todos los sumandos correspondientes en la expansi´ n ser´ n cero.5 o El rango de una matriz 111 Observese.Secci´ n 4. e a Espacios de columnas y renglones Al subespacio de KN generado por los renglones de la matriz αMN se le llama espacio de renglones de la matriz. Demostraremos que las bases de una matriz definen y est´ n definidas por las bases de los espacios de columnas y renglones de la matriz. 4} J = {2.5 El rango de una matriz En esta secci´ n introduciremos las bases de una matriz como las submatrices m´ s grandes o a con determinante diferente de cero. 4. Luego. A tiene inversa. por la expansi´ n generalizada de Laplace el o determinante de nuestra matriz es igual a ¯ ¯¯ ¯ ¯ ¯¯ ¯ ¯ 2 2 ¯¯ 4 1 ¯ ¯ 1 2 ¯¯ 5 1 ¯ ¯ ¯¯ ¯ ¯ ¯¯ ¯ ¯ 2 4 ¯¯ 4 2 ¯ − ¯ 1 4 ¯¯ 5 2 ¯ = 4 × 4 − 2 × 5 = 6 donde usamos las barras verticales para ahorrar espacio al denotar los determinantes. Este a resultado es central en la teor´a de matrices y es por ejemplo. Aqu´ tenemos un peque˜ o problema: es posible que halla renglones ı n iguales y los conjuntos no distinguen elementos iguales. 4. An´ logamente se define el espacio a de columnas de una matriz. Un conjunto de renglones distintos dos a dos que es una base del espacio de renglones lo llamaremos base de los renglones de αMN . las columnas de A son LI.

Sean Bin los cofactores de las αIJ αIn ´ entradas de la ultima columna en la matriz Bn . Sea αMN una matriz. Este resultado es en cierta manera an´ logo o a a al lema de aumento de conjuntos LI que vimos en el Cap´tulo 2.. Sea αMN una matriz. o Lema de aumento de matrices no singulares El siguiente resultado es la parte m´ s importante de las demostraciones de los que le a siguen. Su demostraci´ n es cl´ sica e ingeniosa. 2⇔4 y como los determinantes no ı cambian por transposici´ n obtenemos 2⇔3. Entonces. Bin no depende de n y podemos denotar Bin = βi ∈ K. Como esto es v´ lido ∀n ∈ N concluimos que βM αMN = 0N . Sea αKL una base i∈M i∈M . Sea m ∈ M\I tal que el conjunto de renglones indexado por I ∪ m es LI. ı Lema de Aumento de Submatrices No Singulares Sea αIJ una submatriz cuadrada no singular de αMN . La implicaci´ n 1⇒2 es el resultado 4. supongamos que ∀n ∈ N\J se cumple que det Bn = 0. Si n ∈ J entonces. De la ´ expansi´ n de Laplace por la ultima columna en la matriz Bn obtenemos: o X X 0 = det Bn = αin Bin = αin βi . Denotemos Bn = αI∪m J∪n . existe n ∈ N tal que la matriz αI∪m J∪n es no singular. Como βm = det αIJ 6= 0 esto a significa que los renglones de αMN est´ n en una combinaci´ n lineal nula con coeficientes no a o todos nulos. En este caso Bn tiene dos columnas iguales y por lo tanto tambi´ n det Bn = 0.112 Cap´tulo 4. Determinantes ı Prueba. a Dos bases cualesquiera de una matriz tienen el mismo orden. De aqu´. o Bases de una matriz Ya estamos listos para definir las bases y el rango de una matriz. podemos pensar la matriz Bn gr´ ficamente e a ¶ µ como se muestra en el recuadro. Al absurdo. Entre las submatrices no singulares de αMN tenemos la relaci´ n de contenci´ n o o (αI0 J0 ⊆ αIJ ) ⇔ (I0 ⊆ I y J0 ⊆ J) Una base de αMN es una submatriz no singular maximal por contenci´ n. a Prueba. Para las bases de o una matriz se cumple una propiedad an´ loga a la de las bases de los espacios vectoriales.20. Prueba. Sea r el orden m´ s grande de sus bases. Esto contradice la hip´ tesis de que los renglones son LI. denotemos por Bn la matriz αI∪m J a la que artifi­ cialmente le agregamos otra columna n.21.20. Para cualquier n. La equivalencia 1⇔4 es el resultado 3. Observemos que Bn = αmJ αmn en la definici´ n de los Bin no est´ n involucradas las entradas de o a ´ la ultima columna. La implicaci´ n 2⇒1 es el resultado o o 4. Luego.

el rango de αMN es el m´ ximo natural r tal que αMN tiene una submatriz cuadrada de orden r y de determinante no nulo.Secci´ n 4. la dimensi´ n del espacio de renglones de αMN es al menos r. o e a Si αIJ es una base de αMN entonces. Al orden com´ n de todas las bases de una matriz se le llama rango de la matriz.28) encontrar´amos ı ı una columna n tal que det αI∪m J∪n 6= 0 y esto es un absurdo ya que las bases de una matriz son maximales por contenci´ n. Necesitamos probar que A es LI maximal. Si el conjunto de renglones indexado por K en la matriz αMN fuera LD entonces existir´a una combinaci´ n lineal βK αKN = 0N con βK 6= 0K y por lo tanto βK αKL = 0L lo ı o que contradecir´a que por ?? el conjunto de renglones indexado por K en la matriz αKL es ı LI. o Sea αIJ una base cualquiera. A es LI. Si esto no fuera cierto entonces. Teorema del rango El siguiente resultado es una de las implicaciones de la Caracterizaci´ n de las Bases o de una Matriz (4. Debemos probar que |I| = r. Para ver que A es una base de los renglones observese primero que |A| = |I| ya que si este no fuera el caso la matriz αIJ tendr´a dos renglones iguales y esto ı no puede ser ya que det αIJ 6= 0. En otras u a palabras. Prueba. Una primera (pero importante y asombrosa) consecuencia del Teorema del Rango de una Matriz (4.32) que demostraremos m´ s adelante. o Prueba. existe m ∈ I tal que o / el conjunto de renglones indexado por I ∪ m en αMN es LI.31) es que las dimensiones de los espacios de columnas y renglones de cual­ . Supongamos |I| < r. el conjunto de renglones indexado por I es una base del espacio de renglones de αMN . Luego. Luego.5 o El rango de una matriz 113 de orden r. Sea r el rango de αMN . Sea αIJ una base de αMN y denotemos por A = {αiN | i ∈ I} el conjunto de renglones indexado por I.28) existe una columna n tal que det αI∪m J∪n 6= 0 y esto contradice que αIJ es una base de αMN . Existe una base αIJ de αMN tal que |I| = r.30 el conjunto {αiN | i ∈ I} es una base de los renglones que tiene r vectores. por el Lema de Aumento de Submatrices No Singulares (4. Si A no fuera LI existir´a una combinaci´ n lineal βI αIN = 0N con βI 6= 0I y por lo tanto ı o βI αIJ = 0J lo que contradecir´a que por ?? el conjunto de renglones indexado por J en la ı matriz αIJ es LI. De aqu´. El lector no debe olvidar que por a transposici´ n este resultado y el que le sigue tambi´ n son v´ lidos para las columnas. Como la dimensi´ n del espacio de renglones de αMN es al menos r entonces. o Teorema del Rango de una Matriz El rango de una matriz es igual a la dimensi´ n de su espacio de renglones. Por el Lema de Aumento de Submatrices No Singulares (4. existir´a m ∈ M\I tal que el conjunto de renglones indexado por I ∪ m es ı LI. Por 4.

para cada m ∈ M\I el rengl´ n αmN es una com­ o binaci´ n lineal αmN = βI αIN de los renglones de αIN y por lo tanto cada subrengl´ n αmJ o o es combinaci´ n lineal αmJ = βI αIJ de los renglones de αIJ . los renglones de αIN y las columnas de αMJ son bases.30 el espacio de renglones de αMJ tiene dimensi´ n r. Rec´procamente. αIJ es una matriz no singular de orden igual al rango y por lo tanto es una base de αMN . ¿como hallar x tal que Ax = b? a ı A una igualdad de la forma Ax = b donde A y b son conocidos y x es inc´ gnita o se le llama sistema de ecuaciones lineales. o M´ s dif´cil es el problema inverso. Determinantes ı quier matriz coinciden. o Caracterizaci´ n de las Bases de una Matriz o Una submatriz αIJ es una base de una matriz si y solo si el con­ junto de renglones indexado por I es una base de los renglones y el conjunto de columnas indexado por J es una base de las columnas. αIN y αMJ es igual a r = |I| = |J|. Como es l´ gico. supongamos que ı los renglones de αIN y las columnas de αMJ son bases. El producto X de estas matrices es nuevamente una columna αNM xM1 = bN1 = bN . Luego. Ya probamos (4. como los o renglones de αIN son una base entonces. Cuando sobre la faz de la Tierra a´ n no viv´an las o u ı . los renglones de αIJ son o un generador del espacio de renglones de αMJ y como este espacio tiene dimensi´ n r = |I| o concluimos que los renglones de αIJ son LI. gran confusi´ n! ¿porqu´ sistema? ¿por­ o e qu´ ecuaciones en plural si nada m´ s tenemos UNA?. Por el Teorema del Rango de una Matriz (4. De la Caracterizaci´ n de Matrices No Singula­ o res (4. 4.30) que si αIJ es una base entonces. Como ya es usual podemos interpretar la columna xM como un vector x en el espacio vectorial KM y a bN como un vector b en el espacio KN y en estas notaciones la igualdad se escribe en una forma m´ s simple Ax = b.114 Cap´tulo 4.27) obtenemos que det αIJ 6= 0 o sea. los espacios de columnas y de renglones de una matriz no tienen nada que ver uno con el otro. Si hacemos a N variar x en K entonces esta igualdad la podemos pensar como una TL de KM en KN . Por otro lado. La respuesta a estas preguntas no es e a gran misterio. Sea αIJ una submatriz de αMN . Por 4. Caracterizaci´ n de las bases de una matriz o Ya estamos listos para demostrar el resultado que resume toda esta secci´ n. si conocemos x entonces como sabemos multiplicar matrices hallamos b = Ax. Prueba. A primera vista. si se conoce b entonces. es un problema hist´ rico. Si αij xj = bi desarrollamos este producto por la definici´ n de producto de matrices en­ j∈M o tonces obtenemos para cada i ∈ N la igualdad en el recuadro a la derecha. ¡Oh.31) el rango de las matrices αMN . Si el lector no se asombra lo debe pensar mejor. Supongamos que A es una matriz fija.6 Sistemas de ecuaciones lineales Sea A = αNM una matriz y xM = xM1 una columna.

cualquier cosa que signifique que hay muchas) de ecuaciones lineales. Por NM NM ı 4. Por ejemplo. De hecho. A la matriz A se µ sistema y al vector b lo llamaremos vector de coeficien­ 1 tes libres. se cumple la igualdad j∈M αij xj = bi . si ocurre que la matriz A es no singular entonces multiplicando por A−1 a la izquierda obtenemos Ax = b ⇒ A−1 Ax = A−1 b ⇒ x = A−1 b y como ya sabemos encontrar la matriz inversa y sabemos multiplicar matrices la soluci´ n o del sistema de ecuaciones lineales est´ a la mano. Ambas formas son en esencia la misma ya que encontrar un vector x es lo mismo que encontrar todas sus coordenadas xj . o para acercarnos m´ s a la verdad. ı colecci´ n.6 o Sistemas de ecuaciones lineales 115 matrices y los vectores. ¨ Tenemos que encontrar un vector x ∈ KM tal que Ax = b. Denotaremos por A (j) la matriz obtenida de la A = 4 µ matriz del sistema substituyendo la j­´ sima columna por el e vector de coeficientes libres.b = 6 8 ¶ 7 3 8 6 Prueba. Sea αNM es una matriz no singular. debemos substituir en todo lo dicho los “se dec´a” por “se a ı dice” en presente. los humanos necesitaban encontrar unos numeritos xj tales que para P cualquier i ∈ N se cumpla que j∈M αij xj = bi . hay dos formas de ver los sistemas de ecuaciones lineales: ¨ Tenemos que encontrar |M| elementos del campo xj tales que P para cualquier i. la j­´ sima e coordenada xj del vector x es igual al determi­ nante de A (j) dividido entre el determinante de A. Obs´ rvese que se necesitan encontrar |M| e numeritos. . tenemos xj = βjN bN .Secci´ n 4. Ya observamos que en este caso necesariamente x = α−1 b. a Regla de Cramer Sea Ax = b un sistema de ecuaciones lineales. Para terminar la Nj Nj demostraci´ n basta observar que la expresi´ n a la derecha de la igualdad es la expansi´ n de o o o Laplace de A (j) por la columna j. xj = det A (j) det A le llama matriz del 2 5 1 4 ¶ µ ¶ 3 7 . Luego.21 tenemos que βjN = α∗ / det αNM y de aqu´ xj det αNM = bN α∗ . Esto no significa que ya sepamos resolver a todos los sistemas de ecuaciones lineales ya que para que una matriz sea no singular se necesita primero que sea cuadrada y que adem´ s el determinante sea diferente de cero. Un ejemplo de esta substitu­ A (2) = ci´ n es el de la derecha. se dec´a que se necesitaba resolver un sistema (conjunto. la elegancia de la segunda forma hace que nuestra manera de pensarlo sea mucho m´ s simple y sistem´ tica (a costo de aprender a a sobre matrices y vectores). En el caso de que |N| = 1 se dec´a que tenemos que resolver una ecuaci´ n lineal. ı o Para el caso |N| > 1 los numeritos xj deber´an de cumplir todas y cada una de las ecuacio­ ı nes (para cada i ∈ N) y entonces. Sin embargo. Denotemos por βij las entradas de α−1 entonces. o Regla de Cramer Si la matriz A es no singular entonces.

Ahora responderemos o definitivamente y para todos los casos la primera pregunta. Es necesario recalcar que esta regla solo funciona para el caso de que la matriz es no singular. Para nosotros. Si A y B son dos matrices con los mismos conjuntos de ´ndices de ı A las columnas entonces denotaremos como en el recuadro de la izquierda a la matriz B cuyos renglones son los de A y los de B. O sea. Determinantes ı Gabriel Cramer (Suiza 1704­1752) public´ su famosa regla en el art´cu­ o ı lo “Introducci´ n al an´ lisis de las curvas algebraicas” (1750). Existencia de soluciones Cuando se tiene un sistema de ecuaciones se deben contestar tres preguntas: ¨ ¿Existe una soluci´ n? o ¨ ¿Como encontrar una soluci´ n en el caso de que exista? o ¨ ¿Como encontrar TODAS las soluciones? La Regla de Cramer da la respuesta a las tres preguntas para cuando A es una matriz no ´ singular: la soluci´ n existe.33) tiene fundamentalmente un inter´ s hist´ rico por ser uno de los or´genes del e o ı concepto de determinante. o Si A y B son dos matrices con los mismos conjuntos de ´ndices de los ren­ ı glones entonces denotaremos como en el recuadro de la derecha a la matriz cuyas A B columnas son las de A y las de B. o o Por otro lado. cuando en el sistema se tienen tantas incognitas como ecuaciones y el determinante de la matriz del sistema no es nulo. es unica y se halla por la Regla de Cramer.” Cramer contin´ a explicando como se calculan estos t´ rminos como productos de ciertos u e coeficientes de las ecuaciones y como se determina el signo.116 Cap´tulo 4. Esta sur­ o a gi´ del deseo de Cramer de encontrar la ecuaci´ n de una curva plana que o o pasa por un conjunto de puntos dado. introduciremos unas notaciones que utilizaremos en toda esta secci´ n. Es curioso (y educativo) ver con o que palabras Cramer formula su regla: “Uno encuentra el valor de cada indeterminada formando n fracciones el com´ n denominador de las cuales tiene tantos t´ rminos u e como las permutaciones de n cosas. La Regla de Cramer (4. Las “n fracciones” son det A (j) / det A y el “com´ n deno­ a a u minador” es det A (que tiene tantos sumandos como las permutaciones de n cosas). con m´ s de dos siglos a de ventaja. Este es uno de los or´genes ı ı hist´ ricos del concepto de determinante. . El escribe su regla en un ap´ ndice e del art´culo y no da prueba alguna para ella. es mucho m´ s f´ cil. (A las operaciones de este o tipo se les llama “concatenaci´ n” en las ciencias de la computaci´ n). La matriz [A|B] la podemos pensar como el resultado de la operaci´ n que a la matriz A se le agregan las columnas de B. El tambi´ n se˜ ala como los e n numeradores de las fracciones se pueden encontrar substituyendo ciertos coeficientes de los denominadores por los coeficientes libres del sistema. Pero primero.

Repitiendo esta operaci´ n una cierta cantidad de veces. Luego. Luego existen escalares λi tales que o αmN = λI αIN se cumplen las igualdades a la derecha. Pasemos ahora a analizar la imagen. El rengl´ n [αmN |bm ] es com­ ı o binaci´ n lineal de los indexados por I. Ella es la matriz de la TL f : KN 3 xN 7→ αMN xN ∈ KM . Entonces. Multiplicando la primera igualdad bm = λI bI por xN y usando la definici´ n de xN obtenemos αmN xN = λI αIN xN = o λI bI = bm y por lo tanto xN satisface todas las ecuaciones del sistema αMN xN . o o Rec´procamente. Por definici´ n de imagen tenemos Im αMN = {βM | ∃xN αMN xN = βM }. de ver este lema es que si tenemos un sistema de ecua­ a ı ciones αMN xN = bM y un rengl´ n de este sistema es combinaci´ n lineal de los dem´ s o o a entonces. a Prueba. sea xN tal que αIN xN = bI y m ∈ M\I. el conjunto de soluciones de αMN xN = bM es exactamente el mismo que el de αIN xN = bI . podemos definir la imagen de la matriz αMN como Im αMN = Im f y el nucleo de o la matriz αMN como Ker αMN = Ker f.6 o Sistemas de ecuaciones lineales 117 Ahora. n Teorema de Existencia de Soluciones El sistema Ax = b tiene una soluci´ n si y solo si el rango de la o matriz del sistema coincide con el rango de la matriz ampliada. debemos eliminar la ecuaci´ n correspondiente a este rengl´ n.35) nos garantiza que esta operaci´ n no altera el o o conjunto de soluciones. Im αMN es el conjunto . demos una definici´ n. El que b sea combinaci´ n lineal de las columnas de A es equivalente o a la existencia de escalares xj tales que xN αiN = bi o sea a que Ax = b tenga soluci´ n. Prueba. El Lema de Eli­ o o minaci´ n de Ecuaciones Dependientes (4. m´ s algor´tmica. O sea.Secci´ n 4. Si Ax = b es un sistema de ecuaciones lineales entonces la o matriz ampliada del sistema (denotada por [A|b]) es la matriz que se obtiene de la matriz del sistema a˜ adiendo el vector columna de coeficientes libres b. Como αMN xN = bM tiene m´ s ecuaciones que αIN xN = bI entonces cada solu­ ci´ n de αMN xN = bM es soluci´ n de αIN xN = bI . obtenemos o una matriz ampliada con renglones LI.31) a que b sea combinaci´ n lineal o de las columnas de A. Otra manera. Por definici´ n de rango siempre se tiene que rank A ≤ rank [A|b] . Que coincidan o es equivalente por el Teorema del Rango de una Matriz (4. o Eliminaci´ n de ecuaciones dependientes o Lema de Eliminaci´ n de Ecuaciones Dependientes o Sea I el conjunto de ´ndices de una base de renglones de la ma­ ı triz ampliada [αMN |bM ]. El nucleo y la imagen de una matriz Sea αMN una MN­matriz.

o Sea αIJ una base de la matriz del sistema αMN . Luego. Para encontrar una soluci´ n de este o −1 nuevo sistema pongamos xK = 0K y despejando obtenemos xJ = αIJ bI .21 la matriz ı αIJ tiene inversa y por lo tanto podemos despejar xJ . Determinantes ı de vectores βM tales que el sistema de ecuaciones lineales αMN xN = βM tiene al menos una P soluci´ n.118 Cap´tulo 4. Esto α−1 bI IJ o quiere decir que la N­ada γN del recuadro a la izquierda es una soluci´ n de 0K nuestro sistema original de ecuaciones αMN xN = bM . Im αMN es el subespacio generado por las columnas de la matriz αMN . Para encontrar una base del Ker αMN podemos substituir xK por los vecto­ res de la base can´ nica de KK en la ecuaci´ n αIJ xJ +αIK xK = 0I y despejar xJ . nuestra tarea es encontrar una N­ada soluci´ n y encontrar Ker αMN dando una base de este subespacio. si a γN es una soluci´ n de αMN xN = βM entonces.29 (p´ gina 89) nos dice que el conjunto o a de todas sus soluciones es el subespacio af´n γN + Ker αMN . Por la Caracterizaci´ n de las Bases de o una Matriz (4. que son precisamente las columnas de la matriz ΓNK IKK del recuadro a la izquierda. Este subespacio es γN +Ker αMN donde γN es una soluci´ n ı o del sistema y Ker αMN es el subespacio de soluciones de αMN xN = 0M . podemos o suponer que αIJ es una base de la matriz ampliada. Este sistema de ecuaciones es equivalente al del recuadro a la α x + α x = b IJ J IK K I izquierda donde K = N\J. ¨ El subespacio Ker αMN es el conjunto de soluciones de αMN xN = 0M . Adem´ s. a . Resumamos todo lo dicho en ı 4. Tenemos αMN xN = i∈N αMi xi que es una combinaci´ n lineal de las columnas. De 4.36 las soluciones del sistema αMN xN = bM es un subespacio af´n de KN .36 para referencias futuras. o Sea αMN xN = bM un sistema de ecuaciones. o o Luego. Si αIJ no es una base de la matriz ampliada [αMN |bM ] entonces. ¨ El subespacio Im αMN es el generado por las columnas de αMN . es que por 4. ¨ Si γN es una soluci´ n de αMN xN = βM entonces.32) el conjunto {αiN | i ∈ I} es una base de los renglones y de aqu´ por el Lema ı de Eliminaci´ n de Ecuaciones Dependientes (4. −α−1 αIk o o IJ Las K­adas de la base can´ nica son las columnas de la matriz identidad IKK . Luego. 3. o δKk Denotemos la k­´ sima columna de IKK por δKk . Luego los vectores en el recuadro −α−1 αIK IJ IJ IJ de arriba a la derecha. Despejando e obtenemos xJ = −α−1 αIK δKk = −α−1 αIk . est´ n en el nucleo de la matriz αMN .35) nuestro sistema de ecuaciones tiene las o mismas soluciones que el sistema αIN xN = bI . ı Bases del subespacio af´n de soluciones ı Ahora nos disponemos a dar la soluci´ n general de los sistemas de ecuaciones lineales.34) el sistema de ecuaciones no tiene soluci´ n y en este caso no hay nada que hacer. La ventaja aqu´. el conjunto de todas o sus soluciones es el subespacio af´n γN + Ker αMN . por el Teorema de Existencia de Soluciones (4.

estudiaremos brevemente este m´ todo. Aqu´. |K| = dim Ker αMN . en la suposici´ n de αMN xN tiene al menos una soluci´ n. Sin embargo. la nulidad (la dimensi´ n del nucleo) de cualquier matriz es igual a su o n´ mero de columnas menos su rango. Es mucho o e n . Por 2.17 (p´ gina 52) estos espacios coinciden. u ı e Hace diez a˜ os (1995) hubiera sido inconcebible impartir un curso general de Algebra n Lineal sin desarrollar con todo detalle la eliminaci´ n de Gauss. el ı subespacio generado por las columnas de ΓNK est´ contenido en el Ker αMN y tiene la misma a dimensi´ n que Ker αMN . Ya observamos que cada columna de ΓNK est´ en el subespacio Ker αMN .7 o M´ todo de eliminaci´ n de Gauss e o 119 Las columnas de la matriz ΓNK son una base del subespacio Ker αMN . Sabemos que |K| + |J| = |N| y de 4.7 M´ todo de eliminaci´ n de Gauss e o La idea del m´ todo de eliminaci´ n de Gauss es realizar ciertas transformaciones de las e o matrices que no cambian lo que se pretende calcular y que convierte a las matrices en otras con muchas entradas iguales a cero. Este es el m´ todo m´ s universal y eficiente (al menos e a manualmente) para calcular los determinantes.25) entonces. cada vez m´ s los m´ to­ a a e dos de c´ lculo se hacen importantes solo para los especialistas en desarrollo de software y a para los investigadores que pretenden mejorarlos y/o adaptarlos a nuevos problemas. En particular. Sucede algo parecido con el m´ todo de c´ lculo de las raices cuadradas de los n´ meros e a u que se estudia en la ense˜ ansa media. En un mundo con calculadoras. o a Como las combinaciones lineales de las columnas de una matriz se obtienen multipli­ cando por vectores a la derecha. la fracci´ n de la n o poblaci´ n humana interesada en dominar este m´ todo es realmente muy peque˜ a. As´. las matrices inversas y otras cosas que a´ n no hemos estudiado.Secci´ n 4. u 4. el rango. Necesitamos probar que las columnas son un generador de Ker αMN . El rango de ΓNK es |K| ya que IKK es una base de ella. Como la imagen y el nucleo tienen dimensiones complementarias (3. o o podemos resumir todo lo expuesto en el siguiente resultado: Soluci´ n General de un Sistema de Ecuaciones Lineales o El conjunto de soluciones de αMN xN = bM es igual al subespacio af´n ı ¸ ° ¯∙ −1 ∙ −1 ¸ −αIJ αIK α bI λK + IJ λK ∈ KK ⊆ KN IKK 0K donde αIJ es una base de αMN y K = N\J. con el creciente o desarrollo de las computadoras personales y el software matem´ tico. Evidentemente las columnas son LI. El rango de a ΓNK es |K| ya que IKK es una base de ella y evidentemente sus columnas son LI.36 obtenemos |J| = dim Im αMN . el nucleo. Prueba.

Prueba. Sean αMM . haciendo a lo m´ s |M| − 1 transformaciones elementales de a los renglones. Sean αiN . De que |M\i| = |M| − 1 se concluye la prueba. El “a lo m´ s” ij de nuestra tesis es porque si αkj es a priori igual a cero entonces. De forma an´ loga.40 vemos que las diagonalizaciones de renglones y columnas tampoco cambian los determinantes. Deno­ temos βjN = λαiN + αjN y sea βMN la matriz obtenida de αMN reemplazando el rengl´ n o αjN por la N­ada βjN . Otra manera util de pensar las transformacio­ o nes elementales de los renglones es que en la matriz αMN al rengl´ n αjN le sumamos el o rengl´ n αiN multiplicado por λ. De 4. Si αij 6= 0 entonces. o o A la operaci´ n descrita en la prueba de la proposici´ n anterior la llamaremos diagona­ o o lizaci´ n de la columna αMj mediante la entrada αij . Si k ∈ M\i entonces. βMM y γMM matrices que se diferencian solo en el rengl´ n indexado o por j para el cual se tiene que βjM = λαiM + αjM y γjM = αiM . Despu´ s de diagonalizar una columna (un rengl´ n). C´ lculo de determinantes a Las transformaciones elementales no cambian los determinantes. podemos obtener una matriz βMN tal que en la columna βMj todas las entradas excepto βij son iguales a cero.120 Cap´tulo 4. αjN dos renglones de αMN y λ ∈ K un escalar. se definen las transformaciones ele­ o a mentales de las columnas. A la operaci´ n que dados αMN . usamos la expansion e o de Laplace por esa columna (ese rengl´ n) y reducimos el c´ lculo de nuestro determinante o a al c´ lculo de un solo cofactor. a ı Transformaciones elementales Sea αMN una matriz. que es un determinante de una matriz de orden menor en a . Determinantes ı m´ s importante saber que es la ra´z cuadrada que saber como calcularla. Prueba. hacemos la transformaci´ n ele­ o −αkj mental de los renglones del recuadro a la derecha. Una transformaci´ n elemental es de renglones o de columnas. Como el determinante es un funcional lineal de los renglones tenemos det βMM = λ det γMM + det αMM y como la matriz γMM tiene dos renglones iguales entonces. En la colum­ βkN = α αiN + αkN ij ´ na βMj de la nueva matriz la unica entrada que se modific´ es o a βkj = −αkj α−1 αij + αkj = 0. i. no es necesario realizar la transformaci´ n correspondiente al rengl´ n k. j y λ obtenemos βMN se le llama o ´ transformaci´ n elemental de los renglones. la diferencia principal es que en este caso o o usamos transformaciones elementales de las columnas. o Sea αMN una matriz y αij una entrada. det βMM = det αMM . An´ logamente se define la diagonali­ o a zaci´ n del rengl´ n αiN mediante la entrada αij .

Despu´ s de terminar este algoritmo obtenemos varias cosas: Primero. una nueva matriz e ampliada [βMN |dM ]. 3.7 o M´ todo de eliminaci´ n de Gauss e o 121 uno. ı Ahora pasemos a describir como calcular la base. βjN γN = λαiN γN + o αjN γN = λbi + bj = cj por lo que γN es una soluci´ n del segundo sistema. Sea βMN xN = cM otro sistema que se diferencia solo en la ecuaci´ n j para la cual se tiene βjN = λαiN + αjN y o cj = λbi + bj . dos conjuntos I ⊆ M y J ⊆ N. ı o Prueba. u o [131] . Encontramos αij 6= 0 tal que i ∈ I y j ∈ J. las trasformaciones elementales de las columnas cambian los nucleos y el subespacio af´n soluci´ n de un sistema de ecuaciones lineales. Observese que el n´ mero total de transformaciones usadas es a lo m´ s 1 + 2 + · · · + (n − 1) = n (n − 1) /2. αjN γN = βjN γN − λαiN γN = cj − λbi = bj por lo o o que γN es una soluci´ n del primer sistema. Regresamos al paso 1.Secci´ n 4. Tercero. Los conjuntos I y J los pensaremos como “cajas” a las que le agregaremos ´ndices de los renglones y las columnas mediante el siguiente algoritmo: ı / / 1. Segundo. el nucleo o el subespacio af´n ı soluci´ n mediante la eliminaci´ n de Gauss. Si no existe terminamos. u a Ejercicio 80 Demuestre que el n´ mero de operaciones en el campo usadas para calcular el u determinante de una matriz de orden n por el m´ todo de eliminaci´ n de Gauss es: e o sumas productos divisiones ¡ ¢ (n + 1) n (n − 1) /3 (n − 1) n + n2 + 3 /3 n (n − 1) /2 Bases. el rango. nucleos y sistemas de ecuaciones lineales Las bases y el rango de una matriz dependen exclusivamente de los determinantes de sus submatrices y por lo tanto no son afectados por las transformaciones elementales. o Las transformaciones elementales de los renglones de la matriz ampliada no cambian el subespacio af´n soluci´ n de un sistema de ecuaciones lineales. Sin embargo para las transformaciones ı o elementales de los renglones la situaci´ n es diferente. Sin em­ bargo. el rango o el nucleo de una matriz entonces podemos ignorar la columna bM . Pongamos I = J = ∅. Agregamos i a la “caja” I y j al la “caja” J. Si γN es una soluci´ n del primer sistema entonces. rango. Sea αMN xN = bM un sistema de ecuaciones lineales. Diagonalizamos la columna αMj mediante la entrada αij . cada elemento de I y J tienen un n´ mero que indica en que iteraci´ n del algoritmo fueron incluidos en ellos. Sea [αMN |bM ] la matriz ampliada de un sistema o o de ecuaciones lineales. 2. Si γN es una o soluci´ n del segundo sistema entonces. Solo hay que tener cuidado de usar los signos del tablero de ajedrez. Si lo que se pretende es hallar la base. De este proposici´ n se deduce inmediatamente que la diagonalizaci´ n de columnas de la o o matriz ampliada no cambia el subespacio af´n de soluciones.

35) obtenemos el sistema equivalente βIJ xJ +βIL xL = dI con las ecuaciones indexadas por I. cualquier submatriz de βMN que a contenga a βIJ tiene un rengl´ n cero y por lo tanto tiene determinante cero. si dK 6= 0K entonces. . Haciendo esto. entonces necesitamos que βIJ sea tambi´ n base de la e matriz ampliada y esto es equivalente a dK = 0K . β0JL se convierte en alguna matriz γJL y d0J se convier­ te en alg´ na J­ada hJ . denotemos K = M\I y L = N\J. la unica soluci´ n posible (si existe) a la ecuaci´ n o o −1 matricial αMM xMM = IMM ser´a xMM = αMM . ´ Ahora haremos dos cosas m´ s. podemos denotar L = {1. Esto no afecta las soluciones y obtenemos un sistema equivalente β0JJ xJ + β0JL xL = d0J don­ de la nueva matriz β0JJ es diagonal. . el sistema no cambia sus soluciones y o β0JJ se convierte en la matriz identidad. Por 4. si M = N entonces. ı e ´ En particular. as´ que no nos importa cuantas columnas halla despu´ s de la barra vertical. por 4. La submatriz βIJ es una 0KJ 0KL dK base de βMN y el n´ mero |I| es el rango de βMN . As´.122 Cap´tulo 4. Primero. .40. . para cada j ∈ J multiplicaremos por el escalar 1/β0jj a la ecuaci´ n β0jJ xJ +β0jL xL = d0j . αMN xN` = bM` todos con la misma matriz del sistema αMN entonces. el sistema no tiene soluciones y si dK = 0K entonces. Quinto. . Sexto. Determinantes ı esto no es m´ s que una biyecci´ n φ : I → J tal que βij 6= 0 si y solo si φ (i) = j . Soluci´ n de ecuaciones matriciales. o µ ¶ La nueva matriz ampliada [βMN |dM ] la podemos visualizar gr´ fica­ a βIJ βIL dI mente como en el recuadro a la izquierda. para cualquier k ∈ K el rengl´ n βkN o es nulo ya que si n ∈ J entonces. Esta es la forma en que con el m´ todo de ı e eliminaci´ n de Gauss se calculan las matrices inversas. usando el Lema de Eliminaci´ n de Ecuaciones o Dependientes (4. Adem´ s. Esto lo podremos hacer porque en la eliminaci´ n o de Gauss no se reordenar columnas y solo se aplican transformaciones elementales a los renglones. βkn se hizo cero al diagonalizar la columna αMn y si si n ∈ L entonces. . Esta ecuaci´ n matricial tiene la matriz o ampliada [αMN |bML ] y podemos aplicarle a esta matriz la eliminaci´ n de Gauss para resolver o todos nuestros sistemas al mismo tiempo. Si queremos resolver el sistema. αIJ es una u base de la matriz αMN y el rango de αMN es |I| y con esto terminan nuestros problemas si lo que queremos es hallar el rango o una base de una matriz. `} y escribirlos todos en la forma αMN xNL = bML . finalmente obtenemos un nuevo sistema xJ + γJL xL = hJ cuyas u ı soluciones son las N­adas xN cuyas coordenadas en L son arbitrarias y sus coordenadas en J est´ n determinadas por la f´ rmula xJ = hJ − γJL xL . . Segundo. a o Cuarto. O sea.41 las soluciones que hemos hallado son tambi´ n soluciones de nuestro e sistema original de ecuaciones lineales. . o . el que se cumpliera βkn 6= 0 contradecir´a el criterio de parada de nuestro ı algoritmo. matriz inversa o Si tenemos varios sistemas de ecuaciones lineales αMN xN1 = bM1 . reordenaremos las ecuaciones de este ultimo sis­ a tema mediante la biyecci´ n φ : I → J y de esta manera las ecuaciones estar´ n indexadas por o a J. la submatriz βIJ es una base de βMN ya que su determinante es igual Q (salvo signo) a i∈I βiφ(i) y es distinto de cero. a o ´ Como las unicas transformaciones elementales que hemos aplicado son de los renglo­ nes entonces.

. no e o basta con leer esta secci´ n. Es necesario plantearse sistemas de ecuaciones lineales y resol­ o verlos siguiendo los pasos antes expuestos.Secci´ n 4.7 o M´ todo de eliminaci´ n de Gauss e o 123 Ejercicio 81 Si el lector desea aprender el m´ todo de eliminaci´ n de Gauss entonces.

124 .

Con ellas reducimos la prueba a demostrar que n m es un re­ ı ´ al para cualesquiera (diferentes de cero) naturales n y m. Las operaciones m´ ximo com´ n divisor y m´nimo com´ n m´ ltiplo est´ n a u ı u u a definidas para los naturales (y polinomios). Tenemos 4 = 4/ (2/2) 6= (4/2) /2 = 1 y por lo tanto la divisi´ n no es asociativa.1 p´ gina 4) La resta no tiene elemento neutro ya que de a − e = a o a se sigue que e = 0 pero por otro lado 0 − a = −a 6= a. Ejercicio 5 (Secci´ n 1.1 p´ gina 2) La suma y el producto est´ n bien definidas en N. Esto ultimo es equivalente a ver n que la funci´ n f (x) = x − m alcanza el valor cero.Ejercicio 1 (Secci´ n 1. b y c no es una opera­ o a a ci´ n ternaria en R ya que no para cualesquiera a.1 p´ gina 2) Una operaci´ n unaria en el conjunto A es una funci´ n o a o o de A en A. R y C. Otros ejemplos comunes son el hallar el complemento de o un conjunto o el hallar el complejo conjugado de un n´ mero complejo. o a a Q. o La operaci´ n de exponenciaci´ n no tiene elemento neutro ya que e1 = 1 ⇒ e = 1 pero o o . La exponenciaci´ n es m´ s o o a complicada ya que aunque est´ bien ´ ³ en N no est´ ´ a definida a bien definida en Z. f (1) ≤ 0 y o f (m) ≥ 0 esto necesariamente tiene que ocurrir.1 p´ gina 3) Ya vimos en el texto que la exponenciaci´ n no es asocia­ o a o tiva. Ejercicio 2 (Secci´ n 1. Tampoco o es asociativa el logaritmo. De esta manera la operaci´ n o x 7→ −x es una operaci´ n unaria. Z. La divisi´ n en Q. la exponencia­ / / / ci´ n si esta bien definida en √+ (los mayores que cero). que la funci´ n y = ax ı o es estrictamente creciente en la variable x por lo que esta tiene una funci´ n inversa log a y o definida en R+ . Ejercicio 4 (Secci´ n 1. Observemos que 4 = 4 − (2 − 2) 6= (4 − 2) − 2 = 0 por lo que la resta no es asociativa. el m´ ximo com´ n divisor el m´ni­ o a a u ı mo com´ n m´ ltiplo y el m´ ximo son operaciones conmutativas. Q y R ya ¡ −1 1 ¢ ³ 1/2 √ 1/2 que 2 = 2 ∈ Z . La resta en Z. Lo mismo ocurre con la divisi´ n. Como f (x) es continua. Las dem´ s no lo son. Ejercicio 7 (Secci´ n 1. ap/q = q ap . usamos las f´ rmulas o R o (p/q)a = pa /qa . Para ver esto. Por ejemplo para cada entero x hay otro entero −x. 2 = 2 ∈ Q y (−1) = i ∈ R . u Ejercicio 3 (Secci´ n 1. No es dif´cil ver. Por otro lado. El resto de las operaciones si son asociativas.1 p´ gina 2) La f´ rmula (a + b) (x + y) se expresa en notaci´ n sufija o a o o como ab + xy + ×. el producto. Q.1 p´ gina 3) La suma. R y C. R y C. u u a a Ejercicio 6 (Secci´ n 1. b y c existe un tri´ ngulo con lados de esas o a longitudes.1 p´ gina 2) El area del tri´ ngulo con lados a. (l´mi→∞ ai )b = l´mi→∞ ab y finalmente si c = l´m ai ı ı ı i i→∞ √ entonces bc = l´mi→∞ bai .

o sea si f (a) = 0 entonces a = 0.1 p´ gina 5) Es importante se˜ alar que el inverso tiene sentido solo o a n 1 si hay neutro. t} 2ni ≥ 0. .2 p´ gina 9) Siempre podemos medir un segmento de recta con o a cada vez m´ s precisi´ n (al menos te´ ricamente). Luego. esta operaci´ n no tiene inversos. o a Por el ejercicio anterior.2 p´ gina 9) Tenemos 1 < 2 < 2 y por lo tanto 2 no es natural. El neutro de la suma es el cero.2 p´ gina 9) Supongamos que n es un√ o a racional. necesitamos un neutro multiplicativo. pnt para t 1 2 ciertos naturales primos p1 p2 . Decomponiendo su numerador y denominador en factores primos obtenemos que n = pn 1 pn2 . La operaci´ n e ı u u o de m´ ximo com´ n divisor no tiene neutro. para el producto es a . todos los ni son lo t 1 2 naturales lo que significa que n es natural. . . u n = p2n 1 p2n2 .3 p´ gina 12) Por 1. Por otro lado Z2 es un campo con dos elementos . Si f (a) = o a f ¡ ¢ −1 0 y a no fuera el cero de A entonces tendr´amos 1 = f (1) = f aa ı = f (a) f a−1 = ¡ ¢ 0f a−1 = 0 lo que no puede ser. . Ejercicio 23 (Secci´ n 1.. u u o Ejercicio 9 (Secci´ n 1. El inverso de a para la suma es −a. En 2U est´ n bien definidas las operaciones de uni´ n e intersecci´ n de conjuntos. pt y ciertos n´ meros enteros n1 . .1 p´ gina 5) Fij´ monos en un conjunto U y en el conjunto de todos o a e a los subconjuntos de U que denotaremos por 2U . Pero entonces.126 Soluciones de ejercicios selectos 12 = 1 6= 2. .. f (x − y) = 0 y por lo tanto x = y. no es racional.1. . . . Ejercicio 16 (Secci´ n 1.4 sabemos que f (0)¡= 0 y ¢ (1) = 1. Cada medici´ n nos da un n´ mero racional. ya o a ı u que al menos se necesita un neutro para la suma 0 y como el campo sin el cero es un grupo para el producto. el neutro del producto es el uno. . nt . la longitud del segmento es un l´mite de racionales por lo que es un real. n2 . Lo mismo ocurre con el logaritmo.. si f (x) = f (y) entonces. A B C A ∩ (B ∪ C) = = (A ∩ B) ∪ (A ∩ C) C A ∪ (B ∩ C) = = (A ∪ B) ∩ (A ∪ C) A B √ Ejercicio 14 (Secci´ n 1. √ √ Ejercicio 15 (Secci´ n 1. . El 1 tambi´ n es el neutro para el m´nimo com´ n m´ ltiplo. Estas operaciones cumplen las propiedades requeridas o o como se puede observar en los dos siguientes diagramas de Venn.4 p´ gina 16) El m´nimo n´ mero de elementos en un campo es 2. Aunque el m´nimo ı com´ n m´ ltiplo tiene neutro 1. a u Ejercicio 8 (Secci´ n 1. Luego. a o o o u Luego. p2nt y por √ tanto ∀i ∈ {1. ı Ejercicio 20 (Secci´ n 1.

si hxi = Z∗ entonces. 5. a u 2.4 p´ gina 16) Sea p primo. Observemos que el n´ mero de elementos de orden n no puede ser mayor que n ya que u n el polinomio x − 1 no puede tener m´ s de n raices. rt es p − 1 entonces. Luego. . Luego el elemento in­ verso de 1 es 1.Soluciones de ejercicios selectos Ejercicio 24 (Secci´ n 1. Sea b1 = a1 1 1 qm por (2) el orden de b1 es un divisor de r1 = qn1 . n = p − 1 y terminamos. 127 • 0 1 2 3 4 0 0 0 0 0 0 1 0 1 2 3 4 2 0 2 4 1 3 3 0 3 1 4 2 4 0 4 3 2 1 Ejercicio 25 (Secci´ n 1. +) es o un isomorfismo de grupos. De (2) y (4) obtenemos que. Efectivamente: 1.4 p´ gina 16) o a La tabla de multiplicar en Z5 es la derecha. el elemento inverso de 3 es 2 y el elemento inverso de 4 es 4. . Luego. para cualquier x ∈ Z∗ se cumple que xp−1 = 1. En particular. t 1 i 7. Efectivamente si m = kn + r con r < n entonces xm = (xn )k xr = xr ∈ hxi y por lo tanto (xm = 1) ⇔ (r = 0). Veamos que si n es el orden de x entonces xm = 1 si y solo si m es un m´ ltiplo de n. y1 x. . qn t la descomposici´ n en factores primos de p − 1 y denotemos ri = qn i . En algun momento. un conjunto o con una operaci´ n binaria asociativa y con elemento neutro es un o grupo si y solo si su tabla de multiplicar cumple esta propiedad. x. y1 x tiene n elementos y es disjunto con hxi. Si x ∈ Z∗ = Zp \0 entonces al natural o a p n m´ s peque˜ o tal que xn ª 1 lo llamaremos orden de x. . De hecho. En este caso todos los elementos a n = © de hxi = 1. (p−1)/r 1 . Si no. Observese que en la tabla de multiplicar de Z5 \0 en cada columna y en cada rengl´ n nos en­ o contramos con todos los elementos posibles. •) 3 xi 7→ i ∈ (Zn . 3. por (3) y (8) el orden ı u u del producto b1 · · · bt es p − 1 con lo que se comprueba la existencia de un elemento de orden p − 1. Si / hxi∪y1 hxi = Z∗ entonces 2n = p−1 y terminamos. . . Si suponemos que b1 1 = 1 donde 1 m < n1 entonces. Sea qn1 . . . Tenemos br1 = ap−1 = 1 y 8. el orden de xy es el m´nimo com´ n m´ ltiplo de n y m. u 1 1 (p−1)/q 1 lo que contradice la definici´ n de a1 . Para cualquier x ∈ Zp el orden n de x es un divisor de p − 1. Efectivamente. p o 6. o para k = qn 1 −1 tenemos 1 = bk = a1 1 1 9. . . Un caso particular de (2) es que si x y y son elementos de orden n y m respectivamente entonces. . el elemento inverso de 2 es 3. tenemos que terminar ya que Z∗ es finito y obtener que hxi∪y1 hxi∪· · ·∪yt hxi = Z∗ p p y por lo tanto tn = p − 1. entonces existe y1 ∈ hxi y el / p © ª n−1 conjunto y1 hxi = y1 . De (1) obtenemos que el n´ mero de elementos de orden (p − 1) /q1 es cuando m´ s u a (p−1)/q 1 (p − 1) /q1 < p − 1. Esto es una propiedad de las operaci´ nes binarias de los grupos. existe a1 tal que a1 6= 1. por (2) cualquier m´ ltiplo k de qm es tal que bk = 1. . xn−1 son diferentes y la funci´ n f : (hxi . entonces existe y2 ∈ hxi∪ p ∗ y1 hxi y el conjunto hxi ∪ y1 hxi ∪ y2 hxi puede ser o no igual Zp . lo que hay que probar es que en Z∗ existe un elemento de p orden p − 1. Si no. Veamos que el orden de b1 es r1 . ı u u ∗ 4. x2 . Como el m´nimo com´ n m´ ltiplo de r1 .

b y c tres lados de un tri´ ngulo. a ı °¡ ° ¡ ¢ ¢ Ejercicio 34 (Secci´ n 1. Tenemos µ ¶ µ ¶ 2π 2π 2π 2π xk xm = cos (k + m) + i sin ` = x` + i sin (k + m) = cos ` n n n n donde ` = (k + m) mod n.7 p´ gina 24) Idea: todo lo demostrado para polinomios se traduce o a ´ tal cual para los enteros. o a Ejercicio 35 (Secci´ n 1. Lo que quiere decir tx es x + · · · + x . Ejercicio 29 (Secci´ n 1. Supongamos que a ≥ b entonces por la desigual­ dad del tri´ ngulo b + c ≥ a y de aqu´ c ≥ a − b. Si i = k entonces. o a t es un n´ mero natural. Haciendo los cambios de variables t = j − k y n = i − k obtenemos µ ¶µ ¶ X µ ¶ µ ¶ n i n X (n + k) ! j i n+k X j−k t t n = = (−1) (−1) (−1) k j t k!t! (t − n) ! k j=k t=0 t=0 ¡n¢ Pn ´ y esta ultima expresi´ n es cero ya que t=0 (−1)t t es el binomio de Newton de (x − 1)n o evaluado en x = 1. porque t no es un elemento del campo al contrario. para probar la propiedad 3 vemos que (a + bi) (c + di) = (ac − bd) + (ad + bc) i = = (ac − bd) − (ad + bc) i = (a − bi) (c − di) = (a + bi) (c + di) . La unica diferencia es que en lugar de usar el concepto de grado de un polinomio hay que usar el concepto de valor absoluto de un entero.5 p´ gina 18) De que a = −a obtenemos que o a 0 = a + a = 1a + 1a = (1 + 1) a Como todo campo es dominio de integridad obtenemos que a = 0 o 1 + 1 = 0.9 p´ gina 32) La propiedad 1 es inmediata de la definici´ n.8 p´ gina 29) Sean a. 1 + 1 = 0 y por lo tanto ı a = −a para cualquier elemento del campo. estas raices forman un grupo isomorfo a Zn .5 p´ gina 18) No. Ejercicio 33 (Secci´ n 1. . n − 1}. .128 Soluciones de ejercicios selectos Ejercicio 27 (Secci´ n 1. 1 + 1 6= 0 por lo que la afirmaci´ n del ı o ejercicio es cierta. Para la o a o propiedad 2 vemos (a + bi) + (c + di) = (a + c) + (b + d) i = = (a + c) − (b + d) i = (a − bi) + (c − di) = (a + bi) + (c + di) Finalmente.8 p´ gina 28) Las raices del polinomio zn − 1 son xk = cos k 2π + o a n 2π i sin k n para k ∈ {0.7 p´ gina 26) Si i < k entonces la suma es vac´a y por lo tanto es o a ı cero. Por simetr´a o a a ı solo tenemos que probar que |a − b| ≤ c. . Ejercicio 32 (Secci´ n 1. Para el producto. Supongamos i > k. Ejercicio 30 (Secci´ n 1. Si la caracter´stica del campo es 2 entonces. t veces.8 p´ gina 31) Para usar ° 1 − tk p (z0 )° = 1 − tk kp (z0 )k. Si por el contrario b ≥ a entonces por la a ı desigualdad del tri´ ngulo a + c ≥ b y de aqu´ c ≥ b − a. Si la caracter´stica del campo es diferente de 2 entonces. u Ejercicio 28 (Secci´ n 1. . hay un solo sumando en el cual i = j = k y este sumando es uno.

Luego bc = wv y por lo tanto la coordenada → → en x del vector − es igual a la de − m´ s bc. Tenemos que αy 6= 0 (ya que x ∈ hNi).Soluciones de ejercicios selectos 129 Ejercicio 36 (Secci´ n 1.10 p´ gina 36) El campo de fracciones de un campo es el mismo. d) ∼ (e. d) ∼ (a. d) entonces (c. La prueba para la otra au aw a coordenada es igual. En la expresi´ n (αβ) a se utilizan dos operaciones o o diferentes primero la del producto de escalares y despu´ s la de un escalar por un vector. u b a c w v Ejercicio 40 (Secci´ n 2.1 p´ gina 38) T´ cnicamente hablando no ya que en el Cap´tulo 1 o a e ı definimos una operaci´ n binaria como una funci´ n A × A → A y la multiplicaci´ n de un o o o escalar por un vector es una funci´ n del tipo B × A → A. Pero si es una operaci´ n binaria o o en el sentido de que tiene dos argumentos. Si ad = bc y o e cf = de entonces adcf = bcde por lo que af = be. f) entonces (a.4 p´ gina 50) 1.­ El conjunto vac´o es LI y todo el espacio E es o a ı generador. existe una combinaci´ n lineal x = αy y + i∈N αi i. Ejercicio 41 (Secci´ n 2. Luego existe N tal que ∅ ⊆ N ⊆ E que es base. b) ∼ (c. despejando y obtenemos que y ∈ hN ∪ xi. b) ∼ (a.4 p´ gina 48) Solo en la prueba de que 2⇒4 al despejar a. o / Luego.1 p´ gina 38) En la expresi´ n α (βa) se utiliza un solo tipo de o a o operaci´ n (la de un escalar por un vector).10 p´ gina 34) Tenemos ab = ba por lo que (a. b) lo que o a significa que la relaci´ n es reexiva.­ Si M es LI entonces existe una base N tal que M ⊆ N ⊆ E. b) ∼ (c. ı u Ejercicio 38 (Secci´ n 1. b) por lo que la relaci´ n es sim´ trica. Esto significa que o si (a. Ejercicio 47 (Secci´ n 2. 2. o Ejercicio 37 (Secci´ n 1. o a Ejercicio 48 (Secci´ n 2. Y efectivamente un conjunto formado por un solo elemento es un espacio vectorial sobre cualquier campo definiendo α0 = 0 para cualquier α en el campo. e Ejercicio 43 (Secci´ n 2. Entonces.­ Si L es generador entonces existe una base N tal que .2 p´ gina 39) El m´nimo n´ mero de elementos en un espacio vecto­ o a ı u rial es 1 ya que al menos necesita tener el neutro para la suma de vectores.1 p´ gina 38) o a El tri´ ngulo abc es semejante al tri´ ngulo uvw de hecho son con­ a a gruentes porque ac = uw (lados opuestos de un paralelogramo tie­ nen la misma longitud). Esto significa que si (a.2 p´ gina 39) Si α 6= 0 entonces tiene inverso y por lo tanto o a αa = 0 ⇒ a = α−1 αa = α−1 0 = 0 Ejercicio 44 (Secci´ n 2.3 p´ gina 47) P o a Supongamos que x ∈ hN ∪ yi \ hNi. Ejercicio 46 (Secci´ n 2. De ad = bc obtenemos cb = da. Este campo tiene evidentemente un n´ mero infinito de elementos. b) ∼ (e. o a Ejercicio 39 (Secci´ n 2. f) por lo que la relaci´ n es transitiva. d) y (c.10 p´ gina 36) El campo de fracciones Z2 (x) contiene a Z2 y por lo o a tanto es de caracter´stica 2. 3.

P Ejercicio 50 (Secci´ n 2. c) 7→ (a.130 ∅ ⊆ N ⊆ L.14) existe una base B de F que contiene a A. 4. Por esto podemos considerar que E ⊕ {0} = E. Luego E ∩ F = {0} y por lo tanto S = E ⊕ F. b. 0) 1 = (1.­ Es f´ cil probar que la aplicaci´ n E⊕F 3 (a. 0) 7→ a ∈ E o es un isomorfismo can´ nico.4 p´ gina 79) T´ mese x = (1.­ El isomorfismo can´ ni­ o o co es ((a. a) ∈ F ⊕ E es un isomorfismo can´ nico. 3. Soluciones de ejercicios selectos Ejercicio 49 (Secci´ n 2. Ejercicio 66 (Secci´ n 3. o Ejercicio 51 (Secci´ n 2.­ Conmutatividad. el espacio de las NM­matrices tiene dimensi´ n |N × M| = |N| |M|. y = (0. b) .4 p´ gina 52) Sea A una base de E. o a Ejercicio 53 (Secci´ n 2.4 p´ gina 52) El conjunto de todos los polinomios ai xi tales que o a a0 = 0 es un subespacio de K [x] de la misma dimensi´ n que K [x]. Luego. (b. 0) por lo que (xy) z 6= x (yz) . j con i ∈ N y j ∈ M hay una matriz eij o en la base can´ nica la cual tiene su entrada ij igual a 1 y todas las dem´ s igual a cero.4 p´ gina 53) La diferencia entre el espacio de las (N × M)­adas o a y las NM­matrices es solo en las notaciones. Supongamos que a 6= 0 ∈ E ∩ F entonces 0 = 0 + 0 = a − a lo que contradice que la descomposici´ n o ´ de 0 es unica.5 p´ gina 54) Sean E → F → G transformaciones lineales. o Ejercicio 57 (Secci´ n 2.4 p´ gina 82) Para cualesquiera n ∈ N y k ∈ K tenemos o a (αnM βML ) γLk = X αnm X l∈L f g X l∈L (αnM · βMl ) γlk = X XX αnm βml γlk = l∈L m∈M βml γlk = m∈M m∈M αnm (βmL · γLk ) = αnM (βML γLk ) .6 p´ gina 61) 1. 0) y x (yz) = (1. De aqu´ tenemos dim E = |A| ≤ |B| = dim F. b) 7→ o a a o (b. la aplicaci´ n E ⊕ {0} 3 (a. 1) = (0. c)) 7→ (a. Para cada pareja i. Como F es generador y A ⊆ F es o a LI entonces por el Teorema de Existencia de Bases (2. 0) .20) alrededor del punto x0 . 2.6 p´ gina 61) Denotemos por S a todo el espacio. c). µ ¶ cos α − sin α Ejercicio 69 (Secci´ n 3.4 p´ gina 81) o a sin α cos α Ejercicio 70 (Secci´ n 3.­ Si. 1) . Esta prueba es v´ lida independientemente ı a de si los cardinales de A y B son finitos o no. Como cada vector o a se expresa como a + b con a ∈ E y b ∈ F tenemos S = E + F. Ejercicio 52 (Secci´ n 2. Tenemos o a o (xy) z = 0 (1. 1) y z = (1.4 p´ gina 53) Es consecuencia directa del Desarrollo de Taylor o a (1. ı Ejercicio 56 (Secci´ n 2. Tenemos o a que f (g (x + y)) = f (g (x) + g (y)) = f (g (x)) + f (g (y)) y f (g (λx)) = f (λg (x)) = λf (g (x)) y esto era todo lo que se quer´a probar.

Para la matriz B los bloques son M1 = {3} . i productos e i sumas.3 p´ gina 101) Denotemos γMM = αω(L)M y ηMM = βMθ(N) . . o a M2 = {2} y M3 = {3}. o u i=2 P el n´ mero de sumas es n i (i −¡1) = (n − 1) n (n + 1) /3 y el n´ mero de productos es u u i=2 ¢ Pn 2 n − 1 + i=2 i (i − 1) = (n − 1) n + n + 3 /3. el n´ mero de divisiones es n (i − 1) = n (n − 1) /2. . . En cada diagonalizaci´ n de una columna en una matriz de orden i se utilizan i − 1 transformaciones o elementales. Ejercicio 78 (Secci´ n 4.7 p´ gina 121) Tenemos que diagonalizar una columna en una ma­ o a triz de orden i para i ∈ {n.4 p´ gina 83) Las matrices de f. Ejercicio 79 (Secci´ n 4. Luego. a hemos dividido con lineas los tres bloques de la matriz.4 p´ gina 109) Las tres. 2} y al final multiplicar n elementos del campo. M2 = {3} y M3 = {1} ya que α23 = α21 = α31 = 0. Las entradas con 0 son las que obligatoriamente tienen que ser cero. Aqu´ hemos denotado ı por ∗ las entradas que pueden ser diferentes de cero. Los determinantes de las tres matrices son iguales a abc. El de­ terminante de una matriz de este tipo es igual al producto de los determinantes de sus tres celdas diagonales. o a Sabemos que det (γMM ηMM ) = det (γMM ) det (ηMM ) y esto es todo lo que se necesitaba probar.4 p´ gina 109) o a El aspecto es el del recuadro a la derecha. Adem´ s. M2 = {2} y M3 = {3}. g y f ◦ g tienen que cumplir: o a ¶ ¶µ ¶ µ µ cos β − sin β cos α − sin α cos (α + β) − sin (α + β) = = sin β cos β sin α cos α sin (α + β) cos (α + β) µ ¶ cos α cos β − sin α sin β − cos α sin β − sin α cos β = cos α sin β + sin α cos β cos α cos β − sin α sin β y por lo tanto cos (α + β) = cos α cos β − sin α sin β sin (α + β) = cos α sin β + sin α cos β 131 Ejercicio 74 (Secci´ n 4. Para la matriz C los bloques son M1 = {2} . Para la matriz A los bloques son M1 = {1} .Soluciones de ejercicios selectos Ejercicio 71 (Secci´ n 3. En cada transformaci´ n elemental de una matriz P orden i se utiliza una divi­ o de si´ n. . ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ 0 0 ∗ ∗ ∗ 0 0 0 ∗ ∗ 0 0 0 ∗ ∗ Ejercicio 80 (Secci´ n 4. .

132 .

54. . . . . . . . . . . 100 ı Campo. 82 o Asociatividad del producto por escalares. . . . 121 Binomio de Newton. . . 22. . . Campo en el cual todo polinomio de gra­ do al menos uno tiene una ra´z. . . Conjunto de renglones diferentes que son una base del espacio de renglones . . . Espacio vectorial con un producto de vectores asociativo. F´ rmula para expandir (x + y)n . . Anillo en el cual el producto es conmutativo . . . Subconjunto de un conjunto ordenado que est´ totalmente ordenado. 83. . . 14. Para estas operaciones el conjunto de fracciones es un campo . . . . . . . . *. 66. 111 Base de los renglones. . . . 27 Asociatividad. . . . 35 Campo ordenado. . . . . . . . . . . . . . Es la operaci´ n en que o una biyecci´ n ω : N → L se le aplica a las o columnas de una matriz αMN para obtener la matriz βML = αMω(N) que cumple que βij = αiω − 1 (j) . 34 Argumento de un complejo. . Anillo conmutativo en el cual todo elemento diferente de cero tiene inverso . Conjunto generador minimal. . . 111 Base de una matriz. . . . . 74. . 58. . . . . . . 74 Anillo. 76. . . . 16 Campo algebraicamente cerrado. . . 66 a Cambio de ´ndices. . . . 3. . . 15. . . . . . . 96 ´ ´ Algebra conmutativa. . . . . . .´ Algebra. . → − ´ El angulo que forma el vector 0z con el eje real del plano complejo . . . distributivo. . . . . 52. . . . . Conjunto con dos operaciones binarias denotadas por + y • que es grupo abeliano para la suma. . Axioma de espacio vectorial: (βa) = (αβ) a . . . Entre las fracciones de un dominio de integridad se define la suma y el producto exactamen­ te de la misma manera que se definen estas operaciones en Q. Conjunto de vectores que es generador y LI. . . . . . . . Campo con una relaci´ n o de orden en el cual todo elemento es com­ parable con el cero. . . 74 Anillo conmutativo. . . . . con ele­ mento neutro y que conmuta con el producto por escalares. . . . que el producto es asociativo con elemento neutro y distributivo respecto a la suma . . . Submatriz no singular maximal por conten­ ci´ n. . 50. . . . . 20. . . . . . . . 12. 10. . . . . . . . . . . . . . Todas las bases de una matriz tienen el o mismo orden . . ı Biyecci´ n mediante la cual los ´ndices de o ı una N­ada (o columnas. . Los elementos mayores . . . 73. . El conjunto de N­adas {ei | i ∈ N} donde la j­´ sima coordenada de ei es el delta de Kro­ e necker δij . . . Conjunto de columnas diferentes que son una base del espacio de columnas . . . . . 13 Base. . . 39 Automorfismo. . 82. 22. . 56 Campo de fracciones. 120. . . 8. . b y c del conjunto en el cual est´ definida la opera­ a ci´ n . . . 26 o Cadena. . . . . 7. . . . 21. . Campo el ı cual los polinomios irreducibles son todos de grado uno . . . 13. . . . 85 Base de las columnas. . . . . 111 o Base can´ nica. Propiedad de algunas operaciones binarias que consiste en que a ◦ (b ◦ c) = (a ◦ b) ◦ c para cualesquiera elementos a. . . . . . . . . . Conjunto LI maximal . . . . . . . . .112. An´ logamente se definen a los cambios de ´ndices de los renglones . . . . 7. . Endomorfismo biyectivo . . . 19. . . . Algebra en la cual el producto de vectores es conmutativo . 27. 118. 33. 81. . . o renglones) obtie­ nen nuevos nombres. . . . . . . . . . . . . . . . . . . .

. . . . . 94. . Acr´ nimo de conjunto o linealmente independiente . . . . 45. Al efectuar la divisi´ n con resto de o un elemento p de un anillo conmutativo (Z. . . . 92 Clases de equivalencia. . . 97. 79 Combinaci´ n lineal. . *. De la entrada αij es el escalar sgn ω det αN\i ω(N\j) donde ω es cualquier permutaci´ n de N tal o que ω (j) = i . . . . . 103. o Sea f : A → B una funci´ n. . . . . 67 a Cociente. Al conjunto B se le o llama codominio de la funci´ n f . . . . las o clases de equivalencia son los subconjuntos de A para los cuales a ≈ b si y solo si a y b est´ n en la misma clase . . . . . . . Adem´ s. . Ciclos tales que los conjuntos de elementos que ellos no dejan fijos no se intersectan . . . . . . . . . . . . Los campos R y Q est´ n ordenados. 18. . . 4. . . . 47. . . . El opuesto de un negativo es positivo. . . . . . . . . 66 a o Conjunto totalmente ordenado. . . oP Los vectores de u la forma i∈N αi i (donde solo un n´ mero finito de los ai es diferente de cero) . ı Es cero si el campo contiene como sub­ campo a Q. * Conmutatividad. . . . . . 63. Conjunto que tiene una cota inferior. . . . . los elementos de N var´an) se le llama j­´ sima ı e columna de la matriz αNM . . . . Dada una matriz a αNM y j ∈ M a la N­ada αNj (j est´ fijo. . . . . . xn−1 } ⊆ N seg´ n la regla a σ (xi ) = xi+1 mod n y deja todos los dem´ s elementos de N fijos . 101. . 48 Conjunto LI. . . . . . . . Conjunto de vectores A tal que ∀a ∈ A se cumple que hA\ai 6= hAi. . . 2. 31 Conjunto acotado superiormente. . . . . . . . . . Si ≈ es una relaci´ n de equivalencia en A entonces. 55. . *. . 36. La suma de positivos es positiva. . . . . . Campo cuyo unico subcampo ´ es el mismo . Conjunto ordenado no vac´o dentro del cual ı cada cadena tiene cota superior . . . . . (v´ ase polinomio) . . * Conjunto generador. . . . . . . .134 cam – con potencia m´ s grande de la variable . . . . . 17 Caracter´stica de un campo. . 66 Conjunto LD. . . . . . Cual­ a quier campo ordenado tiene que ser de ca­ racter´stica cero. El coeficiente diferente de cero de un polinomio que multiplica a la . . . . . . . . 21 e Cofactor. . . . . 73. . . 9. *. . 48 Conjunto linealmente dependiente. . . . . . . 22 Codominio de una funci´ n. . 109 Cerradura lineal. . . . Conjunto de vectores cuya cerradura lineal es todo el espacio . . . . 92. . . . . . . . 21 a Coeficientes de un polinomio. Cofactor . . . . 91 Conjunto acotado inferiormente. . . . 81. . . . . . 43. . Los axiomas que debe cumplir la relaci´ n de orden son: o 1. . . 86 o Coeficiente principal. . . . Acr´ nimo de conjunto o linealmente dependiente . . . . . . . . . . . . . . . 102 Columna de una matriz. . *. . . . . . . . . . . . . . . . . . . . 3. . . . Conjunto que tiene una cota superior . Conjunto de vectores que no es LI . . . . . 98. . . . . 102 Composici´ n de funciones. . Es igual al n´ mero primo p u si el campo contiene como subcampo a Zp . . 101 Campo primo. . . . . . 48 Conjunto linealmente independiente. . . . . . . . . . . . . 48. . . . . . . . . . Permutaci´ n o σ del grupo sim´ trico de N que cambia un e u conjunto {x0 . . . . 46. . . . . . . . Propiedad de algunas que cero se les llama positivos y los menores que cero negativos. . . . . . . . 11. . . . 110 Ciclos disjuntos. . . El producto de positivos es positivo. 111 Conjunto ordenado. . . . . Al elemento c se le llama co­ ciente de la division de p entre q . Conjunto ordenado en el cual dos elementos cualesquiera son comparables . . . . . . C no se puede or­ ı a denar. . . . Conjunto en el cual est´ definida una relaci´ n de orden . . 54. . . . . o Operaci´ n entre dos funciones que consiste o en aplicar primero una funci´ n y despu´ s la o e otra . . . . . . . . . . . El opuesto de un positivo es negativo. . . 58 Complemento algebraico. K [x]) entre otro q obtenemos la igualdad p = cq + r. . . . . 54 Conjunto inductivamente ordenado. . . . . . 58 Ciclo. . . . . . . . El conjun­ to de todas las combinaciones lineales de un conjunto de vectores . . . 13.

. . . . . . . . . . . . . . . . . . . . . 26. . . . . 120 Diagrama. . . . 107 Diagonalizaci´ n de un rengl´ n. . . . a2 . 86 o Ecuaci´ n lineal. . . . . . . o Transformaci´ n de una matriz que consis­ o te en lograr que en una columna todos las entradas excepto una se hagan cero median­ 135 te una serie de transformaciones elementales de los renglones . . . . . . . Expresi´ n de una P on como serie de po­ o funci´ tencias f (x) = ai (x − x0 )i . *. . . . . . . . . . . . . 18. El coefi­ e ciente de la serie ai es la i­´ sima derivada de f evaluada en el punto x0 . . 73. . . . 31 Cota superior. . . . . . . .. . . Axioma de espacio vectorial: α (a + b) = αa + αb y (α + β) a =αa+βa . . . . . Una cota inferior de un subconjunto A de un conjunto ordenado B es un elemento b de B tal que cualquier elemento de A es mayor o igual que B . . . . . . . . . . . . . . QEl determinante de αNN es P σ∈ SN sgn σ i∈N αiσ i . . . . . . es el isomorfismo P F 3 i∈N αi i 7→ αN ∈ K{N} . . b y c del conjunto en el cual est´ definida la a operaci´ n . . . . . . . . . . o Homotecia cuyo escalar es un real mayor que 0 y menor que 1 . . . . . . . . 15. . . . . . . .. . . . . . . . . . . . . . an ) es alguno de los ai . 83 Cota inferior. . . . . . 66 Delta de Kronecker. . . 55. . . . . 114 o . . . 120 Diagonalizaci´ n de una columna. o El cardinal de cualquier base 51. . 85 Dilataci´ n. . . . . . . . . . . 64 o o Distributividad. . . . . Reperesentaci´ n o gr´ fica de una familia de conjuntos y de fun­ a ciones entre ellos mediante la utilizaci´ n de o echas . Funci´ n δij de dos variables que toma valor o 1 si i = j y toma valor 0 si i 6= j . . . . . . . . . . 87 Dimensi´ n de un subespacio af´n. . o Ecuaci´ n αN xN = βN o donde las N­adas αN y βN son conocidos y el vector xN es inc´ gnito . 3 a o Contracci´ n. . . . . . . . . . . . . . . . . . . . . Anillo conmutativo en el cual el producto de elementos diferentes de cero es diferente de cero . . . o o Transformaci´ n de una matriz que consiste o en lograr que en un rengl´ n todos las entra­ o das excepto una se hagan cero mediante una serie de transformaciones elementales de las columnas . . No depende de la base escogida . . . . . . . . . . . . . . 31 Determinante. . . 96 Desarrollo de Taylor. . . .con – ecu operaciones binarias que consiste en que a◦b=b◦a ∀ elementos a y b del conjunto en el cual est´ definida la operaci´ n . . . . . . . . . . . . . Una cota superior de un sub­ conjunto A de un conjunto ordenado B es un elemento b de B tal que cualquier elemento de A es menor o igual que B . . 11. . . . . . . . . 82 o Distributividad del producto por escalares. . . . . . . De la n­ada (a1 . .. 59. . . . . 39 Divisor. . . 20. . . o ı Si E es una traslaci´ n del subespacio E entonces la o dimensi´ n de E es la dimensi´ n de E . . . . . . . . . o Dada una base N de F. . . Diagrama en el cual cualesquiera dos caminos dirigidos (que si­ guen el orden de las echas) de un conjunto a otro representan dos descomposiciones de la misma funci´ n como composici´ n de las o o funciones de las echas de los caminos . . 5. . . . De la N­ada aN es alguno de los ai para i ∈ N . 22 Dominio de integridad. . 85 Diagrama conmutativo. . 26. . . . . . . . . . . . . . . . Al conjunto A se le llama dominio o de la funci´ n f . . . 82. . . . . . . . .95. . . . . . . . 70 Coordenada. . . . . 70 Dimensi´ n. . . . . . . . . . . . . . . Relaci´ n de una operaci´ n o o binaria ¦ con respecto a otra ◦ que consiste en que las igualdades a ¦ (b ◦ c) = (a ¦ b) ¦ (a ¦ c) (b ◦ c) ¦ a = (b ¦ a) ◦ (c ¦ a) se cumplen para cualesquiera elementos a. . . . . . . . . . 19. Sea f : A → B una o funci´ n. . . 64. Determinante de su matriz en una base. Homotecia cuyo escalar es un real o mayor que 1 . . . . . . . . 39 Coordinatizaci´ n. . . . . . . *. . Para dos elementos p y q de un anillo con divisi´ n se dice que q es o un divisor de p si el resto de la divisi´ n de p o entre q es cero. . . . . 35 Dominio de una funci´ n. . . . . . 120 Determinante de un OL. . . . . . . . . . . . . .

. . . 87 ´ Funci´ n nula. o La inversa de una funci´ n f : A → B es una o funci´ n g tal que f ◦ g = IdB y g ◦ f = IdA . . Dos fracciones a/b y c/d se consideran iguales si ad = bc . . . . . . . . . 70 Funci´ n racional. *. . entonces la ´ extensi´ n lineal existe y es unica . . Elemento tal que cualquier otro no es menor que el. . . . . . . . . 54 Funci´ n inyectiva. . . 66. . 23 Funci´ n identidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dos elementos a y b de un conjunto ordenado para los cuales o a ¹ b o b ¹ a o los dos . . . . . 20 Fracci´ n. . . . . . . Grupo abeliano con un producto por escalares distributivo. . . 27 F´ rmula multinomial. 65. . Morfismo sobreyectivo . . . . . . . . . . . El espacio generado por las columnas de una matriz . . . 111 Espacio vectorial. . . . . . o Ecuaci´ n AX = B o donde la matrices A y B son conocidas y la matriz X es inc´ gnita. . . . 38 Si Espacio cociente. . *. 25 o Forma polar de un complejo. Elemento tal que cualquier otro no es mayor que el . . . 65. . . 28 Funci´ n de evaluaci´ n. . . o La fun­ ci´ n f es continua en z0 si ∀ε > 0 ∃δ tal que o kz − z0 k < δ ⇒ kf (z) − f (z0 )k < ε . . . . . . . 8 Funci´ n. . . . . . . . . . o La que a todo elemento le corresponde el cero . . . . . . . . . 43 Epimorfismo. . Morfismo cuyo dominio y codominio coinciden . 37. . . . Funci´ n continua en todos o o los puntos de su dominio. . . . . . *. . . . . . . . . . 50 Endomorfismo. . . . . . . 76 o Entrada de una matriz. . . . . . . . E es un subespacio de F entonces. . . . . Formalmente. asociativo y con neutro. . . 62. . . . 112 Elemento minimal. . . Extensi´ n o o o que es transformaci´ n lineal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91. . . . Coordenada de una NM­ada . . . . . . . . . . o F´ rmu­ o la para expandir la n­sima potencia de una suma . . . . . . . . . . 49 Elementos comparables. . . . . . . . . . . 70 o o Funci´ n biyectiva. . o Informalmente es una regla o procedimiento mediante el cual para cada elemento de un conjunto a podemos obtener ´ (calcular) otro unico elemento f (a) de otro conjunto y que llamamos la imagen de a mediante la funci´ n f. . . . *. 36 o Ecuaci´ n matricial. . o Una funci´ n tiene inversa si y solo si esta es o biyectiva . La funci´ n x 7→ −x . . . 100 Funci´ n continua. . . 49. . . . . . . . . . . . . . . . el espa­ cio cociente F/E es el conjunto de todos los subespacios afines paralelos a E dotado con la suma de subespacios afines y el producto de subespacios afines por escalares . . . . . . . . . . * Funci´ n antipodal. . . . . . . 39. o Cada elemento de la imagen tiene una unica preimagen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Elemento del cam­ po (¡la escala!) sobre el cual est´ definido el a espacio vectorial . . . . *. . . o o De un polinomio p (x) es la funci´ n: o p : K 3 b 7→ p (b) ∈ K. y o sobreyectiva . . . . . . . 28 Funci´ n continua en un punto. . . . . . 88 Espacio de columnas. . . . Si la funci´ n o o tiene como dominio una base. . o La que a todo elemento le corresponde el mismo . . . . . . Pareja de elementos de un dominio o de integridad (por ejemplo K (x) o Z) que se denota por a/b. . . . . Divisor de grado al menos 1 de un polinomio . . . . . 111 Espacio de renglones. . . . . . . . . . . . . . . . . . . . . . . El espacio generado por los renglones de una matriz . . 34. . . . . . . . . . . . . *. . b) ∈ f. . . . o Funci´ n inyectiva. . . una o funci´ n f : A → B es un subconjunto del o producto cartesiano f ⊆ A × B que cumple ´ que para cualquier a ∈ A existe una unica pareja (a. 73 Extensi´ n de una funci´ n. . 75 o Factor de un polinomio. . . . . . . . 56. . . . . 13 Escalar. . 13 Entensi´ n lineal de una funci´ n. . . . . . . . . . . . . . . . . . . o Fracci´ n de dos polinomios . . . .136 ecu – fun Es la expresi´ n r (cos ϕ + i sin ϕ) donde r o es el m´ dulo de z y ϕ es el argumento de o z . . 22 Factor propio. . . . 70 Funci´ n inversa. 122 o Elemento maximal. o o Si f es una restricci´ n de g entonces g es o una extensi´ n de f . Factor m´ nico diferente al polinomio . . .

60. . *. Grupo en el cual la operaci´ n es conmutativa . 45 ı o Matriz. . El n´ mero m´ ximo x tal que x ≤ a para u a cualquier a ∈ A. . . . . Si un elemento tiene inverso en­ o ´ tonces este es unico. . . 75 Grupo sim´ trico. . . . . . . . 16. . . . . . . 2. . 7 o Grupo alternante. . . . . . . . . . . . . . . . . . . * e o Imagen de una funci´ n. . Si el grado es cero el polinomio es un elemento del campo. . . . . . . . . . . Conjunto con una ope­ raci´ n binaria asociativa que tiene elemento o neutro y en el cual todo elemento tiene in­ verso . . . . . 94 Grupo general lineal. ∀p. . 28 Imagen de un elemento. 60 e Isomorfismo can´ nico. 104 Funcional multilineal. . . . . . . . ∀p ∈ I ∀r ∈ A rp ∈ I . . . . 54 L´mite de una sucesi´ n. . . . . . . 24 u 137 Idempotencia. En los anillos y campos es el inverso para el producto . . . . . . . La inversa de cualquier isomorfismo es tambi´ n un isomorfismo . . . Isomorfismo de espacios vectoriales . . . . . . . 32 ı Inmersi´ n. . . . . o Restricci´ n de la funci´ n o o identidad a un subconjunto . 7. . . (v´ ase: Funci´ n). . . . . . . 75. . . . El subgrupo (del grupo sim´ trico) de todas e las permutaciones pares . . . 13. . . El grupo de auto­ morfismos de un espacio vectorial. . Funci´ n de un espacio vectorial o en su campo . . . . . . . . 91 o o Homotecia. o El conjunto de los elementos del codominio que tienen alguna preimagen. . . . . De un elemento a para la operaci´ n o binaria ◦ es un elemento b que cumple que a ◦ b = b ◦ a = e para cualquier elemen­ to a del conjunto en el cual est´ definida la a operaci´ n. . Funci´ n de muchas variables con imagenes o en un campo que para cualesquiera valores fijos de las dem´ s variables determina un a funcional lineal de la variable que se tra­ ta. . . . . . . . . 104 Funcional bilineal. . . . . . . . . . . . . . . . . 91 Grupo abeliano. . . . 88 Funcional. . . . . . . ı o ı La sucesi´ n {zk } tiene l´mite z si ∀ε > 0 ∃N o tal que ∀k > N kzk − zk < ε. . La potencia ma­ yor de la variable con coeficiente diferente de cero. q ∈ I p + q ∈ I. . . . . . . Es una NM­ada o sea un conjunto . . . . . . . . No est´ definido el a grado del polinomio cero . . . . . . . . . . . . . 11. . 12. 66. . . . . . 70 Ideal. 77 o Isomorfismo lineal. . 86 Inverso. . . . . . . 21 Grupo. . . . . . un complementario. . . . . . . . . Propiedad de una funci´ n que o consiste en que f ◦ f = f2 = f . . 86 Imagen de una matriz. . . . 104 Funcional lineal en una variable. . . 54. . Transformaci´ n o lineal que consiste en la multiplicaci´ n por o un escalar . 23 Ideal principal. . . . . . . . . . . . 5 Isomorfismo. *. . . Ideal formado por todos los m´ ltiplos de un polinomio . . . . . . . . e El grupo de todas las permutaciones con la operaci´ n de composici´ n . . . . . . . . 31 a ´ Infimo de un conjunto de reales. . . ı Subespacio af´n de dimensi´ n uno. 30 L´nea. . . . 104 Grado de un polinomio. . El grupo de operadores lineales no singulares . . . . . . . . o Funci´ n tal que su o imagen coincide con su codominio . . . . . .) . . . . .fun – mat Funci´ n sobreyectiva. etc. . . . . . . . . . . . . . . . . Para el ´nfimo x de A ı siempre existe una sucesi´ n {ak } de elemen­ o tos de A cuyo l´mite es x. Transformaci´ n lineal biyectiva . Morfismo biyec­ tivo. 46 Igualdad de Moivre. *. . . . . . . . . . . . . . Funcional lineal en sus dos variables . . . . . . . . . 65 Isomorfismo de espacios vectoriales. . . F´ rmula para calcular o la n­esima potencia de un n´ mero complejo u en forma polar . . . . . . . . La imagen de su transformaci´ n lineal. . . . . 118 ´ Infimo. . 64. Se denota por Im f . . . Funcional lineal en todas sus variables . . . . . . . . . . El m´ ximo de las cotas superiores . . . o Su espacio de columnas . . . . . . . . . . Subconjunto I de un anillo A tal que 1. . . . 71. . . . . Funcional que es una TL . . . . . . . . . . 104 Funcional lineal. . . . . . . . . o Isomorfismo cu­ ya construcci´ n no depende de escoger algo o (una base. . .

. . . . Si ambos N y M son finitos entonces. . . . . . . . . . . . . . 84 Matriz de permutaci´ n. Matriz αMM en la cual M = {1. . . . . . . . . . 13 Monoton´a. . * a M´nimo.82. . . 99 Matriz de una transformaci´ n lineal. . . . Escogidas dos bases V y N de un espacio vectorial la matriz αNV cuyas columnas son los coeficientes de las expresiones de la ba­ se V como combinaci´ n lineal de la base N. . . . . 118. . . 10. o O sea. . Si ´ existe entonces. 109 Matriz triangular por bloques. . . . . 115 Matriz diagonal. . . . . . . . 53 o Morfismo de anillos. . . . . . . . . . . . . 111. . . . ı Propiedad de una funci´ n de un conjunto ordenado a otro que o consiste en que x ≤ y ⇒ f (x) ≤ f (y) . . . . . . Si βV son las coordenadas de un vector en la base V entonces αNV βV son las coordenadas del mismo vector en la base N . αij = 0 . . 96 o Matriz inversa. . . basta comprobar una de las dos igualdades. . . . 109 Matriz diagonal por bloques. . . . . el m´nimo es unico . . . . . . . . . 122 Matriz singular. . . . . . . . . . . . Matriz triangular por bloques en la cual cada bloque es de cardinalidad 1 . . . . . Matriz αMM en la cual M = {1. . . . . . . . . . Matriz αMM en la cual hay una partici´ n del conjunto de o ´ndices M1 ∪ · · · ∪ Mt = M y que αij = 0 ı si i ∈ Mp . . indexado por dos conjuntos . . . . . . 117 Matriz cuadrada. a El m´ ximo de a un subconjunto A de un conjunto ordenado B es una cota superior que pertenece a A. . el m´ ximo es unico . 27 Monomorfismo. 78. . . . . . 106. . . . o Escogidas una base N en el dominio y otra M en el codominio de una TL f la matriz αMN cuyas columnas son los coeficientes de las expresiones de las imagenes de la ba­ se N como combinaci´ n lineal de la base M. Si ´ existe entonces. . . . . . . . 46 Morfismo. . . . . . . o O sea. 109 Matriz triangular inferior. . . . . .138 mat – mor y αMN βNM = IMM . . Una matriz cuadrada tiene inversa si y solo si su determinante es dife­ rente de cero. . . para cualquier j ∈ N se cumple que P f (j) = i∈M αij i . Matriz cuadrada con determinante igual a cero . . . Funci´ n entre dos anillos que es morfismo o para la suma y para el producto . . . . Matriz con la misma cantidad de columnas y renglones . ı El m´nimo de ı un subconjunto A de un conjunto ordenado B es una cota inferior que pertenece a A. . . . o La longitud del → − vector 0z en el plano complejo . . 101. . . . . . . . . . Matriz αMM en la cual hay una partici´ n del conjunto de o ´ndices M1 ∪ · · · ∪ Mt = M y que αij = 0 ı si i y j pertenecen a bloques diferentes . . . . . . . . . 115 Matriz triangular. . 83 Matriz de cambio de base. . . . . . . La matriz INN cuyas entradas son el delta de Kronecker: unos en la diagonal y ceros en el resto de las entradas. . . . . . 84 Matriz del sistema. . . . j ∈ Mq y p < q . 43 Matriz ampliada. *. . . . m} y tal que en su representaci´ n gr´ fica todas las entradas por o a debajo de la diagonal son cero . 81. 82. . . 109 Matriz triangular superior. La matriz de la transformaci´ n lineal identidad . . . m} y tal que en su representaci´ n gr´ fica todas las entradas por o a encima de la diagonal son cero . . . . . . . Morfismo inyectivo . La matriz A del sistema de ecuaciones lineales Ax = b . . 101. . La matriz cuadrada αMN es la inversa de βNM si βNM αMN = INN . . 109 M´ ximo. . . . . . . . Matriz αMM en la cual si i 6= j entonces. . . . . 12 Morfismo de campos. . . . o La matriz que se obtiene al permutar las columnas o los renglones de la matriz identidad. 111. . . Matriz que tiene exactamente un 1 en cada rengl´ n o y columna y todas las dem´ s entradas son a cero . para cualquier v ∈ V se cumple que P v = i∈N αiv i. Es una funci´ n f : A → B que o cumple que f (x ◦ y) = f (x) • f (y) donde ◦ es una operaci´ n definida en A y • es una o operaci´ n definida en B . . . . . . . 31 ı M´ dulo de un complejo. . Del sistema Ax = b es la matriz [A|b] . 109 Matriz identidad. .

. . . . . . . 12 Morfismo de espacios vectoriales. Biyecci´ n de un conjunto finito o o en si mismo . . . El n´ mero de renglones y columnas de una u matriz cuadrada . . o Permutaci´ n o que se descompone en la composici´ n de un o n´ mero impar de transposiciones . . . o Permutaci´ n o que se descompone en la composici´ n de un o n´ mero par de transposiciones . αN : N 3 i → αi ∈ A. . . . . . . . . . .. 121 Nucleo de una TL. . 97 Permutaci´ n impar. . . . . . 119 o OL. La colecci´ n de sus raices. . . . . Si una operaci´ n tiene neutro o o ´ entonces este es unico . . . . . . . . . . . . a2 . . . 23 u ´ Multiplo. . . . . . . . . . . . Nucleo igual a {0} . 87 Nulidad de una matriz. o Funci´ n mediante la cual para cualesquiera o dos elementos a y b de un conjunto A po­ demos encontrar otro elemento de A que es el resultado de la operaci´ n . . . . . o Es la operaci´ n en que una permutaci´ n ω se o o le aplica a las columnas de una matriz αMN para obtener la matriz βMN = αMω(N) que cumple que βij = αiω − 1 (j) . . . . . . . . . . . Polinomio m´ nico de o grado al menos 1 sin factores propios . . . 91. . . . . . El el caso de grupos la preimagen del neutro. . . . . . . . . . . 97 Permutaci´ n de los renglones . . . . . Morfismo cuyo dominio y codominios son grupos . . . . 92 Orden de una matriz. . . . . . . Para dos elementos p y q de un anillo con divisi´ n se dice que p es o un m´ ltiplo de q si ∃c tal que p = cq . . . . . . . . Acr´ nimo de operador lineal . . . . . . Para ani­ llos y espacios vectoriales la preimagen del cero . . .. . . . ı El elemento del campo α es una ra´z de multiplicidad n del ı polinomio p si n es el mayor natural tal que p es un m´ ltiplo de (x − α)n . . . . 25 . . . . . . . . 21 Polinomio irreducible. De una operaci´ n binaria ◦ es un elemento e o que cumple que a ◦ e = e ◦ a = a para cual­ quier a del conjunto en el cual est´ definida a la operaci´ n. 22 u n­ada. . OL no biyectivo . . . . . . . . . . 101 Permutaci´ n. . . . . . . .. 100 Multiplicidad de una ra´z. . . . . . . . . . . . . . . . 74 o Operaci´ n binaria. . . . . . . . 2 o Operador lineal. . 118. 7 Orden de un ciclo. . . Funci´ n en una notaci´ n o o diferente. La preimagen del cero 86 Nucleo trivial. . . 25 Polinomio m´ nico. 45 ı o Polinomio. . . . . . 139 La dimensi´ n de su nucleo . . . . . . . . . . . . . . Cada ra´z apare­ o ı ce tantas veces como su multiplicidad . 94 u Plano. . . . . . . . an ) del producto cartesiano An . Elemento (a1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . El n´ mero de elementos u que un ciclo no deja fijos. 91. . . . . . . . . . . . . . . . .mor – pol Funci´ n entre dos campos que es morfismo o para la suma y para el producto . . . . . . . . . . . Subespacio af´n de dimensi´ n dos . . . . . . . . . . . . 54 Morfismo de grupos. . . . . . . . . El nucleo de su transformaci´ n lineal. . . 75 Opuesto. . . . . .41. . . . . . . . . . . 99 Permutaci´ n de las columnas. 80. . . . El inverso de un elemento de un anillo o campo respecto a la suma . . . . . . . .11. . 4 Nucleo de un morfismo. . . . . Transformaci´ n lineal de un o espacio en si mismo . . . . . . . . . . . . . 74 Operador singular. . . . . 39 N­ada. 23 Nucleo de una matriz. . . . . o Es la operaci´ n en que una permutaci´ n ω se o o le aplica a los renglones de una matriz αMN para obtener la matriz βMN = αω(M)N que cumple que βij = αω − 1 (i)j . 118 Neutro. . .P Expresi´ n o formal n ai xi donde los coeficientes ai i=0 son elementos de un campo . . . . . . 94 u Permutaci´ n par. 86 Nucleo de un polinomio. . . 64. . . . o Polinomio cuyo coeficiente principal es 1 . . . . . A N se le llama el conjunto de ´ndices y a las αi se le ı llaman coordenadas . . . . . . . . . . . . . . . . . . . . El conjunto soluci´ n o o de un sistema de ecuaciones con vector de coeficientes libres igual a cero . . . . Funci´ n f de un espacio vectorial a otro so­ o bre el mismo campo que es un morfismo de los grupos abelianos de vectores y que cum­ ple f (αa) = αf (a) para cualquier vector a y cualquier escalar α . . . .

. . o e reexiva y transitiva . . . 72 o Producto de un vector por una matriz. . Es la combinaci´ n lineal de las columnas de la o matriz cuyos coeficientes son las coordena­ das del vector. . . . . Regla mediante la cual se hallan los signos de los cofactores . . . . . . . . . . . o Para todo a se tiene a ≈ a . . . . 79 e o Resto. . . . . . . . . . . b ≈ a . . . . . . . . . 114. *. *. . . . . . . . El nucleo del signo es el grupo alternante si el campo es de carac­ ter´stica diferente de dos . . 103 Relaci´ n antisim´ trica. . Es la combinaci´ n lineal de los renglones de la o matriz cuyos coeficientes son las coordena­ das del vector. 79 Proyecci´ n. . . o Si C = A × B entonces. . . . . *. . . . . . La dimensi´ n de su espacio de columnas. . 63 e Relaci´ n de orden. o La dimensi´ n de su espacio de renglones. b) 7→ a se le llama o proyecci´ n de C a A a lo largo de B. . Ecuaci´ n Ax = b donde la matriz A y o el vector b son conocidos y el vector x es inc´ gnito . . reexiva y transitiva. . . . . * Relaci´ n reexiva. . . o Relaci´ n o sim´ trica. . . . . . . . . . . . . . . . . . . . 23 Rango de una matriz. . . . . . 43. El signo es un morfismo del grupo sim´ trico en el grupo multiplicativo {1. . . o Si en el codominio de f est´ definido un pro­ a ducto por escalares entonces λf es la fun­ ci´ n tal que (λf) (a) = f (λa) . 80 Producto escalar. . o Dada una matriz a αNM e i ∈ N a la M­ada αiM (i est´ fi­ jo. . . . . . . K [x]) entre otro q obtenemos la igual­ dad p = cq + r. . . . . . . . . . . . . . . nosotros la usamos en el caso de que E = F ⊕ G (¡la suma directa es un producto cartesiano!). . . 86 Punto. . o Producto escalar definido en K{N} como: P αN βN = i∈N αi βi . . . . . . . . . o Funci´ n que a cada permutaci´ n le hace co­ o o rresponder 1 si esta es par y −1 si esta es impar. . . De una funci´ n f es o Preimagen de un elemento. . . . . 66. . . . 94 ı Sistema de ecuaciones lineales. Si αMN y βNL son dos matrices entonces γML = αMN βN. . . . . . 121 o Regla del tablero de ajedrez. Producto bilineal de dos vectores cuyo resultado es un escalar . A los elementos del campo i=0 ai se le llaman coeficientes de la serie. . . . . . . . . (a ≈ b) ⇒ (b ≈ a) . a = b . . . . . . . o Si a ≈ b y b ≈ c entonces. . . . . . 22. . . . . . . Sea b un elemento del codominio de f. . . . . . . o Relaci´ n antisim´ trica. . . . . . . * Rengl´ n de una matriz. . . . 112 Relaci´ n en un conjunto. . . . . . . . . . . * Relaci´ n de equivalencia. . . . . 71. . * Relaci´ n sim´ trica. . P Expresi´ n formal del o tipo ∞ ai xi . . . . ı Elemento del campo en el cual la funci´ n de evaluaci´ n o o del polinomio toma valor cero . . . . . . .L es la matriz cuyas en­ tradas son los productos escalares can´ nicos o γij = αiN βNj de los renglones de αMN por las columnas de βNL . . 86 Producto de matrices. la funci´ n f : c = (a. . 98 Producto de un escalar por una funci´ n. . . . . . . . En este caso las proyecciones son TLs . . . La preimagen de b es el conjunto de todos x en dominio tales que f (x) = b. .140 pre – sop de una matriz en forma gr´ fica. . . Subespacio af´n de dimensi´ n cero 64 ı o Ra´z de un polinomio. . . . . . . . . . El orden de sus bases. . . los elementos de M var´an) se le llama ı i­´ simo rengl´ n de la matriz αNM . . 80 Producto de una matriz por un vector. o o Una funci´ n f : A0 → B se le llama restric­ o ci´ n de g : A → B si A0 ⊆ A y para cual­ o quier a ∈ A0 se cumple f (a) = g (a) . . . . 75 Serie. . . . . o e Si a ≈ b y b ≈ a entonces. * o e Relaci´ n transitiva. . . . 113. . . . . . . . . . 89 o Soporte. Al efectuar la divisi´ n con resto o de un elemento p de un anillo conmutativo (Z. . . . . Al elemento r se le llama resto de la division de p entre q . . . 79. . . 14 Restricci´ n de una funci´ n. . o Subconjunto del producto cartesiano A × A = A2 . 40 Signo de una permutaci´ n. . . . . . . . −1} e de cualquier campo. . . . 79 Producto escalar can´ nico. . . . . o La dimensi´ n de su imagen . . . El signo del a cofactor de αij es (−1)i+j . . . En par­ o ticular. .

. Acr´ nimo de transformaci´ n lineal . . . . El m´nimo de las cotas inferiores * ı Tensor de exponente n. . . . Dos subespacios afines son paralelos si uno es traslaci´ n del otro . 61. . . . 38 Vector columna. . . .. 44. . . . o sea si A = αNM y AT = B = βMN entonces αij = βji . . 80 o . 80 Vector de coeficientes libres. Una transformaci´ n elemental de los o renglones consiste el sumarle a un regl´ n o otro multiplicado por un escalar. Subconjunto de un grupo que es un grupo para la misma operaci´ n del grupo m´ s grande . . . Matriz que se obtiene de otra intercambiando los sub´ndices de sus entra­ ı das. . . . . . . ı Traslaci´ n de un subespacio . . .. . . . . . . . . . . . . Subconjunto de un anillo que es un anillo para las mismas operaciones del anillo m´ s grande . . . Si la intersecci´ n de dos o subespacios tiene dimensi´ n cero entonces. . . . . . . . . . . . . . . . . . . . . . . 112 Sucesi´ n. . Cerradura lineal . . . . . . Subconjunto de un espacio vectorial que es a su vez es­ pacio vectorial para las mismas operaciones que las de todo el espacio . . . . 30 Sucesi´ n convergente. .) del conjunto AN de funciones f : N → A . . . 63. . . . 86 Subgrupo. . . . . . . . . . . 65. Dada una matriz αNM a cualquier matriz αN 0 M 0 tal que N0 ⊆ N y M0 ⊆ M se le llama submatriz de αNM . . . . . . . 42 a Subespacio. . . . 37. . En Rn son los segmentos dirigidos del origen a un punto del espacio . . . . . 72. . De una N­ada es el conjunto de ´ndices cuyas coordenadas ı son diferentes de cero. 43 ı TL. Transformaci´ n o o de una matriz que es la base del m´ todo de e Gauss. . Subconjunto de un campo que es un campo para las mismas operaciones del campo m´ s grande . . . . 16 a Subcampo. . . . 16. . . 57. a1 . 89. . . . . . . . . . An´ loga­ a mente se definen las transformaciones ele­ mentales de las columnas . . . . . . . . . 92 Transpuesta. . . o Si A es un conjunto de vectores y x otro vec­ tor entonces A + x es la traslaci´ n de A con o el vector x . . . . . 118 o Subespacio generado. . . . . . . 115 Vector rengl´ n. . . . . . . . 80 Transposici´ n. . . . . . . . . . . o Matriz con un solo rengl´ n . . 40 Sucesi´ n acotada. . 59 Supremo. . . . . . . . 58 Suma de funciones. De una combinaci´ n o lineal es el conjunto de sumandos con coefi­ ciente diferente de cero . . . . . Elemento de un espacio vectorial. o o Dada la matriz αMN es la funci´ n: KN 3 βN → αMN βN ∈ KM . 97 Traslaci´ n de un conjunto de vectores. . . . . . . . . 45. Dos subespacios cuya suma es todo el espacio y cuya intersecci´ n es el ori­ o gen. . . . o La sucesi´ n {zk } es acotada si existe un real o M tal que ∀k kzk k ≤ M . . . . . . . . . . .. . . . . 56 Subanillo. . . . . . . . . . . . . 69 o o Transformaci´ n elemental. . . . . 63 o Subespacios complementarios. . . 46 Subespacios afines paralelos. . . . . Si A y B son conjuntos y entre sus elemen­ tos hay una operaci´ n de suma entonces: o A + B = {a + b | a ∈ A y b ∈ B} . . . . . . o Una sucesi´ n que tiene l´mite . . . . 30 o ı Suma de conjuntos. . . 61. . . . . . . . 16 o a Submatriz. . . . . . . . . . 41. . . 71. . . . Si en el codominio mutuo de f y g est´ defi­ a 141 nida una suma entonces f + g es la funci´ n o tal que (λ + g) (a) = f (a) + g (a) . . o la suma directa de ellos es can´ nicamente o isomorfa a la suma . . . . El vector b del sistema de ecuaciones lineales Ax = b. . o Ciclo de orden dos . . . .. . . Un conjunto indexado por n conjuntos de ´ndices . . . . . o Morfismo de espacios vectoriales . . 69. . 43. . . 54. . . . . 63. . . . . . . . . . 63 Vector. . . .. . 86 Subespacio af´n. El produc­ to cartesiano de los subespacios con la suma definida por coordenadas y tambi´ n el pro­ e ducto por escalares. . . . . . . . . . . . . . . o Elemento (a0 . . . . . . . . an .sub – vec el conjunto de elementos del dominio cuya imagen es diferente de cero. . . . . . . . . Matriz con una sola columna . . . 120 Transformaci´ n lineal. . . . . . . 72 Suma directa de espacios. . . . . . 76 Transformaci´ n lineal de una matriz. . .

142 vec – vec .

n A El producto cartesiano de A con­ sigo mismo n veces. . P y Q son equivalentes. O sea. El conjunto de todas las pa­ rejas (a. El campo de los racionales. ´ El algebra de series en la variable x con coeficientes en K. b∈B B3b A⊆B A⊇B AÃB . A×B El producto cartesiano de dos con­ juntos. o Para n primo Zn es un campo. La funci´ n identidad.∀ ∃ ∃! P⇒Q Para todo. El espacio de las n­adas. n} entonces AN = An . El conjunto de los elementos de A que no per­ tenecen a B. 1}. El vector cero. El conjunto de los naturales. A es subconjunto propio de B. P ⇐ Q P solo si Q. Un campo arbitrario. El grupo sim´ trico de N. El anillo de los enteros. . . . A ⊆ B y A 6= B. A 2 El conjunto de todos los subcon­ juntos del conjunto A. El conjunto de todos las n­adas (a1 . El campo de los complejos. B contiene a b. El espacio de las N­adas. . P es necesario para Q. e El grupo alternante de N. Menos uno es el opuesto de 1 en un anillo o campo. Uno es el elemento neutro para el producto de un anillo o campo. El campo de los reales. Matriz identidad. El conjunto de todas las funciones f : A → {0. A ⊇ B y A 6= B. ´ Existe y es unico. . A∪B La uni´ n de A y B. El anillo de restos m´ dulo n. O sea. A ! B A es sobreconjunto propio de B. P implica Q. o A\B La resta de conjuntos. Cero es elemento neutro para la suma de un anillo o campo. an ) a donde todos los ai est´ n en A. El conjunto de todos las N­adas aN donde ∀i ∈ N el elemento ai pertenece a A. A es sobreconjunto de B. . ´ El algebra de polinomios en la va­ riable x con coeficientes en K. o A∩B La intersecci´ n de A y B. P es necesario y suficiente para Q. El origen de coor­ denadas. La permuta­ o ci´ n identidad o El cardinal de N. Existe. El campo de funciones racionales en x con coeficientes en K. b) con a ∈ A y b ∈ B. . 0 0 1 −1 INN IdN ℵ0 K Kn KN K [x] K [[x]] K (x) N Z Zn Q R C SN AN b pertenece a B. P es suficiente para Q. AN El conjunto de todas las funciones f : N → A. Si N = {1. Si P entonces Q. A es subconjunto de B. P ⇔ Q P si y solo si Q.

ı La suma directa de dos espacios. La im´ gen de la funci´ n f. a La entrada αij de una matriz αMN . n! El factorial del natural n. El i­´ simo rengl´ n de la matriz e o αNM . La matriz cuyos renglones son los de A y los de B. Por ejemplo. ı Lo mismo que el anterior pero pa­ ra los renglones El cofactor de la entrada αij de una matriz cuadrada. Si E y F son subespacios que se intersectan solo en el origen enton­ ces es can´ nicamente isomorfa a la o suma de E y F. a o El nucleo del morfismo f. f : A 3 a 7→ f (a) ∈ B Usada para denotar funciones con­ cretas por ejemplo. kzk El m´ dulo del n´ mero complejo z. es la o matriz cuyas columnas est´ n inde­ a xadas por L mediante el cambio de ´ndices ω. Puede ser finito o infinito. A+x conjunto de vectores. |A| El cardinal del conjunto A. es un sub­ espacio af´n. Si a ω : N → L es una biyecci´ n. f : R 3 a 7→ a2 ∈ R+ es la funci´ n con dominio R y co­ o dominio R+ que a cada real le hace corresponder su cuadrado. o en los n´ meros enteros y en los u polinomios con coeficientes en un campo. El con­ junto de todas las combinaciones lineales de N. o El determinante de la matriz A. La matriz cuyas columnas son las de A y las de B. o u hNi La cerradura lineal de N. ı o La dimensi´ n de E.144 A− N Notaciones Las permutaciones impares de N. p mod q El resto de la divisi´ n de p entre o q. Si ω es una permutaci´ n de N. Una matriz cuyos renglones est´ n a indexados por M y cuyas colum­ nas est´ n indexadas por N. Est´ bien definido en cualquier a anillo con divisi´ n. o es la matriz αMN cuyas columnas est´ n permutadas mediante ω. l´m zk ı dim E sgn π det A Im f Ker f A+B λA El l´mite de la sucesi´ n {zk }. La matriz de cofactores de A. El producto de un escalar por un E⊕F αMN αij αiN αMj αMω(N) αω(M)N α∗ ij A∗ AT [A|B] £A ¤ B . Si A es un subespacio entonces. Se define como n! = 1 × 2 × · · · × n. La matriz transpuesta de A. La j­´ sima columna de la matriz e αNM . El conjunto de vectores A trasla­ dado mediante el vector x. f:A→B Una funci´ n que tiene dominio A o y codominio B. La suma de dos conjuntos de vec­ tores. o El signo de la permutaci´ n π.

Notaciones 145 Alfabeto g´ tico o A B C D E F G H I J K L M A B C D E F G H I J K L M N O P Q R S T U V W X Y Z N O P Q R S T U V W X Y Z a b c d e f g h i j k l m a b c d e f g h i j k l m n o p q r s t u v w x y z n o p q r s t u v w x y z Alfabeto caligr´ fico a A B C D E F A B C D E F G H I J K L M G H I J K L M U V W X Y Z U V W X Y Z N O P Q R S T N O P Q R S T Alfabeto griego A B Γ ∆ E Z H Θ I α β γ δ ²ε ζ η θϑ ι ´ alfa beta gamma delta epsilon zeta eta zita iota K Λ M N Ξ O Π P Σ κκ λ µ ν ξ o π ρ σ ´ kappa lamda mu nu xi omicron pi ro sigma T Υ Φ X Ψ Ω τ υ φϕ χ ψ ω ´ tau upsilon fi chi psi omega .

146 .

En un campo de caracter´stica t para cual­ ı quier elemento x se cumple que tx = 0 . Definici´ n de subespacio. La intersecci´ n de subespacios es un subes­ o pacio. o Cap´tulo 2 ı 1. 19. ı 20. En cualquier campo 0x = 0. 9. u 18. La inversa de un isomorfismo es un isomor­ fismo. 12. 14. Propiedades b´ sicas de la cerradura lineal: a • incremento. 2. La uni´ n de subespacios no es un subespa­ o cio. 13. Defina la suma y el producto en Zn . Los subespacios son los conjuntos cerrados para la suma y el producto por escalares. o 5. 4. Defina la caracter´stica de un campo. 10. • La intersecci´ n de todos los subespacios o que contienen a A. 6. Defina los siguientes conceptos: • Operaci´ n binaria. • El subespacio m´ s peque˜ o que contiene a n a A. 6. Los morfismos preservan las operaciones bi­ narias. Los morfismos preservan el neutro. • monoton´a.Cap´tulo 1 ı 1. (Zn . +. • Anillo y anillo conmutativo. 12. 8. • Campo. ı • idempotencia. Los morfismos preservan la conmutatividad. 7. Definici´ n de combinaci´ n lineal y sus co­ o o eficientes. Defina los siguientes conceptos: • Grupo y grupo abeliano. Todo sobreconjunto de un conjunto genera­ dor es generador. ¿Que es una NM­matriz? ¿Que es una en­ trada. Todo campo es un dominio de integridad. Zn es un dominio de integridad si y solo si n es primo. •) es un anillo conmutativo. 3. • Propiedad distributiva. 8. 16. 11. Demuestre la f´ rmula del binomio de New­ o ton en base a la f´ rmula multinomial. 10. 7. rengl´ n. • Elemento inverso. o • Propiedad conmutativa. 15. . Los morfismos preservan la asociatividad. Los siguientes tres conjuntos de vectores co­ inciden: • El conjunto de todas las combinaciones lineales de A. Los morfismos preservan el inverso. Todo dominio de integridad finito es un campo. Los morfismos preservan la distributividad. • Elemento neutro. Un campo primo o es Q o es Zp para cierto n´ mero primo p. o 2. Definici´ n de espacio vectorial. El conjunto de todas las combinaciones li­ neales de un conjunto de vectores es un su­ bespacio. Defina los morfismos. columna? o 4. 21. 17. 9. Un campo cualquiera no puede contener dos subcampos primos diferentes. 11. ¿Que es una n­ada? ¿Que es una N­ada? ¿Cual es su conjunto de ´ndices? ¿ Que son ı sus coordenadas? 3. • Propiedad asociativa. 5.

13. Que es un isomorfismo can´ nico. 27. Toda TL transforma subespacios en subes­ pacios. ¿Que es el paralelismo de subespacios afi­ nes? 35. ¿Que es el espacio cociente? ¿Cuales son sus operaciones? 38. o 14. 4. Cualquier subespacio complementario a E intersecta al subespacio af´n (E + x) en un ı solo punto. Describa el isomorfismo de coordinatiza­ ci´ n en una base. 18. Las extensiones lineales son TLs. Propiedad del cambio de las bases. F) le hace co­ rresponder su restricci´ n hN ∈ FN es un o isomorfismo de espacios vectoriales. Todo subespacio tiene complementario. Teorema de caracterizaci´ n de bases. 30. hE ∪ Fi = {a + b | a ∈ E. E = F. Las TLs est´ n predeterminadas por sus va­ a lores en una base. ¿Cual es la matriz de una TL? 17. 31.148 Gu´a de estudio ı 36. 13. o 25. Teorema de caracterizaci´ n de conjuntos LI. Definici´ n de proyecci´ n. Teorema de existencia de bases. la funci´ n o que a cada TL h ∈ Hom (E. 24. Propiedades de la composici´ n de TLs: aso­ o ciatividad. Defina los subespacios afines. Dos diferentes subespacios afines paralelos no se intersectan 37. Describa las bases can´ nicas de los espacios o vectoriales K{N} y K [x]. La matriz de la composici´ n de dos TLs es o igual al producto de las matrices de las TLs. 7. b ∈ F} 28. 15. 11. Todo subespacio af´n es paralelo a un solo ı subespacio. o 8. 22. 16. Todo espacio vectorial finito dimensional es isomorfo a Kn . conjuntos generadores en con­ juntos generadores y bases en bases. o 17. Cap´tulo 3 ı 1. o o 2. El producto de un escalar por una TL es una TL. Dos bases cualesquiera de un espacio vecto­ rial tienen el mismo cardinal. ¿Cual es la TL definida por una matriz?. o 14. La igualdad modular (incluye la demostra­ ci´ n del lema). La inversa de un isomorfismo lineal es un isomorfismo lineal. o 16. 19. Si E es un subespacio de F y dim E = dim F < ∞ entonces. o 26. 5. 34. Definici´ n de Algebra. Lema de aumento de un conjunto LI. 33. La suma de dos TLs es una TL. Definici´ n del producto de matrices. Toda proyecci´ n o o o es una TL. 6. Dos espacios vectoriales sobre un mismo campo son isomorfos si y solo si tienen la misma dimensi´ n. b) 7→ a + b ∈ E + F es un isomorfismo de espacios vectoriales. o 29. Propiedades del producto escalar can´ nico o de N­adas conmutatividad. Si N es una base de E entonces. Definici´ n de transformaci´ n lineal. Todo subconjunto de un conjunto LI es LI. 21. De tres ejemplos de o ´ algebras. Si E y F son dos subespacios complemen­ tarios entonces cada vector x se expresa de ´ forma unica como x = a + b donde a ∈ E y b ∈ F. Demues­ o tre que E ⊕ F y F ⊕ E son can´ nicamente o isomorfos. distributividad y conmutatividad con el producto por escalares. Un isomorfismo transforma conjuntos LI en conjuntos LI. 3. Una TL es un isomorfismo si y solo si su res­ tricci´ n a una base es inyectiva y la imagen o de esta restricci´ n es una base. 23. 32. 20. ¿Que es el grupo general lineal? 10. 12. 15. Toda TL de un espacio de dimensi´ n 1 es o una homotecia. Si E y F son subespacios tales que E ∩ F = {0} entonces la funci´ n o E ⊕ F 3 (a. ´ 9. . distributividad y conmutatividad con el producto por escala­ res. La composici´ n de TLs es una TL.

25. La im´ gen y el nucleo son subespacios. los grupos sim´ tri­ e cos SM y SN son isomorfos. Sean B y C matrices de cambio de base en E y F respectivamen­ te. Pruebe que sgn (π ◦ ρ) = sgn π sgn ρ y que sgn π−1 = sgn π. 21. 30. Describa el procedimiento general de solu­ ci´ n de los sistemas de ecuaciones linenea­ o les. 24. El determinante de la matriz identidad es 1. 26. Enuncie la expansi´ n generalizada de La­ o place 23. Si φ y ϕ son dos cambios de ´ndices de N ı en M entonces. Pruebe que los cofactores no de­ penden del cambio de ´ndices usado para ı calcular el determinante. 25. Si αIJ es una base de αMN entonces. o 149 Cap´tulo 4 ı 1. Toda permutaci´ n es composici´ n de trans­ o o posiciones. Defina las matrices de cambio de base. la restricci´ n de f a K es un o isomorfismo. A−1 = A∗T / det A. 3. Una TL de E a F es inyectiva si y solo si es sobreyectiva. Teorema del rango de una matriz. 26. su determinante es cero. a 23. 10. Definici´ n de matriz no singular. o 17. Al permutar las columnas o los renglones de una matriz con la permutaci´ n ω el determi­ o nante se altera por un factor igual a sgn ω. Si |M| = |N| entonces. se cumple la ¢ igualdad: ¡ det αMφ(N) = sgn φ ◦ ϕ−1 det αMϕ(N) . Definici´ n de funcional multilineal o 18. El determinante es un funcional multilineal de los renglones. 22. det A−1 = (det A)−1 . Teorema de existencia de soluciones. 16. 31. Sea f : E → F una TL. 21. Definici´ n de determinante de una matriz. Si A es la matriz de f en las bases viejas entonces CAB−1 es la matriz de f en las ba­ ses nuevas. 27. 20. Dos bases cualesquiera de una matriz tienen el mismo orden. 7. Definici´ n de permutaciones pares e impa­ o res. 32. 28. Definici´ n del signo. Si una matriz tiene una columna o un ren­ gl´ n nulo entonces. Si K es un subespacio complementario a Ker f entonces. 19. 29. Los subespacios afines paralelos a Ker f son precisamente los conjuntos de vectores en que la funci´ n f es constante. Si una matriz tiene dos columnas iguales en­ tonces. Sean E y F dos espacios tales que dim E = dim F < ∞. Definici´ n de nucleo e im´ gen de una TL. 8. El determinante de un OL no depende de la base que se use para calcularlo. Teorema de expansi´ n de Laplace. o 9. Definici´ n de cofactores de una entrada de o una matriz. 19. 4. Lema de aumento de submatrices no singu­ lares. 2. 14. Enuncie la caracterizaci´ n de matrices no o singulares. 13. Una TL es injectiva si y solo si su nucleo es trivial. Toda permutaci´ n es composici´ n de ciclos o o disjuntos. El n´ mero de permutaciones de un conjunto u con n elementos es n!. o 6. o 15. su determinante es cero. 20. La N­ada de las coordenadas de un vector en la base nueva se obtiene multiplicando la matriz de cambio de base por la V­ada de las coordenadas del vector en la base vieja. 5. 24. El determinante no se altera al transponer una matriz. o Regla del tri´ ngulo para los determinantes a de orden 3. 11. 12. Regla de Cramer. El determinante de una matriz triangular por bloques es igual al producto de los determi­ nantes de sus bloques. . Lema de eliminaci´ n de ecuaciones depen­ o dientes. o a 22. el con­ junto de los renglones indexados por I es una base del espacio de renglones de αMN .Gu´a de estudio ı 18.

35. Las transformaciones elementales no cam­ bian los determinantes. Definici´ n de transformaci´ n elemental. 36. Describa el m´ todo de eliminaci´ n de Gauss e o para resolver un sistema de ecuaciones li­ neales. Las transformaciones elementales de los renglones de la matriz ampliada no cambian . o o Definici´ n de diagonalizaci´ n de una co­ o o lumna.150 Gu´a de estudio ı el subespacio af´n soluci´ n de un sistema de ı o ecuaciones lineales. 34. ¿Como se halla la matriz inversa usando el m´ todo de eliminaci´ n de Gauss? e o 33. 37.