´ Algebra Lineal

Jorge Luis Arocha

II

Cap´tulo 1 Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ı 1.1 Operaciones binarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Conmutatividad (3). Asociatividad (3). Elementos neutros (4). Elementos inversos (4). ´ Distributividad (5). El algebra “abstracta”(5).

1 1 6 10 14 16 18 21

1.2 N´ meros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . u
Naturales (6). Enteros (6). Grupos (7). Anillos (7). Racionales (8). Campos (8). Reales (8). Complejos (9).

1.3 Morfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Morfismos de grupos (10). Morfismos de anillos (11). Isomorfismos (12). Composi­ ci´ n de morfismos (13). o

1.4 Campos de restos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
El anillo de los enteros m´ dulo n (14). Dominios de integridad (14). El campo de los o enteros m´ dulo p (15). o

1.5 Campos primos. Caracter´stica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ı
Subcampos (16). Campos primos (16). Caracter´stica (18). ı

1.6 Aritm´ tica de campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . e
M´ ltiplos y exponentes enteros (18). Asociatividad general (18). Distributividad gene­ u ral (19). F´ rmula multinomial (19). La expansi´ n de ΠΣαij (20). o o

*1.7 Polinomios sobre campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Suma y producto de polinomios (21). Divisi´ n de polinomios (22). Factores y raices o (22). Ideales de polinomios (23). Unicidad de la factorizaci´ n en irreducibles. (25). o Desarrollo de Taylor (26).

*1.8 Polinomios complejos. Teorema de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Forma polar. Igualdad de Moivre (27). Continuidad (28). L´mite de sucesiones com­ ı plejas (30). Teorema de Gauss (30).

27 32 33 37 37 38

*1.9 Factorizaci´ n de polinomios complejos y reales . . . . . . . . . . . . . . . . . . . . . . . . o
Caso Complejo (32). Caso real (32).

*1.10 Campos de fracciones. Funciones racionales . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Campos de fracciones (34). Funciones racionales (35).

Cap´tulo 2 Espacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ı 2.1 El plano cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Definici´ n y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o
El espacio de n­adas Kn (39). El espacio de polinomios K [x] (40). El espacio de sucesiones KN (40). El espacio de series K [[x]] (40). El espacio de funciones KN (40). El espacio de N­adas KN (41). El espacio de N­adas con soporte finito K{N } (41). Subcampos (42). El espacio de N­adas de vectores EN (42). El espacio de NM­ matrices KN M (42). El espacio de tensores (43).

2.3 Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

44

. . . . . . . . . . . . . . Un criterio de isomorfismo (87). . . . . . . . . . . . . . . El grupo general lineal ´ (74). . . . . . . . . o El producto escalar can´ nico (79). Transformacio­ o nes lineales con nucleo trivial (87). . . . . . . . . . . . (60). . . . . . . . .7 Espacios cocientes . . . . . . . . Suma de conjuntos y subespacios (58). . Cambios de base en el espacio de trans­ formaciones lineales (84). . Proyecciones (71). . . . . . . . . . . . . . . . . . . . . . Cambios de base en el espacio de operadores lineales (85). . . . . . . . . . . . El producto de matrices (79). . . . . . . . . . Espacios vectoriales versus conjuntos (62). . . . . . . . 2. . . . . . . . . . . . . . . . . . . Bases can´ nicas (52). . . . Conjuntos generadores (47). . . . . El isomorfismo entre FN y Mor (E. . . . . Extensiones y restricciones (75). . . . . . . . . Cardinales (67). . . . . . . . . . . . . . .1 Permutaciones . . . . . . . . . Cap´tulo 3 Transformaciones lineales . . . . . . . . Composici´ n de TLs y producto de matrices (81). . . . . . . . . . Ciclos (92). . . . . . . . o El Lema de Zorn (66). . . . . . . Homotecias (70). . . . . . . . . Subespacios afines (63). . . . . . Conjuntos linealmente independientes (48). . . . . . . . . . . . . . . . . . . . . . El isomorfismo con los complemen­ tarios (65). . . . . . . . . Como pensar en o o espacios vectoriales (56). . . . . . . . . . . . . . . . . . Subespacios de Rn (57). . . . . . . Productos de matri­ o ces y vectores (80). . . . . ı 4. . . Cerradura li­ o o neal (46). . . . . . . o o 47 53 57 2. . . . . . . . . . . . Isomorfismo can´ nico entre la suma y la suma directa. . . . . . . . . . . . . . . . . . . ı 3. . . . . . . .4 Coordinatizaci´ n de transformaciones lineales . . . . . . . El grupo alternante (93). . . . . . . . . . o 91 91 . . . El signo de una permu­ e taci´ n (94). . . . . . El espacio cociente (64). 69 69 72 3. . 63 66 *2. . . . . . . .6 Suma de subespacios . . . . . . . . . . . . . . . . . . . . . o Imagenes de subespacios (69). Descomposici´ n de transformaciones lineales (86). . . . . . . . . . . . . . . Dimensi´ n (51). . . . .6 El nucleo y la imagen de una transformaci´ n lineal . . . . Suma directa (60). . . . . . . . . . . . . . . Composici´ n de transfor­ o maciones lineales (73). . . . . . . 2. . . . . .3 Extensiones lineales . . . . . . . . . . .IV Contenido Uni´ n e intersecci´ n de subespacios (44). . . . . . . . . o Cap´tulo 4 Determinantes . . . . . . . . . . . . . . . La igualdad modular (58). Descomposici´ n o can´ nica de transformaciones lineales (88). . 3. . . . . . . . . . . . . . . . . . o Isomorfismos lineales (54). . . . . . .8 El caso de dimensi´ n infinita . . . . . . . . . . Clasificaci´ n (55). . . . . . . . . . . . . . Coordinatizaci´ n (55). . .4 Bases . . . . . 75 77 3. . . F) (76). . . El grupo sim´ trico (91). . La transformaci´ n lineal de una matriz (80). . . Bases (49). . . . . . . .5 Cambios de base . . . . . . . . . . . . . . .5 Clasificaci´ n de espacios vectoriales . . . . . . . . . 2. . . . . . . . . . . . Matrices o o inversas (82). . . . . . . . . . . . . . . . . . 3. . . . . . . . . . . . . . . . . . . . . . . . . . La matriz de una o transformaci´ n lineal (81). . . . . . . . Equicardinalidad de las bases (68). Inmersiones (71). . Cambios de base en un espacio vectorial (83). . . . . . . . . El espacio vectorial de las transformaciones lineales (72). . 83 86 3. . Un cri­ terio de isomorfismo (77). . . o Definiciones (86). . . . . . o Subespacios complementarios (61). . . . . . . . . . . . . . Combinaciones lineales (45). Existencia de bases (67). . . . . . . . . . . . . . . . .2 Operaciones entre transformaciones lineales . .1 Definici´ n y ejemplos . . . . . . . . . El algebra de operadores lineales (74). .

. . . . Bases. . . . . . . . . . . . .Contenido 4. . . . . . . . . C´ lculo de determinantes (120). El nucleo y la imagen de una matriz (117).4 La expansi´ n generalizada de Laplace. . . . a nucleos y sistemas de ecuaciones lineales (121). . . . . . . . . . . . . . . . . .7 M´ todo de eliminaci´ n de Gauss . . V 94 4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ı 114 4. . . . . . . . . . . . . e o Transformaciones elementales (120). Permutaciones de columnas y renglones (97). . . . . . . . . . . . . . . . . . . . . . . . . . . El determinante de la transpuesta (97). . Bases del subespacio af´n de soluciones (118). . . . . . . . . . Caracterizaci´ n de las bases de una matriz (114). . . . . . . . . . . . . . . . . Soluci´ n de ecuaciones matriciales. . . . . . . . . rango. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Lema de au­ mento de matrices no singulares (112). . . . . . . . .3 Expansi´ n de Laplace . . . . 119 Soluciones de ejercicios selectos . . . . . . . . . . . . . . . . . . . El determinante del producto (98). ı 125 133 143 147 . . . . . . . . . . . . . Glosario . . . . . . Complementos algebraicos (102). . . . . . o Cambios de ´ndices (100). . . . . . o matriz inversa (122). El determi­ nante de un operador lineal (107). . . . . . . . . . . . . . . . . . . . . . . . . La expansi´ n de Laplace en forma gr´ fica (103). . . . . . . . . . o a Multinearidad de los determinantes (104). . . . . . . . . . . .5 El rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Teorema del rango (113). . . . . Eliminaci´ n de ecuaciones o dependientes (117). . . . . . . . . . . . . . . . . . . . . La expansi´ n generalizada de o Laplace en forma gr´ fica (109). . . Gu´a de estudio. .2 Propiedades b´ sicas de los determinantes . . . . . . . . . . . . . . . . . o 4. . o Matrices diagonales y triangulares por bloques (109). . Ma­ o n trices con filas nulas (96). . . . El determinante de la identidad (96). . . . . . . . . . . 100 4. . . . . . . . . . . . . . . . . . . . . . . . . . Determinantes de matrices peque˜ as (95). . . . . . . . . . . Existencia de soluciones (116). . . . . . . . . . . . . . . . . . . Bases de una matriz (112). . . Regla de Cramer (115). . . . . . . .6 Sistemas de ecuaciones lineales . La inversa de una matriz (105). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Matrices no singulares (111). . a Definici´ n de los determinantes (95). . . . . . . . . . . . . . . . . . . . . . . . . . . a 107 111 4. . . . . . Espacios de columnas y renglones (111). Notaciones . . . . La expansi´ n de un de­ ı o terminante por sus renglones (102). . . . . . . . Matrices de permutaciones (99). . . . . . .

a esencialmente usted deja de pensar . ´ a El Diablo dice: “Yo te dar´ a ti esta poderosa maquinaria e que responder´ cualquier pregunta que tu quieras.. el da˜ o a nuestra alma est´ ah´..VI El algebra es la oferta hecha por el Diablo a los matem´ ticos.. a Todo lo que se necesita que tu hagas es entregarme tu alma: dame la geometr´a y tendr´ s esta maravillosa m´ quina” ı a a . Sir Michael Atiyah . n a ı porque cuando usted pasa a hacer c´ lculos algebraicos..

En particular. como esta teor´a no depende (al menos en gran parte) del conjunto de ı escalares (y teniendo en cuenta diferentes aplicaciones a otras areas de las matem´ ticas y a las ciencias naturales) es conveniente elevar un paso el nivel de abstracci´ n y pensar que el o conjunto de escalares es un campo arbitrario K . O sea. los teoremas de descomposici´ n en factores de polino­ o mios complejos y reales ser´ n fundamentales para. b) exponenciaci´ n o logaritmo m´ x com´ n divisor a u m´n com´ n m´ ltiplo ı u u . El primer objetivo de este cap´tulo es dar al lector un conocimiento b´ sico de lo que es ı a un campo. es una regla mediante la cual a cualesquiera dos elementos de A se le hace corresponder un tercer elemento de A. viendo que las reglas usuales de ı manipulaci´ n de f´ rmulas en un campo no se diferencian esencialmente de las f´ rmulas en o o o los reales y sobre todo. Demos algunos ejemplos sencillos: 1) a + b 2) a − b 3) ab 4) a b suma resta producto divisi´ n o 5) 6) 7) 8) ab loga b mcd (a. Posteriormente. Estos espacios son estructuras algebraicas cuyos objetos son de dos tipos los vectores y los escalares. o a 1. estudiando o algunas propiedades (como la caracter´stica) de los mismos.1 Operaciones binarias Sea A un conjunto. Las operaciones definidas en los espacios vectoriales son la suma y resta de vectores. Esto se pretende lograr por tres medios: dando la definici´ n formal. e u Sin embargo. dando los ejemplos fundamentales de campos. b) mcm (a. estudiaremos las principales propiedades de los polinomios con coefi­ cientes en un campo. en un cap´tulo posterior. Una operaci´ n binaria es una funci´ n del producto cartesiano A×A o o en A. la suma resta multiplicaci´ n y divisi´ n de escalares y la multiplicaci´ n de escalares por o o o vectores. La mayor´a de los temas estudiados en este libro no dependen del conjunto de ı escalares y el lector puede casi siempre considerar que los escalares son los reales R y que el espacio vectorial es el espacio “geom´ trico” com´ n Rn . desarrollar la a ı descomposici´ n de Jord´ n de operadores lineales.´ l objeto del algebra lineal es el estudio de los espacios vectoriales.

poner un ejemplo m´ s complejo a a a ¢ R de notaci´ n dos dimensional.7­8. “toma el n´ mero b” . Sin embargo. En realidad. . tenemos la libertad de es­ ı coger una notaci´ n unificada para las operaciones binarias abstractas que definamos. O sea. b) ◦ notaci´ n sufija o Las operaciones 1­3 est´ n en notaci´ n operacional y las operaciones 7­8 est´ n en nota­ a o a ´ ci´ n prejija. b y c. b. b) notaci´ n prefija o funcional o a◦b notaci´ n operacional o (a. es la variedad de notaciones usadas para represen­ tar las operaciones binarias. Lo que tienen en com´ n.2 Cap´tulo 1. Sin o o a u embargo el lector podr´ f´ cilmente encontrar los conjuntos en los cuales estos ejemplos son a a operaciones binarias. ¿Cual ser´ la notaci´ n o a o sufija para la expresi´ n (a + b) (x + y)? [125] o Cualquier intento. solo llevar´a a confusiones mucho peores. Ejercicio 1 ¿En cuales conjuntos las operaciones 1­8 est´ n correctamente definidas? [125] a Ejercicio 2 ¿Que es una operaci´ n unaria? De ejemplos. c definamos A (a. necesitamos a dos dimensiones para escribirlas. c) como el area del tri´ n­ u a gulo con lados a. son complicadas las notaciones de la operaciones 4­6. Quiz´ sea m´ s ilustrativo. [125] o Ejercicio 3 Dados tres n´ meros reales a. Campos ı Lo primero que observamos de los ejemplos anteriores es que no hemos definido en cual conjunto est´ definida la operaci´ n. Sobre todo. para las no­ a taciones lineales solo hay tres posibilidades: ◦ (a. as´ por ejemplo la a o ı divisi´ n es una operaci´ n que no est´ definida en el conjunto de los n´ meros enteros. postularemos que siempre usaremos la notaci´ n operacional para definir operaciones o binarias abstractas.“s´ malos” y no u u u hacerlo de otra manera. ¿Es esta una operaci´ n ternaria en R? [125] o Lo segundo que debemos de observar. De una o vez. es que no nos alcanza una l´nea de s´mbolos para escribirlas. b 0 a sin x + b sin 2 dx a y por lo tanto es una operaci´ n binaria definida en R. b. u ı ı Necesitamos subir y/o bajar adem´ s de movernos de derecha a izquierda. La notaci´ n sufija es util sobre todo en la programaci´ n de compiladores para o o o lenguajes de computadoras (tales como pascal o C++) ya que frecuentemente lo m´ s f´ cil a a es decirle a una computadora “toma el n´ mero a” . Ejercicio 4 La notaci´ n sufija para a (b + c) /2 es bc + a × 2÷ . La integral en el recuadro a la π/4 ¡ o x derecha est´ bien definida para cualesquiera valores reales a. de tratar de unificar las notaciones usadas en la comunicaci´ n entre o humanos. o M´ s sencillos son los ejemplos de notaciones lineales 1­3. Esto no es correcto formalmente.

quien sabe que) le “sumamos” a u (no se sabe lo que quiere decir “suma”) un objeto b (del que tampoco se sabe mucho). Ejercicio 6 ¿Cuales de las operaciones 1­9 son asociativas? [125] La asociatividad de una operaci´ n es una propiedad crucial. Despu´ s. matriz . ¿Es 32 igual a 23 ? No. a11 entonces. Ahora. Primero aprendemos lo que quiere decir 3 + 2. Una operaci´ n binaria denotada por ◦ y definida en el conjunto A se dice que es conmutativa si se cumple la propiedad en el recuadro a la izquierda.Secci´ n 1. . polinomio. no hay ninguna diferencia a entre los dos procedimientos. e tempranamente en el estudio de las matem´ ticas. a2 . a ∀a. b. gracias a ella podemos introducir la notaci´ n de la operaci´ n “re­ a o o 11 petida”. Una operaci´ n binaria denotada por ◦ y definida en el con­ o junto A se dice que es asociativa si se cumple la propiedad en ∀a. . e Si tenemos que la operaci´ n es no solamente asociativa sino tambi´ n conmutativa enton­ o e ces podemos ser m´ s generosos con esta notaci´ n. Los estudiantes preuniversitarios se encuentran por primera vez con la dificultad de una operaci´ n no asociativa en el caso de la operaci´ n de exponen­ o o 3 ciaci´ n. el manejo o algebraico de una operaci´ n se complica bastante. para denotar la suma P a a1 +a2 +· · ·+a11 podemos usar la notaci´ n (mucho m´ s c´ moda) que se muestra n=1 n o a o en el recuadro a la derecha. A esta temprana edad es muy necesario insistir que la expresi´ n 22 es ambigua o o ¡ ¢3 3 porque 2(2 ) = 256 6= 64 = 22 . b ∈ A a◦b=b◦a Ejercicio 5 ¿Cuales de las operaciones 1­9 son conmutativas? [125] Asociatividad ¿Que quiere decir 2 + 3 + 5? ¿Acaso debemos sumar 2 + 3 y al resultado sumarle 5? ¿No ser´ que debemos sumar 2 al resultado de la suma 3 + 5? Claro. Ser o no conmutativa es la propiedad m´ s sencilla que diferencia las operaciones binarias. la expresi´ n a+b significa que a un n´ mero a o u a (no se sabe cual) le sumamos un n´ mero b (tampoco se sabe cual). . . Sin esta propiedad. Si tenemos 11 elementos a1 . Conmutatividad o ¿Es 3 + 2 igual a 2 + 3? Si. Este hecho se expresa como (2 + 3) + 5 = 2 + (3 + 5) . a o . o Es m´ s.1 o Operaciones binarias 3 Recalquemos que una operaci´ n “abstracta” no significa nada m´ s que es una operaci´ n o a o que puede ser una de muchas. c ∈ A a ◦ (b ◦ c) = (a ◦ b) ◦ c el recuadro de la derecha. la expresi´ n a+ u o b significar´ que a un objeto a (n´ mero. Esta notaci´ n no requiere de la conmutatividad de la o ´ndices tienen un orden y sabemos cual elemento debe ir operaci´ n “suma” gracias a que los ı o primero y cual despu´ s.

La misma u u propiedad la tiene el uno con respecto al producto de n´ meros naturales. en este caso. a` . κ. ∇. Elementos neutros ´ La suma de n´ meros naturales tiene un elemento especial y unico: el cero. Ejercicio 7 ¿Cuales de las operaciones 1­9 tienen neutro? [125] Los elementos neutros juegan un papel importante en las notaciones para operaciones repetidas. usar la letra griega u (pi may´ scula). y tenemos e ◦ e0 = e. Entonces la suma de estos (¡no importa el orden!) la n∈N podemos denotar por la expresi´ n en el recuadro a la izquierda. Efectivamente. Campos ı Supongamos que aρ . ı u Elementos inversos ´ Para cada n´ mero entero a hay un unico n´ mero −a tal que sumado con a da cero. . Se dice que a ∈ A tiene elemento a ◦ b = b ◦ a = e inverso b si se cumple la propiedad en el recuadro a la izquierda. aκ . Por ser e neutro. P en lugar de usar la letra griega (sigma may´ scula). Sea ◦ una operaci´ n binaria en o el conjunto A con elemento neutro. que la suma vac´a de n´ meros es igual ı u a cero y el producto vac´o de n´ meros es igual a uno. u Podemos. De estas dos igualdades obtenemos e = e0 . Por ser e neutro. Es por esto. `. Pero ¿que pasa si alguno de los conjuntos de ´ndices (digamos M) es vac´o? Si queremos ı ı que esta propiedad se conserve entonces observamos que Y Y Y Y ai • ai = ai = ai i∈N Q i∈∅ i∈N∪∅ i∈N por lo que necesariamente i∈∅ ai tiene que ser el elemento neutro de nuestra operaci´ n (si o no hay neutro entonces estamos en problemas). Una operaci´ n binaria no puede tener m´ s de un elemento neutro. usar la primera o segunda notaci´ n dependendiendo de si nuestro o producto es conmutativo o no. como el lector seguramente ya sabe. u Para una operaci´ n binaria denotada por ◦ y definida en el con­ ∀a ∈ A o junto A se dice que e ∈ A es un elemento neutro si este cumple la a ◦ e = e ◦ a = a propiedad en el recuadro. 9}. a9 y a∇ son elementos de un conjunto con una suma asociativa y conmutativa. Supongamos que tenemos un producto asociativo y conmutativo. Ge­ u u neralizemos esta propiedad a operaciones binarias arbitrarias. tenemos e ◦ e0 = e0 . sean e o a y e0 elementos neutros. Su propie­ u dad definitoria es que cualquier n´ mero sumado con cero da el mismo n´ mero. de la definici´ n se sigue la propiedad del recuadro a la o i∈N i∈M i∈N∪M izquierda. Naturalmen­ ı Q Q Q ai • ai = ai te. Sean adem´ s N a y M dos conjuntos finitos de ´ndices disjuntos.4 P an Cap´tulo 1.Q o entonces es usual. donde N es el o conjunto de ´ndices {ρ. ı Si la operaci´ n binaria definida no se llama “suma” sino “producto”.

tri´ ngulo. Parte de este conoci­ o u miento cient´fico. cuatro o cinco patas etc. Baste recordar conceptos como: velocidad. el concepto de “abstracci´ n” es la propiedad. en los naturales el producto es distributivo con respecto a la suma: a (b + c) = (ab) + (ac) y sin embargo. c´ moda. Ejercicio 8 Describa los inversos en las operaciones 1­9.1 o Operaciones binarias 5 ´ Para cualquier operaci´ n binaria asociativa el elemento inverso de otro es unico. El concepto “silla” nos permite reco­ o nocer una silla. Por ejemplo. y olvidarnos de las restantes. [126] ´ El algebra “abstracta” Filos´ ficamente. u Sean ◦ y ¦ dos operaciones binarias definidas en el ∀a. o La abstracci´ n es imprescindible para el lenguaje. Casi cada palabra del espa˜ ol (y de cualquier idioma) re­ n presenta un concepto abstracto.Secci´ n 1. El ejemplo m´ s sencillo son los naturales en los que sabemos sumar y sabe­ a mos multiplicar. otros surgieron hace muy poco. el concepto de o . electr´ n. b. No hace falta saber que la suma de naturales es una a operaci´ n binaria conmutativa para saber que 2 + 3 = 3 + 2. Se dice que la operaci´ n ¦ es distributiva a ¦ (b ◦ c) = (a ¦ b) ¦ (a ¦ c) o respecto a la operaci´ n ◦ si se cumple la propiedad en el (b ◦ c) ¦ a = (b ¦ a) ◦ (c ¦ a) o recuadro. Efecti­ o vamente si b y c son inversos de a entonces b = b◦e = b◦(a ◦ c) = (b ◦ a)◦c = e◦c = c o sea que b y c tienen que ser el mismo. Algunos de los o a mencionados. de hierro. que tiene el pensamiento o o humano. ADN. sea esta verbo. la mayor´a ı de estos conocimientos queda solamente en manos de los especialistas en la materia. penicilina. son muy antiguos. de que podemos fijarnos solamente en ciertas propiedades “esenciales” de un objeto o fen´ meno. Sin embargo. Con las matem´ ticas pasa igual. pasa al conocimiento p´ blico. pl´ stica. independientemente si esta es de madera. c ∈ A conjunto A. grande. etc. Que ¦ sea distributiva respecto a ◦ no es lo mismo que ◦ sea distributiva respecto a ¦. Estas dos operaciones est´ n relacionadas con la propiedad de que podemos a sacar factor com´ n o sea ax + ay = a (x + y). la suma de naturales no es distributiva respecto al producto: a + (bc) 6= (a + b) (a + c). Ejercicio 9 De un ejemplo de dos operaciones binarias tales que ambas son distributivas una con respecto a la otra. sustantivo o adjetivo. Sin embargo. colesterol. metal. ı u volumen. [126] Distributividad Frecuentemente nos encontramos con conjuntos en los cuales hay m´ s de una operaci´ n a o binaria definida. La ciencia lleva este nivel de abtracci´ n a un nivel a´ n mayor. higiene. a o con tres.

el a tiempo se encargar´ de acabar con todos estos calificativos. El conjunto de los n´ meros a u a veces b veces naturales N = {0. Toda algebra o a u es abstracta... reales y complejos. Tanto fu´ el entusiasmo.. Esto. en mi opini´ n. a a Naturales Hay una frase famosa que dice “Dios hizo los naturales y el hombre todo lo dem´ s”. de hecho. 1. en un principio.6 Cap´tulo 1. todas las matem´ ticas son abstractas.} y en el conjunto −b + (−a) = − (a + b) u Z = N ∪ Z− de los n´ meros enteros definimos la suma como u la operaci´ n conmutativa definida por las propiedades en el o recuadro a la derecha. Tanto la suma como o e el producto son conmutativos. } Enteros Ning´ n elemento de N salvo el cero tiene inverso para u la suma. . progresivamente. ab = a + {z + a = | + {z + b | . que muchos. anillos y campos. la comunidad matem´ tica se fu´ dan­ a e do cuenta de las ventajas del pensamiento algebraico en el lenguaje de operaciones abstrac­ tas. Otros a´ n m´ s entusiastas. De la e definici´ n se obtiene que el producto de naturales tambi´ n es asociativo.. a + b es el e cardinal de la union de dos conjuntos finitos y disjuntos uno de cardinal a y otro de cardinal b. Por ejemplo. Estoy convencido de que. .. a ´ 1. aunque m´ s moderado. 2. En la actualidad este lenguaje es parte in­ a tr´nseca e indivisible del pensamiento en matem´ ticas y cualquier calificaci´ n de “moderna” ı a o suena muy tonta. En la primera mitad del siglo XX. prefierieron referirse a esta forma de pensar como “Algebra abstrac­ ´ ta”. En N hay dos operaciones bina­ rias bien definidas: la suma y el producto. El producto es distributivo respecto a la suma. le llamaron a esta forma de pensar e “Algebra moderna”. enteros. tampoco tiene ning´ n sentido.. Otros. Como la union de conjuntos es asociativa tambi´ n lo es la suma de naturales. −3. Campos ı “operaci´ n” y que estas operaciones pueden cumplir o no ciertas propiedades es relativa­ o mente “nuevo”. De hecho el producto es una operaci´ n derivada o de la suma y la suma solo se puede definir en t´ rminos de conjuntos. por otro lado.. } b . La suma tiene elemento neutro 0 y el producto tiene elemento neutro 1. −2. racionales. Esto nos dar´ la posibilidad de introducir a ´ las definiciones m´ s b´ sicas del algebra: grupos. m´ s fr´volos y con muchas ganas de vender u a a ı sus libros le llamaron “Matem´ tica moderna”. .2 Numeros En esta secci´ n repasaremos los principales tipos de n´ meros que el lector ya conoce: o u naturales.} es el conjunto de los cardinales de los conjuntos finitos.. Para lograr la existencia de inversos inventamos los −b + a = c ⇔ a = b + c n´ meros negativos Z− = {−1.

+. Al momento de encontrar esta demostraci´ n.conmutativo y distributivo con respecto a la (−a) (−b) = ab suma. G1) la operaci´ n es asociativa G2) tiene elemento neutro Un grupo se le llama abeliano si adem´ s de los axio­ a mas G1­G3 se cumple que la operaci´ n es conmutativa.Secci´ n 1. e Un conjunto A no vac´o con dos operaciones bi­ ı A1) (A. •) es un anillo conmutativo. Al neutro para el producto se le llama uno y se denota por 1. Ejemplos de grupos no ı abelianos los veremos m´ s adelante. Por ejemplo (Z. Para descartar esta trivialidad supondremos siempre que 1 6= 0. Si el anillo A3) • es distributiva con respecto a + es tal que la operaci´ n • es conmutativa entonces o A4) • tiene elemento neutro se dice que tenemos un anillo conmutativo.2 o N´ meros u 7 Ejercicio 10 Demuestre la asociatividad de la suma de n´ meros enteros basandose sola­ u mente en la asociatividad de los naturales. +) es un grupo abeliano narias + y • se le llama anillo si se cumplen los A2) • es asociativa axiomas en el recuadro a la izquierda. O sea los enteros dan el primer ejemplo de grupo. Al inverso con respecto al producto de un elemento se le llama inverso multiplicativo o simplemente inverso a secas. ı Anillos La operaci´ n de producto de naturales se extiende f´ cilmente al a (−b) = − (ab) o a conjunto de los enteros mediante las reglas en el recuadro. Abel muri´ a los 26 a˜ os a o n causa de una neumon´a. De la misma manera vemos que 0 • a = 0. Nuevamente (−a) b = − (ab) el producto es asociativo. a A los grupos cuya operaci´ n es conmutativa se les llama abelianos en ho­ o nor al matem´ tico noruego Niels Henrik Abel (1802­1829). A un conjunto no vac´o con una operaci´ n binaria se ı o o le llama grupo si se cumplen los tres axiomas G1­G3. En un anillo al neutro para la suma se le llama cero y se denota por 0. De aqu´ se ı . Grupos Nuevamente la suma de enteros es asociativa con neutro cero pero ahora. Si 1 = 0 entonces. que o a o no existen f´ rmulas en radicales para resolver las ecuaciones polinomiales de o grado 5 o mayor (a diferencia de las ecuaciones de grado ≤ 4 para las cuales si hay f´ rmulas generales). +) es un grupo abeliano. Al inverso de un elemento con respecto a la suma de un elemento se le llama su opuesto. a = 1 • a = 0 • a = 0 por lo que el anillo consta de un solo elemento. G3) todo elemento tiene inverso o As´. Abel fu´ el que a e ´ resolvi´ el problema algebraico m´ s importante de su epoca. Observemos que si a es un elemento de un anillo entonces a • 0 + a = a • (0 + 1) = a y debido a la unicidad del 0 obtenemos que a • 0 = 0. (Z. cada elemento tiene inverso. Demostr´ . el o o problema ya duraba varios siglos sin resolverse. O sea los enteros tambi´ n dan el primer ejemplo de anillo.

8

Cap´tulo 1. Campos ı

desprende que 0 no puede tener inverso ya que 0 = a • 0 = 1 es una contradicci´ n. o En cualquier anillo −a denota al opuesto de a y a−1 (si existe) denota al inverso de a. Como 1 × 1 = 1 tenemos 1−1 = 1. Tambi´ n (−1)−1 = −1 ya que si a = −1 entonces e 0 = a (a + 1) = aa + a por lo que aa = −a o sea, (−1) (−1) = 1. Luego, en todo anillo 1 y −1 tienen inversos. En Z ning´ n elemento salvo 1 y −1 tiene inverso. u
Normalmente en la definici´ n de anillo no se pide el axioma A4. En este caso, a los anillos que o tienen elemento neutro para el producto se le llaman anillos unitarios. Un ejemplo de anillo no unitario es el conjunto de todos los enteros pares. Con el objetivo de simplificar, para nosotros todos los anillos son unitarios.

Racionales Para lograr que cada elemento diferente de cero tenga inverso inventamos las fraccio­ nes y con ellas el conjunto de n´ meros racionales Q. Una fracci´ n es un par ordenado de u o n´ meros enteros denotado por a/b donde b 6= 0. Dos fraccio­ u c a = ⇔ a • d = c • b nes son iguales cuando se cumple la igualdad en el recuadro. b d Los n´ meros racionales Q son las fracciones con la relaci´ n de u o igualdad as´ definida. Los enteros son parte de los racionales por cuanto podemos identificar ı cada n´ mero entero a ∈ Z con la fracci´ n a/1. u o Campos La suma y el producto de n´ meros racionales se definen por u las igualdades en el recuadro. Nuevamente los racionales con la a + c = a • d + c • b b•d suma forman un grupo abeliano y otra vez el producto es aso­ b d a c a•c ciativo, conmutativo, tiene elemento neutro y es distributivo con • = respecto a la suma. La diferencia es que ahora todo elemento di­ b d b • d ferente de cero tiene inverso multiplicativo. O sea los racionales nos dan el primer ejemplo de campo. Un conjunto K no vac´o con dos operaciones bi­ ı C1) (K, +) es un grupo abeliano narias + y • se le llama campo si se cumplen los C2) (K\0, •) es un grupo abeliano tres axiomas C1­C3. En otras palabras un campo C3) • es distributiva con respecto a + es un anillo conmutativo en la cual todo elemento diferente de cero tiene inverso multiplicativo.

la operaci´ n por coordenadas (x, y) ◦ (x0 , y0 ) = (x ◦ x0 , y ◦ y0 ). Demuestre que si (A, ◦) es o ¡ ¢ un grupo entonces A2 , ◦ es un grupo.

Ejercicio 11 Si ◦ es una operaci´ n binaria en A entonces, en A2 est´ definida naturalmente o a Ejercicio 12 De la misma manera que el ejercicio¢anterior se definen las operaciones en A2 ¡
si (A, +, •) es un anillo. Demuestre que A2 , +, • es tambi´ n un anillo. e

Ejercicio 13 Sea ¡(K, +, •)¢un campo. Como K es un anillo conmutativo entonces, por el e a ejercicio anterior, K2 , +, • tambi´ n es un anillo. ¿Ser´ K2 un campo?

Secci´ n 1.2 o
Reales

N´ meros u

9

Dicen que cuando Pit´ goras (Samos 569­475 A.C.) descubri´ que a o la longitud de la hipotenusa de un tri´ ngulo rect´ ngulo con cate­ a a tos de longitud uno no es un n´ mero racional u √ qued´ horrorizado. A nosotros nos parece esto o 2 una exageraci´ n. Sin embargo, si nos ponemos 1 o en el lugar de Pit´ goras comprenderemos que a 1 en aquel momento era inconcebible que existan √ p n´ meros que no sean cociente de dos enteros. u 2 6= La pintura a la izquierda es un detalle del fres­ q co de Rafael “La escuela de Atenas” en la cual supuestamente, se muestra a Pit´ goras. a √ Sigamos a Pit´ goras y probemos que efectivamente 2 no es un racional. Para esto a √ denotemos por kak2 el n´ mero de veces que el natural a se divide entre 2. Tenemos 2 = u ° ° ° ° p ⇒ °2q2 °2 = °p2 °2 ⇒ 1 + 2 kqk2 = 2 kpk2 lo que es una contradicci´ n ya que un o q n´ mero impar no puede ser igual a uno par. u

Ejercicio 14 Sea n un n´ mero natural. Pruebe que n es un natural o no es racional. [126] u √ Ejercicio 15 Basandose en el anterior de otra prueba de que 2 no es racional. [126]
Esto motiva la construci´ n de los n´ meros reales R. La construci´ n de los reales es o u o un proceso complicado y se han descubierto muchas formas de formalizar esta construci´ n o siendo la m´ s popular la de las cortaduras de Dedekind. Para nuestros prop´ sitos basta una a o definici´ n menos formal y m´ s intuitiva: un n´ mero real es simplemente un l´mite de ra­ o a u ı cionales. Las propiedades de la suma y producto de racionales se traspasan f´ cilmente a los a reales usando las propiedades del l´mite de sucesiones. De esta manera obtenemos nuestro ı campo principal (R, +, •) . El campo de los reales se destaca porque es ordenado (siempre podemos decidir si un n´ mero real es mayor, menor o igual a cero) y porque es cerrado (el u l´mite de reales si existe es un real). Por otro lado, no es un factor a despreciar el hecho de ı que el espacio en que vivimos es (o al menos nos parece que es) R3 .

Ejercicio 16 Pruebe que la longitud de un segmento de recta es un n´ mero real. [126] u
Complejos Para lograr que todos los polinomios tengan raices inven­ √ tamos el imaginario i = −1 y definimos que un n´ mero u complejo es algo de la forma a + bi donde a, b ∈ R. La suma y el producto de complejos se definen por las f´ rmulas o en los recuadros a la derecha y abajo a la izquierda. (a + bi)

+

(a0 + b0 i) =

(a + a0 ) + (b + b0 ) i

10 (a + bi)

Cap´tulo 1. Campos ı

Las propiedades de la suma y el producto se desprenden inmediatamente de sus definiciones y es f´ cil comprobar a que (C, +, •) es un campo. La principal propiedad que hace (aa0 − bb0 ) + (ab0 + a0 b) i que para muchas cosas el campo C sea el m´ s simple es que a el (a diferencia de R) es algebraicamente cerrado, o sea que todo polinomio de grado n > 0 con coeficientes en complejos tiene n raices complejas.

×

(a0 + b0 i) =

1.3 Morfismos
En esta secci´ n estudiaremos las funciones entre conjuntos con operaciones binarias. o Morfismos de grupos Sean ◦ y • operaciones binarias definidas en los conjuntos A y B respectivamente. Una funci´ n f : A → B se le llama morfismo si para cualesquiera a1 y a2 elementos de A se o cumple que f (a1 ◦ a2 ) = f (a1 ) • f (a2 ). Todo morfismo conserva las propiedades fundamentales de las operaciones binarias. M´ s precisamente, si f : A → B es un morfismo entonces, a 1. • es una operaci´ n binaria dentro de la imagen de f. o 2. Si ◦ es conmutativa entonces • es conmutativa en la imagen de f. 3. Si ◦ es asociativa entonces • es asociativa en la imagen de f. 4. Si e es neutro de ◦ entonces f (e) es neutro de • en la imagen de f. 5. Si a0 es inverso de a en A entonces f (a0 ) es inverso de f (a) en B. Prueba. Sean b1 , b2 y b3 elementos cualesquiera en la imagen de f. Existen a1 , a2 y a3 en A tales que f (ai ) = bi para i ∈ {1, 2, 3}. Como f es un morfismo, obtenemos la igualdad (*) b1 • b2 = f (a1 ) • f (a2 ) = f (a1 ◦ a2 ) que prueba la primera afirmaci´ n. Si ◦ es conmutativa entonces, usando (*) obtenemos o b1 • b2 = f (a1 ◦ a2 ) = f (a2 ◦ a1 ) = b2 • b1 por lo que • es tambi´ n conmutativa. Si ◦ es asociativa entonces, usando (*) obtenemos e (b1 • b2 ) • b3 = f (a1 ◦ a2 ) • f (a3 ) = f ((a1 ◦ a2 ) ◦ a3 ) = = f (a1 ◦ (a2 ◦ a3 )) = f (a1 ) • f (a2 ◦ a3 ) = b1 • (b2 • b3 ) y por lo tanto • es asociativa en la imagen de f. Si e es neutro de la operaci´ n ◦ entonces, o b1 • f (e) = f (a1 ) • f (e) = f (a1 ◦ e) = f (a1 ) = b1 f (e) • b1 = f (e) • f (a1 ) = f (e ◦ a1 ) = f (a1 ) = b1 por lo que f (e) es el neutro de • en la imagen de f. Sea a0 el inverso de a en A entonces, f (a) • f (a0 ) = f (a ◦ a0 ) = f (e) f (a0 ) • f (a) = f (a0 ◦ a) = f (e) de lo que concluimos que f (a0 ) es el inverso de f (a).

si hay dos operaciones entonces. De aqu´ en lo adelante a la imagen de cualquier funci´ n f (y en particular de un morfismo) ı o la denotaremos por Im f. •) y (B. z ∈ A tales que f (x) = a.3 esta operaci´ n es asociativa. ´ ¿Y porqu´ siempre dentro de la imagen de f y no en todo B? La respuesta es que lo unico e que sabemos de B est´ dado por el morfismo. ¿Cual es su imagen? Morfismos de anillos ¿Y que pasa con la distributividad? ¿Tambi´ n se conserva? El primer problema que te­ e nemos que resolver es que en la distributividad est´ n involucradas dos operaciones.1.Secci´ n 1.1. o o Por 1. ◦) es un grupo entonces (Im f. f (y) = b y f (z) = c. Ejercicio 18 Construya un morfismo inyectivo de (R.5 cada elemento b = f (a) ∈ Im f o tiene su inverso f (a0 ) donde a0 es el inverso de a en A. Sean x.1. y. Si el dominio y el codominio de un morfismo son grupos entonces se dice que este es un morfismo de grupos.1.1.3 o Morfismos 11 Ejercicio 17 Justifique todas las igualdades utilizadas en la prueba de 1.4 esta operaci´ n tiene elemento neutro. Si (A. o Si • es distributiva con + en A entonces. Por 1. Sean a (A. +) en (R. •) dos conjuntos cada uno con dos operaciones binarias. se requiere que la funci´ n sea morfismo para cada una de ellas. Prueba. . Tenemos a • (b + c) = f (x) • (f (y) + f (z)) = f (x) • f (y + z) = f (x • (y + z)) = = f (x • y + x • z) = f (x • y) + f (x • z) = f (x) • f (y) + f (x) • f (z) = a • b + a • c y esto prueba la tesis. ı o Una funci´ n f : A → B se le llama morfismo si para cualesquiera a1 y a2 elementos de o A se cumple que f (a1 + a2 ) = f (a1 ) + f (a2 ) y f (a1 • a2 ) = f (a1 ) • f (a2 ).1 • es una operaci´ n binaria en Im f. Aquellos elementos de B que no tienen pre­ a imagen no los podemos enlazar con los de A y por lo tanto no podemos decir nada de ellos. Observese que estas son cuatro operaciones distintas pero hemos usado estas notaciones porque el trabajar con cuatro s´mbolos diferentes ya es demasiada confusi´ n. Recordemos que si f : A → B es una funci´ n entonces al conjunto A se le llama dominio o de f y al conjunto B codominio de f. Por 1. •) es un grupo. O sea. Esto completa la prueba de todos los axiomas de grupo. +. Prueba. Recalquemos que el “y” quiere decir que se tienen que cumplir las dos propiedades. Por 1. •). +. • es distributiva con + en la imagen de f.

Denotemos a1 = f−1 (b1 ) y a2 = f−1 (b2 ). a La inversa de un isomorfismo es un isomorfismo. En particular todo morfismo de campos es inyectivo. +. Si el dominio y el codominio de un morfismo son campos entonces se dice que este es un morfismo de campos. o ¿Cuando ser´ f−1 un morfismo? La respuesta es que siempre. En conclusion ambas operaciones se definen una a otra. +. Tenemos f−1 (b1 • b2 ) = f−1 (f (a1 ) • f (a2 )) = f−1 (f (a1 ◦ a2 )) = a1 ◦ a2 = f−1 (b1 ) ◦ f−1 (b2 ) que es lo que se requer´a demostrar. •) un isomorfismo. Definamos las operaciones ◦ y • mediante las tablas del recuadro a la derecha. •) es un anillo. . Sean b1 . ◦ se define de forma unica por la operaci´ n • y el isomorfismo f mediante la identidad o a1 • a2 = f−1 (f (a1 ) ◦ f (a2 )). As´ que tenemos isomorfismos e ı de grupos. ¿Podremos calcular b1 • b2 ? La respuesta es o ¡ ¢ si. Prueba. Para que el lector comprenda mejor eso de que ◦ y ◦ u v • 1 −1 • son la misma operaci´ n veamos un ejemplo. Esto se aplica tanto para con­ juntos con una como tambi´ n con dos operaciones binarias. Demuestre que lo mismo ocurre para los campos. (Im f. Lo mismo ocurre con la asociatividad. ◦) → (B. b2 cualesquiera elementos de B. Para cada isomorfismo f existe una funci´ n inversa f−1 . [126] Isomorfismos Ejercicio 19 Demuestre que si (A. Si el isomorfismo involucra dos operaciones binarias ı entonces el mismo argumento anterior. Ahora podemos aplicar 1. con la existencia de neutros e inversos y para el caso de dos operaciones con la distributividad.1 en los dos sentidos. •) es un isomorfismo entonces de que • es conmutativa implica que ◦ es conmutativa y en conclusi´ n ◦ es conmu­ o tativa si y solo si • es conmutativa. Rec´procamen­ ı ´ te. ◦) → (B. de anillos y de campos. v} y B el conjunto de los n´ meros u u v u v v u −1 −1 1 {1. Para convencernos de esto supongamos que conocemos la operaci´ n ◦ y conocemos el isomorfis­ o mo f pero no sabemos nada de la operaci´ n •. Sea A el o 1 1 −1 conjunto de letras {u. aplicado a las dos operaciones. a Pero no solo son operaciones parecidas sino que son en cierto sentido la misma. nos da la prueba de la tesis. Si f : (A. −1}. Ejercicio 20 Pruebe que si f : A → B es un morfismo de anillos y A es un campo entonces f es inyectivo. A los morfismos biyectivos se les llama isomorfismos. Sea f : (A. lo podemos calcular por la identidad b1 • b2 = f f−1 (b1 ) ◦ f−1 (b2 ) .12 Cap´tulo 1. Campos ı Si el dominio y el codominio de un morfismo son anillos entonces se dice que este es un morfismo de anillos. O sea que ◦ tiene ex´ ctamente las mismas propiedades de •. •) es un anillo y f : A → B es un morfismo entonces.

A la funci´ n o g ◦ f : A → C definida por (g ◦ f) (a) = g (f (a)) se le llama la composici´ n de f con g. g : B → C dos funciones. Esto lo que quiere decir. Composici´ n de morfismos o Sean A. Sin embargo. es que la funci´ n u 7→ 1 . La composici´ n de funciones es asociativa. u por 1 y v por −1. B y C hay definidas operaciones binarias. A los morfismos de un conjunto en si mismo se les llama endomorfismos y a los endomorfismos biyectivos se les llama automorfismos. que ellos sean isomorfos quiere decir que los dos son iguales con la salvedad de que podemos cambiar las notaciones de los elementos y las operaciones. A o partir de ahora el s´mbolo ◦ solo lo utilizaremos para denotar la composici´ n de funciones.3 o Morfismos 13 El lector debe observar que la segunda tabla es la tabla usual de multiplicaci´ n de enteros. ı o Observese el orden en que escribimos las funciones ya que la composici´ n de funciones no o es conmutativa. •). solamente que las notaciones para los elementos y la operaci´ n est´ n cambiadas. El lector puede ver que ambas tablas son en esencia la misma. Sean f : A → B . En forma intuitiva. Entonces f. Etimol´ gicamente. g : B → C y h : C → D tres funciones. B y C tres conjuntos y f : A → B .Secci´ n 1. para obtener la segunda tabla de la primera lo unico que necesitamos es cambiar ◦ a por • . o Prueba. o Prueba. ◦) en (B. Por definici´ n de o composici´ n para cualquier a ∈ A tenemos o (h ◦ (g ◦ f)) (a) = h ((g ◦ f) (a)) = h (g (f (a))) = (h ◦ g) (f (a)) = ((h ◦ g) ◦ f) (a) que es lo que se quer´a probar ı Ahora. Ciertos tipos de morfismos tienen nombres especiales. A los morfismos sobreyectivos se les llama epimorfismos. Como f y g ı son morfismos tenemos (g ◦ f) (a • b) = g (f (a • b)) = g (f (a) • f (b)) = g (f (a)) • g (f (b)) = (g ◦ f) (a) • (g ◦ f) (b) que es lo que se necesitaba probar. o a Si para dos grupos (o anillos o campos) existe un isomorfismo entre ellos entonces se dice que ellos son isomorfos. o . supongamos que en A. Ejercicio 21 Pruebe que el conjunto de todos los automorfismos de un conjunto con una o dos operaciones binarias es un grupo con respecto a la composici´ n de funciones. v 7→ −1 es o un isomorfismo de (A. la palabra “isomorfo” significa que “tie­ o nen la misma forma”. e Las composici´ nes de morfismos son morfismos. B y C con el mismo s´mbolo •. a los injectivos se les llama monomorfismos. si f y g lo son entonces f ◦ g tambi´ n lo es. o ´ Adem´ s. g y g ◦ f pueden ser morfismos o no. Denotemos las operaciones en A.

o a lo m´ s. (Z. el menor natural k tal que existe un entero t para los cuales a ¡ b = (ab) mod n a = k + tn.4 Campos de restos Hasta ahora los campos que conocemos son Q. De ahora en lo adelante no haremos m´ s esto. 1. b ∈ Z por definici´ n de f existen enteros o o. ¢. . ¡) dada por f (a) = a mod n o es un morfismo de anillos. •) es un anillo conmutativo y los morfismos preservan las propiedades de las operaciones binarias. Lue­ go. O sea.14 Cap´tulo 1. En esta secci´ n presentaremos ciertos cam­ o pos que tienen un n´ mero finito de elementos. 2 + 3 = 5 si la suma es la ı habitual de enteros o es la de Z11 pero 2 + 3 = 1 si la suma es la de Z4 . Prueba. ¢. O a ¢ b = (a + b) mod n o o sea. b = f (b) + pn y a + b = f (a + b) + qn. o Como f es sobreyectiva. p. Z3 y Z4 . As´ por ejemplo.. ¢. (Zn . con un punto. q tales que a = f (a) + on. Es imprescindible. Por definici´ n a mod n ∈ Zn = {0. Campos ı 1. f (ab) = f (a) ¡ f (b). n − 1} o por lo que en Zn hay naturalmente definidas dos operaci´ nes binarias como se muestra en el o recuadro. ¡) es un anillo conmutativo. f (ab) es el resto de la divisi´ n de f (a) f (b) entre n o sea. La suma en Zn se denotar´ con el a a s´mbolo + y el producto. •) → (Zn . +. con la ausencia de s´mbolo alguno. f (a + b) = f (a) ¢ f (b). usaremos las propiedades u de los morfismos de la secci´ n anterior. . R y C que se supone que ya son muy conocidos por el lector. +. ¡) es tambi´ n un anillo e conmutativo. Para cualesquiera a. Tenemos que f (a)+f (b) = a+b−(o + p) n = f (a + b)+(q − o − p) n y por lo tanto f (a + b) es el resto de la divisi´ n de f (a) + f (b) entre n. para dar una intuici´ n saludable de lo que es un o campo.. concluimos que (Zn . Probemos que la funci´ n f : (Z.. o El anillo de los enteros m´ dulo n o Sea n un n´ mero natural mayor que 1. Para construirlos. Ejercicio 22 Construya las tablas de sumar y multiplicar en Z2 . El objetivo de esto fu´ el asegurarnos que en la demostraci´ n del resultado e o anterior el lector no se confundiera con la suma y el producto habitual de n´ me­ u ros enteros. introducir otros que no sean tan usuales. Para ı ı a poder hacer esto es necesario que el lector comprenda (muchas veces solo del contexto) en que sentido estamos utilizando estas notaciones. Para un entero a la u notaci´ n a mod n significa el resto de la divisi´ n de a entre n. Hemos denotado la suma y el producto en Zn con los s´mbolos extra˜ os ¢ y ı n ¡. o Por otro lado tambi´ n existe otro entero r tal que ab = f (ab) + rn y de aqu´ f (a) f (b) = e ı (a − on) (b − pn) = ab + (nop − bo − ap) n = f (ab) + (r + nop − bo − ap) n.

Todo dominio de integridad finito es un campo. R y C son dominios de integridad. Veamos por ejemplo el caso de Z6 . . Luego. Para ver que A es un campo solo hay que demostrar que todo elemento no nulo tiene inverso. Prueba. es la existencia de inversos para el producto. Luego. El campo de los enteros m´ dulo p o Y ¿que pasa cuando p es primo? Zp es un dominio de integridad. . . Aqu´ tenemos ı 2·3 = 0. Luego. Z6 no es un campo. Esta funci´ n es inyectiva ya que o o (ax = ay) ⇒ (a (x − y) = 0) ⇒ (x − y = 0) ⇒ x = y Como fa es una funci´ n inyectiva de un conjunto finito en si mismo es tambi´ n sobreyectiva. el producto de dos n´ meros diferentes de cero es igual a cero. q = 0. Luego. e Todo campo es un dominio de integridad.4 o Dominios de integridad Campos de restos 15 Despu´ s de saber que (Zn . Tambi´ n ya vimos que Z6 no es dominio de integridad. ya que lo unico que le falta a un anillo conmutativo para ser campo. Como p es primo entonces. ¿Es posible u eso en un campo? Veremos que no. Sea n = pq una a descomposici´ n en factores no triviales (ambos diferentes a 1) de n. o e Luego tiene que existir b tal que fa (b) = ab = 1. Este ejemplo se generaliza f´ cilmente. Si xy = 0 en Zp entonces xy = 0 mod p. Zn no es un dominio de integridad y por lo tanto no es un campo. Que raro. +. Denotemos por fa la funci´ n A 3 x 7→ ax ∈ A. Sea A un dominio de integridad finito. Sabemos que Z. en Z tenemos que xy = kp. Prueba. ·) es un anillo conmutativo. Supongamos pq = 0 y p 6= 0 entonces multiplicando la primera igualdad por el inverso multiplicativo de p obtenemos 0 = p−1 0 = p−1 pq = q. Sean x. p divide a x o y pero esto no puede ser ya que ambos son menores que p. y ∈ {1. si n es un n´ mero compuesto (no primo) a u entonces. . Q. Sea a un elemento arbitrario no nulo de A. Esto demuestra que a tiene inverso. Este resultado no es suficiente para probar que Zp es un campo ya que hay dominios de integridad que no son campos (por ejemplo Z). Sabemos que p y q o est´ n en Zn y que pq = n = 0 mod n.Secci´ n 1. p − 1} . . Un anillo conmutativo se le llama dominio de integridad si el producto de dos elementos es diferente de cero entonces ellos son los dos diferentes de cero. Prueba. Nos hace falta el siguiente resultado. lo natural es preguntarnos si e ´ este es un campo.

p − 1} como subconjunto de Q. Zp NO es un subcampo de Q (ya que por ejemplo 2 (p − 1) = p − 2 en Zp lo que no es cierto en Q). Campos ı ´ Como Zp es un dominio de integridad finito de este ultimo resultado concluimos inme­ diatamente que Zp es un campo si y solo si p es un n´ mero primo. El n ı apellido Galois se pronuncia en espa˜ ol como “galu´ ” n a Ejercicio 23 Ejercicio 24 Ejercicio 25 Ejercicio 26 ¿Cual es el n´ mero m´nimo de elementos que puede tener un campo? [126] u ı Halle los inversos de los elementos no nulos de Z5 . por el otro. 1. producto e inverso est´ n correctamente definidas dentro de L y el tiene que contener a a 0 y a 1. El muri´ a o ı o los 20 a˜ os en un duelo provocado por asuntos amorosos y/o pol´ticos.16 Cap´tulo 1. u . [127] Demuestre que Z2 con las operaciones (a. •) es isomorfo al grupo aditivo (Zp−1 . . que a su a vez es subcampo de C. ab ∈ L. (L es un subgrupo aditivo) 2. que es subcampo R. u Subcampos Sea K un campo.. A los campos finitos se les lama campos de Galois en honor al matem´ tico franc´ s Evariste Galois (1811­1832). Caracter´stica ı En esta secci´ n estudiaremos los campos m´ s peque˜ os posibles. [127] Demuestre que (Zp \0. Como los axiomas de campo se cumplen dentro de todo K.. con m´ s raz´ n se a o cumplen dentro de L. b ∈ L se tienen que cumplir las siguientes propiedades 1. a + b ∈ L. El concepto de subcampo incluye las operaciones. u u Los campos Zp son los primeros ejemplos de campos que tienen un n´ me­ ro finito de elementos. −a ∈ L. ning´ n Zp es subcampo de Zq para p 6= q. El ejemplo m´ s sencillo de esto es Q. Si por un lado podemos consi­ derar a Zp = {0. las operaciones de suma.5 Campos primos. b + b0 ) y 11 0 0 (a. ab0 + a0 b) es un campo de 121 elementos. b) + (a0 . a−1 ∈ L. ı opuesto. Si L es un subcampo de K entonces ∀a.. 1. si se cumplen las propiedades 1 y 2 entonces. Veremos que todo cam­ o a n po contiene a Q o contiene a Zp para cierto n´ mero primo p. b0 ) = (a + a0 . b ) = (aa0 + 7bb0 . b) (a . (L\{0} es un subgrupo multiplicativo) Rec´procamente. Al resolver el a e problema de encontrar cuales ecuaciones polinomiales son solubles en radi­ cales y cuales no. Galois de facto invent´ la Teor´a de Grupos. De la misma manera. Un subcampo de K es sencillamente un subconjunto de K que es campo para las mismas operaciones. +). Esto indica que para comprobar si L es un subcampo basta comprobar las propiedades 1 y 2.

Los subcampos que no son todo el campo se les llama subcampos propios. z }| { Prueba. n es un elemento del campo. Sea un K campo. observemos que el conjunto P no solo est´ contenido en K sino que tambi´ n est´ contenido en cualquier subcampo de K. Hemos probado la primera afirmaci´ n del teorema o sea. Como sabemos dividir los enteros con resto entonces. a n Tenemos n = p ⇒ p − n = p − n = 0. sea p el natural m´ s peque˜ o para el cual existe n < p tal que n = p. + 1 donde u 1 es el neutro multiplicativo de K. b no cero tales que ab = 0.5 o Campos primos Campos primos. deducimos que Q est´ contenido en cualquier subcampo de K y como a ´ Q * Zp entonces. Zp es el unico subcampo primo de K.. Por la misma raz´ n. Para un n´ mero natural n denotemos por n = 1 + . De aqu´ ı z }| { z }| { · x = a + kp = a + kp = a + 1 + ·{z· + 1 + · · · + 1 + ·{z· + 1 = a + 0 + · · · + 0 = a · | } } | p veces p veces kp veces k veces o lo que muestra que P es el anillo Zp de los restos m´ dulo p. La aplicaci´ n n 7→ n es una biyecci´ n de en N en P.Secci´ n 1. existen naturales a. Caracter´stica ı 17 Todo campo tiene como subcampo a el mismo. Sea ahora x > p. Hay dos posibilidades excluyentes o 1. n = 0 y por lo tanto p = 0. Zp es un subcampo de K. p − n < p y adem´ s p − n = 0 a lo que contradice la minimalidad de p. deducimos que ´ a Zp est´ contenido en cualquier subcampo de K y como Zp * Q entonces. Luego. todo campo contiene a Q o o contiene a cierto Zp . Para ver la validez de la segunda. En el segundo. k tales que x = a + kp y a < p. Existen dos naturales distintos n y m tales que n = m. Q es el unico subcampo primo de K. Como K es un campo tambi´ n tiene que e contener a los opuestos de los naturales. Si n > 0 entonces. e En el segundo caso. En cierto sentido los campos primos son los m´ s sencillos y a podemos decir cuales todos ellos. Como en un campo esto no es posible entonces. a e a En el primer caso. Denotemos por P = {n ∈ K | n ∈ N} . o 2. deducimos que p es primo.. Observese que 0 = 0. en Zp ⊂ K hay dos elementos a. Obviamente. Esto tambi´ n prueba que Q es un campo primo. Teorema de Clasificaci´ n de Campos Primos o Un campo primo o es Q o es Zp para cierto n´ mero primo p. A los campos que no tienen ning´ n subcampo propio se u les llama campos primos (por analog´a con los n´ meros primos que son los naturales que ı u no tienen divisores propios). u Un campo no puede contener dos subcampos primos diferentes. o sea a los enteros. Esto tambi´ n e prueba que Zp es un campo primo. Luego. Si p no es primo entonces. n veces En el primer caso K contiene a los naturales. . K tiene o que contener a los inversos de los enteros con lo que se prueba que los racionales son un subcampo de K.

a ´ Multiplos y exponentes enteros En todo campo para cualquier n´ mero entero n y cualquier elemento del campo a se u usan las siguientes notaciones ⎧ ⎧ n veces n veces }| { ⎪ z ⎪ z }| { ⎨ a + a + . Por m´ s que tratemos construir un campo raro pero muy raro (lo que es posible) no a lograremos que se dejen de cumplir todas las propiedades de la aritm´ tica las cuales nos e son familiares desde temprana edad. o Ejercicio 27 ¿Contradice o no 1. Se dice que un campo es de caracter´stica ı ı p si este contiene a Zp . ai Recordemos nuevamente el uso del s´mbolo de sumatoria Σ. Si A es un conjunto ı finito de elementos del campo entonces podemos escribir la expresi´ n en el re­ o cuadro a la izquierda para expresar que queremos sumar todos los elementos del conjunto A = {a1 . Se dice que un campo es de caracter´stica 0 si este contiene a Q.a si n > 0 n na = a = si n = 0 0 si n = 0 ⎪ ⎪ 1 ⎩ ⎩ 1 si n < 0 (−n) (−a) si n < 0 a− n Asociatividad general n X i=1 y se cumplen las propriedades usuales: (n + m) a = na + ma y an+m = an am ..18 Caracter´stica ı Cap´tulo 1. ...12 que todo campo es un dominio de integridad? [128] Ejercicio 28 ¿Es cierto o no que en todo campo (a = −a) ⇒ (a = 0)? [128] 1. Pasemos a describir en toda su generalidad algunas consecuencias simples y otras un poco m´ s complicadas de los axiomas de campo lo que nos a convencer´ de lo afirmado. Luego. ta = t1a = 0a = 0. Campos ı Por el teorema anterior cualquier campo o contiene a Q o contiene a Zp . ta = 0 para cualquier a ∈ K.. La caracter´stica de un campo es un n´ mero primo o es cero.6 Aritm´ tica de campos e Los campos se comportan en la mayor´a de las cosas importantes como los n´ meros ı u reales. .. La ı u propiedad fundamental de la caracter´stica de un campo es la siguiente: ı Si K es un campo de caracter´stica t ı entonces. Si t es primo entonces.. por la prueba del Teorema o de caracterizaci´ n de campos primos. an }. Si t = 0 la afirmaci´ n es trivial.. Prueba. tenemos t1 = 0. + a si n > 0 ⎨ aa.

. Para arreglar este defecto. an } . para muchos factores tenemos a à !à ! à ! X X X XX X a b ··· c = .6 o Aritm´ tica de campos e 19 ´ La asociatividad de la operaci´ n de suma nos dice que esta expresi´ n tiene sentido unico o o ya que no es necesario explicitar las sumas hay que realizar primero y cuales despu´ s. un monomio P xn1 · · · xnm aparece como sumando a la derecha en la f´ rmula (*) si y solo si Pni = n (ya o m 1 que los sumandos en (*)son productos de n elementos de A).. Por ejemplo. Usando las leyes de a ı los campos obtenemos (a + b) (c + d) = a (c + d) + à !à ! X X XX b (c + d) = ac + ad + bc + bd y el lector podr´ con­ a a b = ab vencerse f´ cilmente haciendo el c´ lculo para conjuntos a a a∈A b∈B a∈A b∈B peque˜ os A y B que en general se cumple la f´ rmula n o de la derecha. m´ s consisa es esta otra nota­ X o a ci´ n en el recuadro a la derecha que podemos usar gracias a la conmutatividad de o a la suma.. Solo es a∈A a e necesario especificar cual es el conjunto A de elementos que se est´ n sumando. el pro­ o ducto aabacccbba que pudiera aparecer como sumando a la derecha de la igualdad tiene (gracias a la asociatividad y conmutatividad del producto) una manera mucho m´ s sencilla a de expresarse como a4 b3 c3 .... F´ rmula multinomial o Aplicando la forma general de la ley distributiva al caso en que todos los conjuntos sean iguales obtenemos la siguiente f´ rmula: o à !n X X X a = .. e En realidad incluso esta notaci´ n es redundante. Supongamos que ni = n. . M´ s general. xm }. Si todos los ni son uno o cero entonces en (*) hay n! sumandos iguales al monomio xn 1 · · · xnm m 1 (ya que podemos ordenarlos de ese n´ mero de maneras). Distributividad general Mucho m´ s dif´cil es dar una forma general de la ley distributiva. a1 · · · an (*) a∈A a 1 ∈A a n ∈A Esta f´ rmula aunque relativamente sencilla tiene un gran defecto... . nm son naturales entonces. Si digamos n7 es mayor que 1 en­ u . O sea no importa si en la suma a1 est´ delante de a2 o al rev´ z. ab · · · c a∈A b∈B c∈C a∈A b∈B c∈C A esta igualdad la llamaremos forma general de la ley distributiva y tendremos muchas ocaciones en que la usaremos.. .. d´ mosle nombres a los elementos de e A y pongamos A = {x1 . a Como tenemos que el producto de elementos de un campo es tambi´ n e n Y Y asociativo y conmutativo podemos usar las expresiones equivalentes de ai = a la izquierda para denotar el producto de todos los elementos del conjunto i=1 a∈A A = {a1 .Secci´ n 1... Ahora si n1 .

n} y expresar la forma a o general de la ley distributiva en nuestro caso de la siguiente manera à ! à ! X X X X XY α1j1 · · · αnjn = . . Es importante ´ que el estudiante que desee estudiar el algebra lineal a profundidad se familiarize bien con estos argumentos ya que las formas multili­ neales y en particular los determinantes son muy parecidos a la parte derecha de la igualdad (*). la optica y el c´ lculo diferencial. . . Supongamos que N es un conjunto a αij finito de ´ndices y que para cada pareja de ´ndices (i. Campos ı tonces tenemos que dividir por n7 ! ya que al permutar x7 . . α1j1 · · · α1jn = αiji j1 ∈N jn ∈N j1 ∈N jn ∈N i∈N donde la suma m´ s a la derecha en esta igualdad recorre todos los elementos (j1 . . .. finalmente o obtenemos la siguiente expresi´ n conocida como f´ rmula multinomial.20 Cap´tulo 1. jn ) a del producto cartesiano N × · · · × N de n copias de N o sea. . jn ) es que tenemos una funci´ n f : N = {1. .x7 no obtenemos nuevos suman­ dos en (*). Fundador de la mec´ ni­ ı a a ´ ca. . Nuestro objetivo es usar la ley distri­ butiva para expresar el elemento del campo del recuadro a la derecha como una suma de productos. . Para esto lo m´ s c´ modo es pensar que el conjunto N es {1. el conjunto NN de . Otra manera de pensar o a (j1 . . . Lo mismo sucede con los otros ni .. . Nn . Como por definici´ n 0! = 1! = 1. .nm ! 1 i=1 donde la suma a la derecha de la igualdad recorre todas las soluciones en n´ meros naturales u P de la ecuaci´ n ni = n. o o à m !n X X n! xn 1 · · · xnm xi = m n1 !. n} 3 i 7→ ji = f (i) ∈ N y en nuestra suma tenemos que recorrer todas estas posibles funciones o sea. o Si bien las f´ rmulas que hemos demostrado parecen ser complicadas o los argumentos que llevan a ellas son muy sencillos. En el caso particular m = 2. .. ı o o La expansi´ n de ΠΣαij o Ahora deduciremos otra consecuencia de la forma general de la ley distri­ Y X butiva que usaremos mucho m´ s adelante. Probablemente el cien­ t´fico m´ s renombrado de todos los tiempos. Sus tres leyes de la mec´ nica a a fundaron la base de la ingenier´a que llev´ a la revoluci´ n industrial. . j) tenemos un elemento i∈N j∈N ı ı del campo K que denotaremos por αij ... haciendo los cambios de variables o n = n1 y k = n1 − n2 obtenemos (x + y) = n n 1 +n 2 X n! n 1 n 2 X n! x y = xk yn−k n1 !n2 ! k! (n − k) ! =n k=0 n que es la famosa f´ rmula del binomio de Newton.. Sir Isaac Newton (Inglaterra 1643­1727).

Suma y producto de polinomios Aunque el lector seguramente conoce las definiciones de suma y producto de polino­ mios. Luego.. En este sentido. . La manera m´ s sencilla de ver­ a n los es que un polinomio de grado n en la literal x es una expresi´ n formal del X o ai xi tipo en el recuadro a la derecha donde los coeficientes a0 . De la misma manera el binomio de Newton no tiene nada que ver con que si los n´ meros son reales o u complejos u otros. Q.. interpretamos al polinomio como la imagen por la funci´ n de evaluaci´ n o o de la variable x que toma sus valores en el campo. (fg) (x) = f (x) g (x). en estas notaciones finalmente obtenemos XY YX αij = αif(i) i∈N j∈N f∈N N i∈N que es una f´ rmula que ya no depende de cual es el conjunto N. No tenemos que demostrar el teorema de Pit´ goras ı o a para tri´ ngulos de acero. usando la forma general . madera. Esta es u la ventaja intr´nseca de la abstracci´ n. Esto quiere e P decir que un polinomio define una funci´ n K 3 x 7→ ai xi ∈ K y en esta interpretaci´ n x o o no es una literal sino una variable. Solo basta que nuestros n´ meros formen un campo. o necesitamos que la suma y producto de polinomios concuerde con la definici´ n de suma y o producto de funciones (f + g) (x) = f (x) + g (x). Zp o cualquier otro campo que a´ n no conoscamos.7 Polinomios sobre campos Hay muchas maneras de ver los polinomios. Estas propiedades no tienen nada que ver con que el a cuadrado de la hipotenusa sea igual a la suma de los cuadrados de los catetos. Siendo esta interpretaci´ n de los polinomios fundamental.7 o Polinomios sobre campos 21 todas las funciones de N en N. Por esto. estas son v´ lidas en cualquier anillo conmutativo. C. 1. u Un lector atento.. Si interpretamos a x como un e P elemento del campo K entonces. por aritm´ tica se entiende a a e el estudio de las propiedades de divisibilidad en anillos. la aritm´ tica de campos es trivial ya e que todo elemento se divide entre cualquier otro no nulo. sea este R. an son elementos i=0 de cierto campo K y an 6= 0. podr´a observar que en las pruebas de todas las f´ rmulas en ning´ n momento usa­ ı o u mos la existencia de inversos en el campo. o Debemos recalcar una vez m´ s que todo lo dicho en esta secci´ n es v´ lido para cual­ a o a quier campo. ai xi tambi´ n es un elemento del campo K. Para el producto. a A diferencia de las matem´ ticas elementales en matem´ ticas superiores. etc. Al coeficiente an se le llama coeficiente principal del polinomio. Luego. nos parece apropiado recordar el porqu´ de las mismas. tenemos n n n n X X X¡ ¢ X ai xi + bi xi = (ai + bi ) xi ai xi + bi xi = i=0 i=0 i=0 i=0 donde la primera igualdad se da por asociatividad y conmutatividad y la segunda por distri­ butividad.Secci´ n 1. O sea.

Sea p = ai xi un polinomio de grado n y q = bi xi un polinomio de grado m. + ci )q + ri y el grado de ri es estrictamente menor que el grado de q. Existen polinomios c y r tales que 1. o que q es un divisor de p. Obviamente. hay un i tal que p = (c1 + . Si n < m entonces poniendo c = 0 y r = p terminamos.. Diremos que q esP factor de p si q divide a p y el grado de q es al menos uno. conmutatividad y distributividad. si no entonces. Se puede saber sumar y multiplicar polinomios sin saberse estas f´ rmulas. Factores y raices Sean p y q dos polinomios. Lo importante es saber aplicar sistem´ ticamente asociatividad. p = cq + r 2. Entonces. Obviamente n ai bi es tambi´ n un elemento del campo ya que la suma. o que p es un multiplo de q. Esto nos da una funci´ n K 3 b 7→ p (b) ∈ K llamada la funci´ n de o o i=0 de la ley distributiva tenemos ⎛ Ã n !Ã m ! n X n+m m X X X X ⎝ ai xi bj xj = ai bj xi+j = i=0 j=0 i=0 j=0 k=0 i=m´ x(0.k) ı donde la segunda igualdad se obtiene haciendo el cambio de variable k = i + j y usando aso­ ciatividad. Al polinomio c = c1 + . Si el grado de r1 es menor que el grado r1 = ai xi − c1 bi xi de q entonces ya terminamos. + ci se le llama cociente de p entre q.. sacando cuentas nos podemos convencer xn−m an de que p = c1 q + r1 donde c1 y r1 son los polinomios en los recuadros. A este anillo se lo denota por K [x]. la multi­ e i=0 plicaci´ nP las potencias est´ n bien definidas en un campo arbitrario. El grado de r es estrictamente menor que el grado de q.k−m) a X ai bk−i ⎠ xk ⎞ . cualquier polinomio de grado cero divide a cualquier otro polinomio (en un campo hay inversos). c1 = bm El grado de r1 es menor que el grado de m−1 n−1 P P p. Supongamos m ≤ n. Luego. haciendo los i=0 i=0 mismos c´ lculos podemos escribir r1 = c2 q + r2 y vamos a disminuyendo el grado de ri hasta que este sea menor que el grado de q. Es natural denotar o y a p (b) = n ai bi . Divisi´ n de polinomios o Divisi´ n con Resto de Polinomios o Sean p y q dos polinomios. P P Prueba. Sea b un elemento arbitrario del cam­ i=0 po. al polinomio r = ri se le llama resto de p entre q.. Campos ı m´n(n. Si existe un polinomio c tal que p = cq entonces se dice que ´ q divide a p.22 Cap´tulo 1.. El conjunto de todos los polinomios sobre un campo arbitrario K forma un anillo conmutativo (para ser campo solo le falta la existencia de inversos multiplicativos). un Sea p (x) = Pn ai xi un polinomio en K [x] . o a conmutatividad y distributividad para obtener el resultado deseado.

En otras palabras. Es mucho m´ s c´ modo pensar que si una ra´z tiene multiplicidad n entonces a o ı hay n “diferentes” raices todas del mismo “valor”. 4}. o sea o o son los elementos del campo b tales que p (b) = 0. Dividamos con resto p entre (x − b). . Sean c y r tales que p (x) = c (x) (x − b)+r. la suma es una operaci´ n binaria dentro del ideal y cualquier m´ ltiplo o u de un elemento del ideal tambi´ n est´ en el ideal. Esta afirmaci´ n es cierta no o solo para cuando b1 6= b2 sino tambi´ n cuando son iguales pero la ra´z tiene multiplicidad e ı mayor que 2. Las e raices y los factores de un polinomio est´ n enlazados por el siguiente resultado: a Para que b sea una ra´z de p es necesario ı y suficiente que (x − b) sea un factor de p. si b es ra´z entonces. Luego. a Ahora el nucleo de un polinomio no es exactamente un conjunto sino una “colecci´ n” de o elementos del campo en¢la cual puede haber elementos repetidos. q ∈ I entonces p + q ∈ I. Como (x − b) es de grado uno r tiene que ser de grado cero. Al conjunto de todas las raices de p lo llamaremos nucleo de p y lo denotaremos por Ker p (en ingl´ s “nucleo” es “kernel”). Los ideales m´ s sencillos son los que e a a . Si n ≥ 1 es el mayor natural tal que (x − b)n es factor ı de p entonces a n se le llama multiplicidad de la ra´z b. Esto contradice que p i=1 tiene grado n. As´ por ejemplo tenemos ı ¡ Ker x3 − 6x2 + 9x − 4 = {1. ı ı Sea b una ra´z del polinomio p. Los ceros de esta funci´ n son las raices del polinomio p. Evaluando en b obtenemos p (b) = c (b) (b − b) + r = r. Si p ∈ I entonces para cualquier polinomio r ∈ K [x] tenemos que rp ∈ I. Si elQ polinomio p tiene como raices a b1 . por 1. . Le dejamos al lector interesado la desagradable tarea. . Prueba. Ideales de polinomios Un conjunto I de polinomios se llama ideal si se cumplen las dos siguientes propiedades: 1. Si p. Este abuso del lenguaje ser´ com´ n en este libro y a partir de ahora no tendremos necesidad de usar a u continuamente el concepto de multiplicidad. a Prueba. Es muy inc´ modo trabajar con el ı o concepto de multiplicidad. Por ejemplo. r = 0 y rec´procamente.15. de ajustar los hechos expuestos a un lenguaje m´ s riguroso. bn+1 entonces p tiene. Ajustada nuestra terminolog´a.7 o Polinomios sobre campos 23 evaluaci´ n del polinomio p. tomemos la afirmaci´ n: “Si b1 y b2 son dos raices o del polinomio p entonces (x − b1 ) (x − b2 ) es un factor de p”. 1. como factor a n+1 (x − bi ) que es un polinomio de grado n + 1.Secci´ n 1. podemos establecer una ı importante consecuencia del resultado anterior. 2. Un polinomio de grado n tiene a lo m´ s n raices. .

Teorema de Bezout Sean p y q dos polinomios sin factores comunes. Existen polinomios α y β tales que αp + βq = 1. Sea I un ideal. Esto prueba que Im = I o sea. Prueba. Estos ideales se les llama ideales principales. Famoso en su epoca sobre todo por los seis vol´ menes de su libro de texto “Cours complet de math´ matiques a l’usage u e ` de marine et de l’artillerie” que por muchos a˜ os fueron los libros que estudia­ n ´ ban los que aspiraban a ingresar a la “Ecole Polytechnique”. que I es principal. Im = {αm | α ∈ K [x]}. Efectivamente. existen dos enteros α y β tales que αp + βq = 1. esto significa que m es de grado cero y por lo tanto Ipq = K [x]. r tales que g = αm + r donde el grado de r es menor que el grado de m o r es nulo. a 0 0 0 (αp + βq) + (α p + β q) = (α + α ) p + (β + β0 ) q = α00 p + β00 q u donde α00 = (α + α0 ) y β00 = (β + β0 ). Veamos primero que la suma de elementos de Ipq est´ en Ipq . Como todo ideal de polinomios es principal.24 Cap´tulo 1. En particular. Si qp y q0 p son dos tales u m´ ltiplos entonces qp + q0 p = (q + q0 ) p tambi´ n es un m´ ltiplo de p. existen polinomios α y β tales que p = αm y q = βm. γ (αp + βq) = γαp + γβq = α p + β0 q donde a α0 = γα y β0 = γβ y con esto concluimos que Ipq es un ideal. Campos ı se forman tomando todos los m´ ltiplos de un polinomio fijo p. Probemos que Ipq es un ideal. Prueba. Su investigaci´ n o matem´ tica la dedic´ al estudio de los determinantes y de las soluciones de a o ecuaciones polinomiales. Esto demuestra u e u la propiedad 1. Por u la propiedad 1 se tiene que Im ⊆ I. . La propiedad 2 se cumple obviamente. Como p. Lo asombroso es que todo ideal es as´. 1730­1783). De la minimalidad del grado de m obtenemos r = 0. Denotemos por Ipq = {αp + βq | α. β ∈ K [x]}. ı Todo ideal de polinomios es principal. Tenemos. comprobemos que los m´ ltiplos de los 0 elementos de Ipq est´ n en Ipq . y por lo tanto g ∈ Im . Ejercicio 29 Demuestre el teorema de Bezout para Z: Sean p y q dos enteros sin factores comunes. Sea ahora m un polinomio no nulo de grado m´nimo tal que m ∈ I ı y denotemos por el conjunto de todos los m´ ltiplo de m o sea. Entonces. Ahora. q ∈ Ipq . Tenemos r = g − αm y por las propiedades 1 y 2 esto significa que r ∈ I. si g ∈ I entonces dividiendo g entre m obtenemos polinomios α. Como p y q no tienen factores comunes. existe m tal que Ipq = {αm | α ∈ K [x]}. [128] ´ Etienne Bezout (Francia. Efectivamente. 1 ∈ Ipq . Probemos que Im = I.

pn donde α es su coeficiente principal y p1 · · · pn son polinomios irreducibles. Adem´ s. cuando no se puede descomponer no trivialmente en producto de dos factores. ı Lo que no es inmediato es que esta descomposici´ n es “´ nica”. Prueba. Como r y q no tienen factores comunes entonces. pn donde α es su coeficiente principal y p1 · · · pn son polinomios irreducibles. solamente nos tenemos que fijar en los factores m´ nicos de p0 . reordenar es lo unico que podemos hacer para obtener otra descomposici´ n. Si reordena­ o u mos los factores. sacando como factor el coeficien­ a te principal podemos suponer que p es m´ nico. o ´ Prueba. . Bueno. existen α y β tales que αr + βq = 1 y de aqu´ p = αrp + βpq. Sean p y q dos polinomios y r un factor de pq. En otras palabras. los polinomios de grado cero. Si r y q no tienen factores comunes entonces r es factor de p. Como ambos sumandos a la derecha ı se dividen entre r entonces. Luego. . . Si un polinomio no es irreducible puedo descomponerlo en producto de dos factores. Solamente debemos probar la unicidad. para o descomponer p en factores. La ventaja de trabajar con polinomios m´ nicos es que cualquier polinomio p o se descompone como αp0 donde α es su coeficiente principal y p0 es m´ nico. . . e Teorema de Factorizaci´ n de Polinomios o Cualquier polinomio p se descompone como αp1 p2 .7 o Polinomios sobre campos 25 Unicidad de la factorizaci´ n en irreducibles. si q es m´ nico y p 6= q. p tambi´ n se divide entre r. La prueba de esto es obvia. o Completemos la demostraci´ n por inducci´ n en el grado del polinomio. o Diremos que un factor q es factor propio del polinomio m´ nico p. Cualquier polinomio p se puede descomponer como αp1 p2 . o Al descomponer un polinomio en factores causan muchos problemas de escritura los di­ visores que no son factores o sea. casi. obtenemos otra descomposici´ n. Para esto supon­ o o gamos que el teorema es cierto para cualquier polinomio de grado estrictamente menor que k y probemos el teorema para los polinomios de grado k. Si p es de grado 1 entonces no hay nada que o ´ probar ya que entonces p es irreducible y la unica descomposici´ n de p es el mismo. por el Teorema de Bezout. Por esto es conveniente introducir la siguiente definici´ n. o ´ El sentido preciso de unicidad en este caso es que. Para obtener la demostraci´ n de esto primero necesitamos o o un sencillo lema de divisibilidad de polinomios. Si estos factores no son irreducibles puedo descomponer en factores cada uno de ellos y as´ sucesivamente llegamos a factores irreducibles. gracias a la conmutatividad del producto. tiene grado mayor que 1 y no o tiene factores propios.Secci´ n 1. Un polinomio se le llama m´ nico si su coeficiente prin­ o o cipal es 1. Esta descomposici´ n es unica salvo el orden de los factores. o o Un polinomio se le llama irreducible si este es m´ nico.

Como el lector sabe de los cursos de c´ lculo. . A esta f´ rmula.18 el polinomio p01 es un factor de p1 . . pn = p01 .26 Cap´tulo 1. Entre las contribuciones de este matem´ tico. Y hacien­ do una vez m´ s el mismo argumento. . αk = ak . llegamos a que p01 es factor de p1 . α1 . ı ¡ j ¢¡ ¢ (−1)j−k k i es igual a la funci´ n delta o j de Kronecker δik o sea. Por el binomio de Newton tenemos à n ! j n n n X X X µj¶ X X µj¶ xk (−x0 )j−k = (−x0 )j−k αj xk αj (x − x0 )j = αj k k j=0 j=0 k=0 k=0 j=k y para encontrar nuestros ¡ ¢ coeficientes αj tenemos para k ∈ {0. αn tales que ´ p (x) = α0 + α1 (x − x0 ) + · · · + αn (x − x0 )n . Como ambos son a irreducibles. y la f´ rmula llamada por su nombre. . . la invenci´ n de ı a o la integraci´ n por partes. su demostraci´ n es o independiente del campo y puramente algebraica (no requiere del concepto de continuidad). Por 1. podemos suponer que p1 es diferente de todos los pi . p0m . se destacan: La invenci´ n de la rama de las matem´ ticas a o a que hoy en d´a se conoce como C´ lculo en Diferencias. esto significa que p01 = p1 lo que es una contradicci´ n. . P Prueba. se o o le llama Desarrollo de Taylor alrededor del punto x0 . o o 0 Luego. . . Sea p (x) = ak xk un polinomio de grado n. [128] Ejercicio 30 Demuestre que la expresi´ n o Pi j=k . . . Sin embargo para polinomios. . o Desarrollo de Taylor Brook Taylor (Inglaterra 1685­1731). . n} las igualdades ak = Pn j−k = j . Campos ı Supongamos que el polinomio m´ nico p de grado k tiene dos descomposiciones en irre­ o ducibles p1 . . Si hubiera un pi igual a un p0j entonces para p/pi = p/p0j tenemos dos descomposiciones que por hip´ tesis de inducci´ n son iguales salvo orden. Observese que bkk = 1 por lo que despejando ob­ j=k bkj αj donde bkjP k (−x0 ) n e tenemos αk = ak − j=k+1 bkj αj por lo que podemos hallar αn = an despu´ s αn−1 y as´ sucesivamente todos. enunciada en la siguiente proposici´ n. pn−1 . Como pn y p01 son irredu­ cibles y distintos entonces no tienen factores comunes. Desarrollo de Taylor Para cualquier polinomio p (x) y cualquier elemento del campo x0 existen unos unicos coeficientes α0 . es cero si i 6= k y es uno si i = k. Repitiendo este argumento llegamos a que p01 es factor de p1 p2 . Supongamos que x0 6= 0. Si x0 = 0 entonces. este desarrollo es mucho m´ s general y a a se cumple en cierta clase de funciones. En 1772 o o Lagrange proclam´ esta f´ rmula como “el principio b´ sico del c´ lculo o o a a diferencial”. .

el contenido de esta secci´ n no es b´ sico para la com­ e o a ´ prensi´ n del algebra lineal. Igualdad de Moivre Todo n´ mero complejo z se puede representar en la forma polar u → − z = r (cos ϕ + i sin ϕ) donde r es la longitud del vector 0z en el ´ plano complejo y ϕ es el angulo que forma dicho vector con el eje real de este plano (vease la figura). presupondremos que el a a lector conoce los correspondientes conceptos de an´ lisis real. por otro lado. Teorema de Gauss En esta secci´ n demostraremos que el campo de los n´ meros complejos es algebraica­ o u mente cerrado. Johann Carl Friedrich Gauss (Alemania 1977­1855) fu´ el e ´ m´ s grande matem´ tico de su epoca.8 o Polinomios complejos. Teorema de Gauss 27 mio ak xk son iguales a βj = n i ai xi−j . a a u Para hallar el producto de dos n´ meros complejos hay u que multiplicar sus m´ dulos y sumar sus argumentos. j=k j=k Ejercicio 31 Demuestre que losP ¡ ¢ αj del Desarrollo de Taylor (1. La forma polar hace mucho u m´ s f´ cil calcular el producto y las potencias de n´ meros complejos.Secci´ n 1. a Si bi´ n. a ı a o Forma polar. Para esto. En este libro tendremos ocaci´ n de o mencionar otros resultados de Gauss y cualquiera que se de­ dique a estudiar matem´ ticas. estad´sticas. Luego n bkj βj = n bkj αj y de aqu´ se deduce f´ cilmente que βj = αj . Este teorema es tambi´ n conocido como el “teorema e ´ fundamental del algebra”. o r ϕ r cos ϕ r sin ϕ . Donde los bkj son los definidos en la prueba P P ı a anterior. Sugerencia: Use la identidad del ejercicio 0 i=j Pn j anterior para demostrar que ak = j=k bkj βj .8 Polinomios complejos. Este teorema que lleva su a a nombre fu´ demostrado por primera vez en su tesis doctoral e (1799). si es fundamental que o el lector conosca a la perfecci´ n el enunciado del teorema de o Gauss: todo polinomio complejo de grado al menos 1 tiene una raiz. Al n´ mero r se le llama m´ dulo del u o ´ n´ mero complejo y es com´ n que se denote por kzk. Como esta demostraci´ n no es algebraica sino anal´tica necesitaremos in­ o ı troducir algunos conceptos b´ sicos de an´ lisis complejo. f´sica o astronom´a a ı ı ı oir´ de este cient´fico en m´ s de una ocaci´ n. Al angulo ϕ se le u u llama argumento del n´ mero complejo.20) del polino­ coeficientes P 1.

Una funci´ n o continua en todo punto del plano complejo se le llama continua.. Ejercicio 32 Pruebe que el conjunto de raices complejas del polinomio zn − 1 es un grupo para el producto. . Sea a = rn (cos nϕ + i sin nϕ).. La funci´ n m´ dulo z 7→ kzk es continua. ¿Que grupo es este? [128] Abraham de Moivre (Francia 1667­1754). Descubri´ que dorm´a 15 minutos m´ s cada noche y suman­ o ı a do la progresi´ n aritm´ tica calcul´ que morir´a en el d´a que dormir´a 24 o e o ı ı ı horas. Aplicando este resultado al caso de la potencia de n´ meros u complejos obtenemos la igualdad mostrada en el recuadro a la izquierda. Esta igualdad se conoce como la Igualdad de Moivre. Sus ingresos proven´an de dar clases privadas de Matematicas ı y muri´ en la pobreza. A pesar de su ı ı ı exelencia cient´fica. Moivre tambi´ n es famoso por haber predicho el d´a o e ı de su muerte. o o Prueba. Una de sus consecuen­ cias m´ s importantes es el siguiente resultado. nunca tuvo la oportunidad de tener un puesto en alguna ı universidad.28 Cap´tulo 1. Uno de los fundadores de la Geometr´a Anal´tica y de la Teor´a de las Probabilidades. ¡Tuvo raz´ n! o Continuidad Una funci´ n f : C → C es continua en el punto z0 si para todo real positivo ε existe otro o real positivo δ tal que se cumple que (kz − z0 k < δ) ⇒ (kf (z) − f (z0 )k < ε). a zn = rn (cos nϕ + i sin nϕ) Los polinomios zn − a tienen exactamente n raices complejas.. Sean r (cos ϕ + i sin ϕ) y ρ (cos ψ + i sin ψ) dos complejos. Para k ∈ {0.¶ la Igualdad de Moivre tenemos oµ Por ¡ √ ¢n ϕ + 2kπ ϕ + 2kπ xn = n r cos n + i sin n = r (cos ϕ + i sin ϕ) = a k n n que es lo que se necesitaba probar. n − 1} denotemos xk el n´ me­ √ ro complejo con m´ dulo n r y argumento (ϕ + 2kπ) /n. 1. Esta desigualdad es equivalente a la siguiente: “En un tri´ ngulo el valor absoluto de la diferencia de dos de sus lados siempre a . u Prueba. Tenemos r (cos ϕ + i sin ϕ) ρ (cos ψ + i sin ψ) = rρ ((cos ψ cos ϕ − sin ψ sin ϕ) + (cos ψ sin ϕ + cos ϕ sin ψ) i) = rρ (cos (ϕ + ψ) + i sin (ϕ + ψ)) que es lo que se necesitaba probar. Veamos la desigualdad kz − z0 k ≥ kkzk − kz0 kk. Campos ı Prueba.

Como c es una constante que no depende de z obtenemos que para todo θ > 0 existe δ tal que (|z − z0 | < δ) ⇒ |(fg) (z) − (fg) (z0 )| < θ lo que prueba que el producto de continuas es continua. [128] La suma y el producto de funciones continuas en un punto z0 son continuas en el punto z0 . tenemos que ∀ε > 0 ∃δ = ε tal que si kz − z0 k < δ entonces. Para todo ε > 0 existen δ1 y δ2 tales que (kz − z0 k < δ1 ) ⇒ (kfz − f0 k < ε) (kz − z0 k < δ2 ) ⇒ (kgz − g0 k < ε) y en particular para el m´nimo (que llamaremos δ) de δ1 y δ2 se cumplen las dos desigualda­ ı des a la derecha. Para cualquier polinomio complejo p la funci´ n o de evaluaci´ n C 3 z 7→ p (z) ∈ C es continua. Teorema de Gauss 29 es menor o igual que el tercero”. o . Sumando y aplicando la desigualdad del tri´ ngulo obtenemos: a θ = 2ε > kfz − f0 k + kgz − g0 k ≥ kfz − f0 + gz − g0 k = k(f + g) (z) − (f + g) (z0 )k Luego. gz = g (z) y g0 = g (z0 ). Prueba. Sea g una funcion continua en el punto z0 y f una funci´ n continua en el o punto g (z0 ) entonces. la composici´ n f ◦ g es continua en el punto z0 . Sean f y g funciones continuas en z0 .8 o Polinomios complejos. f0 = f (z0 ).24 obtenemos la prueba. Con el objetivo de ahorrar espacio denotemos fz = f (z). La prueba de esta la dejaremos en calidad de ejercicio. por la desigualdad del tri´ ngulo y 1. Ejercicio 33 Pruebe que en un tri´ ngulo el valor absoluto de la diferencia las longitudes de a dos de sus lados siempre es menor o igual que la longitud del tercero. o Prueba.Secci´ n 1. Por otro lado. para todo θ > 0 existe δ tal que (|z − z0 | < δ) ⇒ |(f + g) (z) − (f + g) (z0 )| < θ con lo que se prueba que la suma de continuas es continua.21 tenemos a k(fg) (z) − (fg) (z0 )k = kfz gz − f0 g0 k = k(fz − f0 ) (gz − g0 ) + (fz − f0 ) g0 + (gz − g0 ) f0 k ≤ kfz − f0 k kgz − g0 k + kfz − f0 k kg0 k + kgz − g0 k kf0 k < < ε2 + ε |g0 | + ε |f0 | < (1 + |g0 | + |f0 |) ε = cε = θ ´ donde la ultima desigualdad se da para ε < 1. Estas funciones son continuas y de o 1. La funci´ n de evaluaci´ n de un polinomio se obtiene usando sumas y productos o o de funciones constantes y la funci´ n identidad f (z) = z. kkzk − kz0 kk ≤ kz − z0 k < ε y esto prueba nuestra tesis. Por esta desigualdad.

esto es equivalente a que ∀ε > 0 ∃N tal que ∀k > N kzk − zk < ε. por definici´ n tenemos que ∀ε > 0 ∃δ (kz − z0 k < δ) ⇒ (kf (z) − f (z0 )k < ε). que toda sucesi´ n acotada tiene o ı e o una subsucesi´ n convergente pues esta misma propiedad se cumple para sucesiones reales. Supongamos que l´m zk = z0 entonces. o L´mite de sucesiones complejas ı ı Una sucesi´ n de n´ meros complejos {zj } = {aj + bj i} tiene l´mite z = a + bi si las o u sucesiones reales {aj } y {bj } tienen l´mites a a y b respectivamente. tenemos n n n−1 X° X ° X i n °ai zi ° = kai k kzk = kan k kzk + kai k kzki ≥ kan k kzkn kp (z)k ≥ Como {zk } no es acotada. Sea p (z) un polinomio de grado n > 1. Por la desigualdad triangular. Campos ı Prueba. la sucesi´ n {kp (zk )k} es no acotada. Por 1. ∀δ > 0 ∃N (k > N) ⇒ ı (kzk − z0 k < δ) . Una ı e sucesi´ n es convergente si esta tiene l´mite. Como f es continua en z0 . ı Si {zk } es no acotada y p es un polinomio de grado al menos 1 entonces.De transitividad de la implicaci´ n obtenemos que ∀ε > 0 ∃N (k > N) ⇒ o kf (zk ) − f (z0 )k < ε y esto quiere decir que l´m f (zk ) = f (z0 ). Esto es equivalente a ı que los m´ dulos y los argumentos de la sucesi´ n converjan al m´ dulo y al argumento del o o o l´mite. tampoco lo son {kan k kzk kn } y {kp (zk )k}. Es claro que o una sucesi´ n no acotada no puede tener l´mite. Componiendo estas dos propiedades obtenemos ∀ε > 0 ∃δ0 (ky − z0 k < δ0 ) ⇒ kf (g (y)) − f (g (z0 ))k < ε que es lo que necesitabamos. o Expongamos otras dos propiedades que son un poco m´ s dif´ciles de probar. Por la continuidad de f en g (z0 ) tenemos que ∀ε > 0 ∃δ (kz − g (z0 )k < δ) ⇒ kf (z) − f (g (z0 ))k < ε. o o Prueba. Esto es equivalente a que la sucesi´ n real {kzj k} sea acotada.26 y porque los polinomios y el m´ dulo son funciones continuas. El m´ dulo de un polinomio es una funci´ n continua. Una sucesi´ n {zj } = {aj + bj i} es acotada si ambas sucesiones {aj } y {bj } ı o son acotadas. Tambi´ n. Tambi´ n. o Prueba. l´m f (zk ) = f (l´m zk ).30 Cap´tulo 1. Entonces. Por otro lado. o Prueba. de la continuidad de g en z0 sabemos que ∀δ > 0 ∃δ0 (ky − z0 k < δ0 ) ⇒ kg (y) − g (z0 )k < δ. a ı Sea f una funcion continua en z0 y {zk } una sucesi´ n de n´ meros o u ı ı complejos que converge a z0 . Por una propiedad an´ loga para las sucesiones o ı a reales se tiene que toda subsucesi´ n de una sucesi´ n convergente es convergente y converge o o al mismo l´mite. i=0 i=0 i=0 .

Luego. a a ı Demostremos que µ es el m´nimo o sea. Prueba. A tiene un ´nfimo que denotaremos por µ. existe z ∈ C tal que kp (z)k < kp (z0 )k. kp (z0 + t0 θ)k ≤ kp (z0 )k + tk q (t0 ) < kp (z0 )k. Como µ es ´nfimo hay una sucesi´ n ı ı o {aj } de elementos de A que converge a µ y por lo tanto hay una sucesi´ n de complejos o {zj } tales que l´m kp (zj )k = µ. de la desigualdad del tri´ ngulo obtenemos: a n X ° ° ¡ ¢ k °αj θj ° tj = kp (z0 )k + tk q (t) kp (z)k ≤ 1 − t kp (z0 )k + j=k+1 Ejercicio 34 ¿Donde se usa en la demostraci´ n anterior que t < 1? [128] o Teorema de Gauss Todo polinomio de grado mayor que cero tiene al menos una raiz compleja. Hagamos el desarrollo de Taylor de p (z) alrededor del punto z0 . Sea p un polinomio. que µ ∈ A.22) de las raices de la ecuaci´ n xk + p (z0 ) /αk = 0 y e o t es un real tal que 0 < t < 1 que definiremos despues. Por continuidad (de los polinomios reales) existe un t0 > 0 suficientemente peque˜ o tal n que q (t0 ) < 0. Por la definici´ n de θ. por 1. El conjunto A es un conjunto de reales acotado inferiormente pues kp (z)k ≥ 0. Si z0 no es una raiz de p entonces.29 la ı o .Secci´ n 1. Luego (por un teorema cl´ sico a de an´ lisis matem´ tico). veamos un resultado preliminar que hace la mayor´a del trabajo. Teorema de Gauss 31 Ya estamos listos para demostrar el Teorema de Gauss pero antes. Si la sucesi´ n {zj } no estuviera acotada entonces. Tenemos n n X X p (z) = αj (z − z0 )j = p (z0 ) + αj (z − z0 )j j=0 j=1 ya que α0 = p (z0 ) . Prueba. z y k tenemos o n n X X k k j j k αj θ t = −p (z0 ) t + αj θj tj p (z) − p (z0 ) = αk θ t + j=k+1 j=k+1 n X ° ° donde q (t) denota el polinomio (con coeficientes re­ °αj θj ° tj−k ales) del recuadro a la derecha. ı Sea p un polinomio complejo de grado al menos 1. Observemos que se cum­ − kp (z0 )k + j=k+1 ple la desigualdad q (0) = − kp (z0 )k < 0.8 o Teorema de Gauss Polinomios complejos. Sea αk el primero de los {αj | j > 0} diferente de cero y escojamos z = z0 + tθ donde θ es una (ve´ ase 1. Denotemos A = {kp (z)k : z ∈ C}. 0 y por lo tanto.

por el Teorema de ı ´ Factorizaci´ n de Polinomios (1. µ ∈ A. z + u = z + u ˉˉ 3.28 tenemos µ = l´m kp (zj )k = kp (l´m zj )k = kp (y)k. z ∈ R ⇒ z = z ˉ ˉ 2. Luego.19) cada polinomio complejo p (x) se tiene que descomponer como j=1 en el recuadro a la izquierda. Denotemos y = l´m zj . kp (y)k = 0 y por lo tanto p tiene una raiz. ˉ 1. an es el coeficiente prin­ o cipal del polinomio. Caso Complejo Clasificaci´ n de los polinomios complejos irreducibles o Los polinomios complejos irreducibles son exactamente los m´ nicos de grado uno. por 1. ı ı Si µ 6= 0 entonces.31) este polinomio tiene una ra´z α.19) esta descomposici´ n es unica salvo orden de los factores. En esta f´ rmula. Como el m´ dulo de un polinomio es una funci´ n continua ı o o entonces. Denotaremos por z el comple­ jo conjugado del n´ mero complejo z. Es f´ cil comprobar que la u a operaci´ n de conjugaci´ n cumple las propiedades del recuadro a la o o derecha. zu = zu Ejercicio 35 Demuestre estas propiedades de la conjugaci´ n compleja. Los complejos αj son las diferentes raices de p (x). Al absurdo supongamos que un polinomio irreducible tiene grado mayor que uno. Este resultado nos da la posibilidad de factorizar completamente los k Q polinomios complejos. Campos ı sucesi´ n {kp (zj )k} tampoco lo ser´a lo que contradice que esta sucesi´ n converge a µ. o Prueba. Por el Teorema de Gauss (1.30 existir´a un y0 tal que kp (y0 )k < kp (y)k = µ lo que ı contradice que µ es el m´nimo de A. Esto nos dar´ la posibilidad de encontrar la descomposici´ n en factores (´ nica a o u salvo orden de los factores) de los polinomios complejos y reales. [128] o .9 Factorizaci´ n de polinomios complejos y reales o En esta secci´ n utilizaremos el teorema de Gauss para averiguar cuales son todos los o polinomios irreducibles con coeficientes complejos y los polinomios irreducibles con coefi­ cientes reales. o o Caso real Recordemos que si a + bi es un n´ mero complejo entonces u ˉ su complejo conjugado es a − bi. Por 1. Nuevamente.14 el polinomio se ı divide entre (x − α) y esto contradice que el polinomio es irreducible. o ı o {zj } es acotada y podemos escoger una subsucesi´ n convergente que podemos suponer la o misma.32 Cap´tulo 1. ı 1. Luego. Por el Teorema de Factorizaci´ n de Polinomios o an (x − αj )n j (1. El natural nj es la P multiplicidad de la ra´z αj y n = ni es el grado de p (x). por 1. Luego.

Los u ı n´ meros complejos (a` + b` i) y (a` − b` i) son las diferentes raices complejas de p (x). los campos algebraicamente cerrados. ya podemos descomponer completamente en factores los polinomios con coefi­ cientes reales. Como α es ra´z de p = ai xi y por las propiedades de la conjugaci´ n tenemos ı X X X ˉ ˉ ˉ 0=0= ai αi = ai αi ai αi = Clasificaci´ n de los polinomios reales irreducibles o Si p es un polinomio real irreducible entonces p es de la forma x − α o es de la forma (x − a)2 + b2 con b 6= 0. Por la Teorema de Factorizaci´ n de Polinomios (1. por el Teorema de Factorizaci´ n de o ´ Polinomios (1. Si α fuera real esto contradecir´a que p es irreducible. Ahora. Si α fuera real entonces x − α ser´a un factor de p. . Si α = a + bi con b 6= 0 entonces ı (x − a)2 + b2 ser´a un factor de p. e ı P o Prueba. El u ı n´ u Pmero natural m` es la multiplicidad de la ra´z compleja (a` + b` i). Entonces α es tambi´ n una ra´z de p. Si p es de grado 2 entonces por el teorema de Gauss este tiene un factor x − α para cierto α complejo.19) cada polinomio real o p (x) se tiene que expresar como: p (x) = an k Y j=1 k ´m ` Y³ 2 2 (x − αj ) (x − a` ) + b` nj `=1 que es lo que se quer´a probar. o La diferencia fundamental entre los n´ meros reales y los n´ meros complejos se expresa u u de manera muy evidente en los resultados de esta secci´ n. Si p es de grado 1 entonces necesariamente es igual a x − α para cierto n´ mero u real α. ı En esta f´ rmula. Luego. En ambos casos se contradice la suposici´ n de que p es ı o irreducible. por el teorema de Gauss este tiene una ra´z compleja ı α. α = a + bi ı con b 6= 0.9 o Factorizaci´ n de polinomios complejos y reales o 33 Sea p un polinomio con coeficientes reales y α una ra´z ı ˉ compleja de p. Prueba. Esta diferencia har´ que poste­ o a riormente nos sea mucho m´ s f´ cil clasificar los operadores lineales en un espacio vectorial a a complejo que en un espacio vectorial real. Obviamente. Por la proposici´ n anterior a − bi tambi´ n es una ra´z de p por lo que o e ı p (x) = (x − (a + bi)) (x − (a − bi)) = (x − a)2 + b2 Si p es de grado al menos 3 entonces.19) esta descomposici´ n es unica salvo orden de los factores. Nuevamente. Los n´ meros reales αj son las o u diferentes raices reales de p (x). El n´ mero natural nj es la multiplicidad de la ra´z αj . todo es m´ s f´ cil para los campos que a a cumplen el Teorema de Gauss o sea. n = P ni + 2 m` es el grado de p (x). an es el coeficiente principal del polinomio. En general.Secci´ n 1.

Campos de fracciones Lo primero es definir las fracciones.10 Campos de fracciones. Primero el pro­ ducto porque es el m´ s f´ cil. ·) un anillo conmutativo y denotemos por 0 el neutro aditivo y por 1 el neutro multiplicativo respectivamente . Consideremos conjun­ ³ a c´ = ⇔ (ad = bc) to de todas las fracciones a/b donde a ∈ A y b ∈ A \ {0}. o [129] Ahora. Nos tenemos que convencer primero de que esta defi­ nici´ n es correcta. Definamos el producto por la f´ rmula en el re­ a a o cuadro a la izquierda. necesitamos definir las operaciones entre fracciones. O sea que si las fracciones son iguales sus productos son iguales. Para convencernos que la definici´ n es correcta o b d bd tenemos que probar que las sumas de fracciones iguales son iguales. Ejercicio 36 Demuestre que la igualdad de fracciones es una relaci´ n de equivalencia. cd0 = c0 d y o o multiplicando estas dos igualdades obtenemos acb0 d0 = a0 c0 bd. lo que es equivalente a la tesis de la implicaci´ n. Dos b d fracciones las consideraremos iguales si se cumple la igualdad en el recuadro a la derecha. Queremos construir un campo que contenga a A. µ ¶ µ ¶ O sea que: a a0 c ad + cb a0 d0 + c0 b0 c0 = 0 y = 0 ⇒ = b b d d bd b0 d0 y efectivamente haciendo algunos c´ lculos inteligentes obtenemos a ¶ µ ¶ µ ¶ µ 0 0 0 = (ab0 − a0 b) dd0 = (ad + cb) b0 d0 = ab = a b ⇒ ⇒ cd0 = c0 d = (c0 d − cd0 ) bb0 = 0 = (a0 d0 + c0 b0 ) bd ac ac = b d bd . Definamos ahora la suma de fracciones por la f´ rmula en el re­ a c o ad + cb + = cuadro a la derecha. Campos ı 1. ¿Funcionar´ esta misma construcci´ n en el caso general? a o Investiguemos para lograr una respuesta. o Este producto es conmutativo y asociativo ya que ambas propiedades se cumplen en los “numeradores” y en los “denominadores”. +. M´ s o a precisamente. necesitamos ver que se cumple lo siguiente: µ ¶ µ ¶ a a0 c ac c0 a0 c0 = 0 y = 0 ⇒ = b b d d bd b0 d0 y efectivamente de las hip´ tesis de esta implicaci´ n tenemos ab0 = a0 b . La fracci´ n 1/1 es neutro para el producto y cual­ o quier fracci´ n a/b donde a 6= 0 tiene inverso multiplicativo b/a ya que ab/ba = 1/1 por o la conmutatividad del producto en A. Esta es una situaci´ n an´ loga a cuando construimos el campo de los racionales Q para que o a contenga al anillo conmutativo Z . Todo esto significa que el conjunto de fracciones con numerador distinto de cero forman un grupo conmutativo.34 Cap´tulo 1. Funciones racionales Sea (A.

siga leyendo. no hay tal campo de fracciones para cualquier anillo conmutativo. Prueba. Esto no es cierto en cualquier anillo conmutativo. El ejemplo evidente de dominio de integridad es Z. La comprobaci´ n de que esta suma es conmutativa es obvia. todo dominio de integridad tiene su campo de fracciones. El lector deber´a anali­ ı zar cuidadosamente cada igualdad en los razonamientos anteriores para convencerse de que todas ellas se desprenden de los axiomas de anillo conmutativo y de las definiciones de las operaciones entre fracciones. el conjunto de todas las fracciones es un grupo abeliano respecto a la suma. La fracci´ n 0/1 es neutro para la o ´ suma y cualquier fracci´ n a/b tiene opuesto −a/b (para esto ultimo es necesario observar o que 0/1 = 0/v para todo v 6= 0).Secci´ n 1. Tenemos que probar que el producto de dos polinomios diferentes de cero es dife­ . v b d vbd vbd vbd vb vd vb vd ´ Por ultimo observemos que si identificamos al elemento a ∈ A con la fracci´ n a/1 podemos o pensar que el anillo A es un subconjunto de las fracciones ya que que la suma y el producto de estas fracciones coinciden con la suma y el producto dentro de A. Funciones racionales 35 que era lo que se necesitaba probar. Al definir el producto (a/b) (c/d) = (ac/bd) con b y d distintos de cero supusimos que necesariamente bd es DISTINTO DE CERO. u si no. Ya vimos. Hemos hecho todas estas pruebas detalladamente para no equivocarnos al afirmar que esto que hemos demostrado sirve para cualquier anillo conmutativo. Solo nos falta la distributividad para comprobar que las fracciones con las operaciones definidas forman un campo y esto se comprueba con los siguientes c´ lculos: a u ³ a c ´ uad + ucb uad ucb ua uc u a u c + = = + = + = + . Su campo de fracciones es Q. La asociatividad se com­ o a c u adv + cbv + ubd prueba calculando que + + = b d v bdv independientemente del orden en que se haga la suma. El problema es el siguiente. Si en el anillo hay tales elementos no podemos definir adecuadamente el producto de fracciones (tampoco la suma). Funciones racionales El ejemplo por el cual hemos escrito esta secci´ n es el siguiente: o Todo anillo de polinomios con coeficientes en un campo es un dominio de integridad. por ejemplo en Z6 tenemos 2 × 3 = 0.10 o Campos de fracciones. se dice que este anillo es un dominio de integridad. MENTIRA. Luego. que si un anillo conmutativo es tal que para cualesquiera b y d distintos de cero se tiene que bd es distinto de cero entonces. Ahora si. Al conjunto de todas las fracciones con las operaciones as´ de­ ı finidas se le llama el campo de fracciones del anillo conmutativo A. ¿Puede usted encontrar el error? Si cree que puede regrese arriba y b´ squelo.

Campos ı rente de cero (recuerdese que un polinomio es cero cuando todos sus coeficientes son cero). Ejercicio 37 ¿Conoce usted un campo infinito de caracter´stica 2? [129] ı Ejercicio 38 ¿Que pasa si construimos el campo de fracciones de un campo? [129] . P P Sean p (x) = n ai xi y q (x) = m bi xi dos polinomios cualesquiera de grados n i=0 i=0 P y m respectivamente. Como an 6= 0. Denotemos p (x) q (x) = n+m ci xi . Por la f´ rmula del producto de o i=0 polinomios. Como el anillo de polinomios K [x] es un dominio de integridad este tiene su campo de fracciones que se denota por K (x) . A los elementos o de K (x) se les llama funciones racionales (en la variable x). tenemos cn+m = an bm . Eso quiere decir que de hecho. bm 6= 0 y todo campo es dominio de integridad obtenemos cn+m 6= 0 y por lo tanto p (x) q (x) 6= 0. N´ tese la diferencia entre K [x] y K (x). hemos demostrado algo mucho m´ s fuerte: Los anillos de a polinomios con coeficientes en un dominio de integridad son dominios de integridad. Observese que en la demostraci´ n no se us´ el hecho de que en el campo K hay inversos multipli­ o o cativos.36 Cap´tulo 1. Las funciones racionales son fraciones de polinomios p (x) /q (x) que se suman y multiplican mediante las reglas a las que todos estamos acostumbrados.

los escalares se denotar´ n por letras latinas y griegas normales. el eje de las x lo podemos identificar (escogiendo una unidad de medida) con R donde el cero es el origen de coordenadas (la intersecci´ n o de los dos ejes) por tanto. o o ı etc. De la u px x misma manera py es otro n´ mero real. Para cada punto del plano p tra­ p py zamos la perpendicular al eje x y al eje y y de esta manera obte­ nemos los puntos px en el eje x y py en el eje y. a cada punto del plano u ı p se le hace corresponder biun´vocamente una pareja de n´ meros ı u reales (px . A diferen­ cia de estos. A los elementos de R (para diferenciarlos de los vectores) los llamaremos escalares. py ). Motivaremos la introducci´ n de este concep­ o to en el ejemplo geom´ trico del plano cartesiano. Ren´ Descartes (Francia 1596­1650) fu´ el que tuvo la brillante e e idea de introducir los ejes de coordenadas. lineas. u raices. Tomamos dos rectas per­ pendiculares.1 El plano cartesiano ´ Hubo alg´ n tiempo. Finaliza­ a o remos este cap´tulo con el estudio de las operaciones entre subespacios y subespacios afines ı lo que nos llevar´ a entender los espacios cocientes. es conveniente representar cada punto del plano como el segmento a dirigido desde el origen de coordenadas hasta el punto o sea como vectores. y los ge´ metras con puntos. a la horizontal se le llama “eje y de las equis” y a la vertical se le llama “eje de las yes”.´ ste es el objeto central del algebra lineal. su dimensi´ n etc. f´ rmulas. Desde ahora denotaremos los vectores por letras latinas en negritas. a . pol´gonos. Profundizaremos a en la estructura de estos estudiando sus subespacios. px es simplemente un n´ mero real. etc. polinomios. Adem´ s. lo que nos o llevar´ a entender todos los espacios vectoriales (al menos los de dimensi´ n finita). sus bases. As´. a 2. Los algebristas trabajaban con n´ meros. Daremos las definici´ n de espacio e o vectorial complementandola con los ejemplos m´ s fundamentales. Por cuanto. en que el algebra y la geometr´a eran dos cosas to­ u ı talmente aparte.

Si el factor es negativo entonces el resultado apunta en la direcci´ n opuesta. αay ) . en su libro “C´ lculo Geom´ trico” publicado en 1888. Si a = (ax . Diremos que es un espacio vectorial sobre K si est´ definida una operaci´ n de producto de escalares E1) α (a + b) = αa + αb a o (α + β) a =αa+βa por vectores K×E → E que cumple las propiedades E1­ E3. [129] Ejercicio 40 ¿Es la multiplicaci´ n de un escalar por un vector una operaci´ n binaria? [129] o o Ejercicio 41 ¿Cuantas diferentes operaciones hay en α (βa) y (αβ) a? [129] Ejercicio 42 ¿Que es la resta de dos vectores? ¿Cual es su interpretaci´ n geom´ trica? o e 2. Si el factor es cero entonces el vector se o x degenera al origen de coordenadas. geom´ tricamen­ e a te no es nada m´ s que la diagonal del paralelogramo generado por a y a b . Adem´ s. +) es un grupo abeliano se desprende f´ cilmente a b que nuestro plano cartesiano R2 es tambi´ n un grupo con respecto a la e x suma de vectores. o 1858 ­1932). El producto por escalares es distributivo con respecto a la suma α (a + b) = αa+αb de vectores y tambi´ n con respecto a la suma de escalares o sea e (α + β) a =αa+βa se cumplen las igualdades en el recuadro. Geom´ tricamente este producto es aumentar (o reducir) e a en un factor α el vector a. o por la a a u “Curva de Peano” que es una inmersi´ n continua sobreyectiva del inter­ o valo en el cuadrado. El 1 que aparece en el axioma E3 es el 1 del campo. +) un grupo abeliano cuyos elementos los llamaremos vectores. obviamente tenemos que α (βa) = (αβ) a. . ay + by ).38 y Cap´tulo 2. A los axiomas E1 y E2 se les llama distributividad E2) (βa) = (αβ) a y asociatividad respectivamente del producto por escala­ E3) 1a = a res. ay + by ) . Del hecho que (R. ay ) es un vector y α un escalar el producto αa se define y 2a como (αax . ay ) y b = (bx . Estas dos leyes distri­ butivas (¡son diferentes!) se cumplen porque son ciertas en cada coordenada. Ejercicio 39 Demuestre geom´ tricamente que la diagonal del paralelogramo generado por e a y b tiene coordenadas (ax + bx . Pea­ a e no es m´ s conocido por su axiom´ tica de los n´ meros naturales. Espacios vectoriales ı a + b Si a = (ax . Sea K un campo cuyos elementos los llamaremos escalares y (E. Todo esto nos dice que el a plano cartesiano es nuestro primer ejemplo de espacio vectorial sobre los reales. La suma. by ) son dos vectores la suma de los mismos se define como a + b = (ax + bx .2 Definici´ n y ejemplos o La primera definici´ n de espacio vectorial la dio Giuseppe Peano (Italia.

. +) es un grupo abeliano entonces. a2 . a2 . El axioma E1 se reduce en cada coordenada a la distribu­ × α tividad del producto respecto a la suma en el campo K. +) es un grupo abeliano. El opuesto del vector a se denota por −a. Prueba.. El espacio de n­adas Kn Consideremos el producto cartesiano de n copias del Kn = {(a .. La multiplicaci´ n por escalares tambi´ n se introduce por coor­ o e (a1 . tiene que tener un vector neutro que deno­ taremos por 0. Por otro lado el campo de escalares tiene un neutro para la suma: el 0..... Los vectores ser´ n las n­adas. De esta manera obtenemos que Kn es un espacio vectorial sobre K. Finalmente.. Al escalar ai se le llama la i­´ sima coordenada de la n­ada (a1 . . bn ) (a1 + b1 .. Luego. a ) | a ∈ K} 1 2 n i campo K.. an ). El axioma E2 a la asociatividad del producto en K. una n­ada tiene n coordenadas.. En particular. (−1) a = −a y α0 = 0.. [129] Ejercicio 44 ¿Cual es el m´nimo n´ mero de elementos que puede tener un espacio vecto­ ı u rial? [129] Veamos ahora algunos ejemplos de espacios vectoriales. La mayor´a de ellos son fundamentales ı para entender este libro. los escalares ser´ n los elementos a a n (a1 . an ). La demostraci´ n se realiza mediante las siguentes tres cadenas de igualdades o E3 E1 0a = 0a + 1a − a = (0 + 1) a − a = a − a = 0 E3 E1 (−1) a = (−1) a + 1a − a = (−1 + 1) a − a = 0a − a = −a ¡ ¢ ¡ ¢ E2 E3 E1 E3 α0 = α0 + 1 · 0 = α 0 + α−1 0 = α α−1 0 = 1 · 0 = 0 donde signos “=” est´ n marcados con los axiomas por los que son v´ lidos.. an ) denadas. αan ) se reduce en cada coordenada a que 1 es el neutro para el producto en el campo K. an ) a de K. αa2 ..... a a Ejercicio 43 Demuestre que αa = 0 ⇒ α = 0 o a = 0. . introduciremos notaciones b´ sicas que ser´ n usadas a a constantemente.. a . un neutro para el producto: el 1. . En K se introduce f´ cilmente la suma por coordenadas co­ mo se muestra en el recuadro a la izquierda..2 o Definici´ n y ejemplos o 39 Como (E. el axioma E3 (αa1 . . + . Del hecho de que las (b1 ... Las relaciones que cumplen estos con respecto al producto por escalares nos las da el siguiente resultado b´ sico.. . Este producto se denota por Kn y est´ forma­ a e do por todas las n­adas (a1 . opuestos para la suma −α e inversos multiplicativos α−1 . Es muy importante que el lector no se pierda en la cantidad de “ejemplos” que sigue. a En todo espacio vectorial para cualquier vector a y cualquier escalar α se cumple que 0a = 0. an + bn ) propiedades necesarias se cumplen en cada coordenada se des­ prende que (Kn .Secci´ n 2. .... .

Lo mismo pasa con la multiplicaci´ n por un escalar... Si N es un conjunto arbitrario (no necesitamos de operaci´ n alguna en N) entonces el conjunto de to­ o das las funciones de N en K se denota por KN .. an ) ∈ Kn y las funciones {1. . De P hecho. La noci´ n de convergencia de sucesiones o no tiene nada que ver con el concepto de espacio vectorial.. a2 . esta suma se hace coefi­ ² ± n X ciente por coeficiente. an + bn . Al igual que con los polinomios. a2 ... Los axiomas de espacio vectorial se . Espacios vectoriales ı El espacio de polinomios K [x] Podemos sumar polinomios.) (b1 . Podemos asociar a cada polino­ P mio n ai xi la (n + 1)­ada (a0 ... an . Cada serie ∞ ai xi se i=0 determina un´vocamente por la sucesi´ n (a0 . . .. . b2 .. n} 3 o ı i 7→ ai ∈ K. an . En cierto sentido este espacio vectorial es parecido al anterior. La mutiplicaci´ n un escalar es tambi´ n por o e coordenadas. 0.. u El espacio de funciones KN Hay una biyecci´ n natural entre las n­adas (a1 . Para la suma podemos tener un problema si son de grados diferentes pero esto P se resuelve agregando suficientes ceros o sea si m bi xi es otro polinomio con n > m i=0 entonces podemos asociarle la n­ada (b0 . El lector debe observar que los elementos a de la sucesi´ n pueden estar en un campo arbitrario y no ne­ o cesariamente en R como estamos acostumbrados.. generalicemos estos ejemplos. . . ...) (a1 + b1 . g ∈ KA la suma de ellas se define como es habitual por (f + g) (i) = f (i) + g (i) para cualquier i ∈ N.. . a1 . . .... Tambi´ n sabemos multiplicar un e ai ∈ K ai xi | elemento de K por un polinomio.. b1 .. Los axiomas de espacio vectorial K [[x]] = i=0 se cumplen porque se cumplen para cada coeficiente. ... Dadas dos funciones f. an ) y la multiplicaci´ n por escalar es la misma o i=0 n+1 que en K .... 0) con suficientes ceros para com­ pletar las n coordenadas y entonces la suma es la misma que en Kn+1 . ... . . Para ±∞ ² X multiplicar por un escalar se multiplican todos los coefi­ ai xi | ai ∈ K cientes por el escalar. Aunque sepamos multiplicar polinomios. Igualmente las sucesiones (a0 . a1 ..) + El espacio de series K [[x]] Las series se suman coeficiente por coeficiente. El producto por un escalar se define por (λf) (i) = λf (i).. (a1 .... ... este ejemplo es el mismo que el del espacio de sucesiones.) se corresponden biun´vocamen­ te con las funciones N 3 i 7→ ai ∈ K.. a2 .. an .. Ahora.) de sus coeficientes y no hay di­ ı o ferencia entre sumar series y sumar las correspondientes sucesiones. . bn . Es muy conocido que K [x] = n∈N i=0 todos los axiomas de espacio vectorial se cumplen.40 Cap´tulo 2. ... bn .. Los axiomas de espacio vectorial se comprue­ ban f´ cilmente. el concepto de producto de o series no juega ning´ n papel en el hecho de que K [[x]] sea un espacio vectorial. u El espacio de sucesiones KN Dos sucesiones se suman por coordenadas como se muestra en el recuadro.. esto no tiene ning´ n papel en el concepto de espacio vectorial.

Secci´ n 2.2 o

Definici´ n y ejemplos o

41

comprueban f´ cilmente. Por ejemplo, la suma de funciones es conmutativa porque para cada a i en N se cumple que f (i) +g (i) = g (i) +f (i) gracias a la conmutatividad de la suma en el campo. Como hemos visto, el espacio Kn y el espacio de sucesiones son un caso particular de este ejemplo cuando N es {1, ..., n} y N respectivamente. Adem´ s, ya observamos que a K [[x]] = KN . El espacio de N­adas KN En lo adelante una funci´ n en KN se denotar´ por αN . M´ s precisamente, αN o a a es la funci´ n que a cada i ∈ N le hace corresponder el escalar αi . Por ejemplo, o o si N = {1, . . . , n}, entonces αN = (α1 , . . . , αn ). La bondad de esta notaci´ n N es que podemos pensar los elementos de K (funciones) como si fueran n­adas. Para poder seguir pensando en αN como si fuera en una n­ada necesitamos las palabras adecuadas. A los elementos αN de KN los llamaremos N­adas. Al conjunto N lo llamaremos conjunto de ´ndices de αN y a los elementos de N los llamaremos ´ndices. Si i es un ´ndice, entonces ı ı ı diremos que αi es la i­´ sima coordenada de αN . En estas notaciones la suma de dos N­adas e es por coordenadas. O sea, la i­´ sima coordenada de αN +βN es αi +βi . El producto escalar e tambi´ n es por coordenadas. O sea, la i­´ sima coordenada de λαN es λαi . e e Si el conjunto N es finito y tiene n elementos entonces, la diferencia fundamental entre una N­ada y una n­ada es que las coordenadas de la N­ada no necesariamente est´ n or­ a denadas. Por ejemplo, si el conjunto N es un conjunto de tres vectores entonces, estos no tienen un orden natural. Para poder identificar una N­ada de estos con una 3­ada, necesita­ mos definir artificialmente cual es el primer vector cual es el segundo y cual es el tercero. Sin embargo, si al lector le cuesta trabajo pensar en las N­adas cuando N es un conjunto, le sugiero olvidarse de que N es un conjunto y pensar que N es un n´ mero natural. u El espacio de N­adas con soporte finito K{N} Sea αN ∈ KN una N­ada. El soporte αN es por definici´ n el conjunto de ´ndices i tales o ı ı que αi 6= 0. Si el conjunto de ´ndices N es finito entonces, cualquier N­ada tiene soporte finito (porque un subconjunto de un conjunto finito es finito). Sin embargo, si el conjunto de ´ndices es infinito entonces habr´ N­adas con soporte infinito. ı a Si sumamos dos N­adas de soporte finito el resultado ser´ una N­ada de soporte finito a (porque 0 + 0 = 0). Si multiplicamos una N­ada de soporte finito por un elemento del campo el resultado ser´ una N­ada de soporte finito (porque λ0 = 0). Los axiomas de a espacio vectorial se cumplen porque ya sabemos que se cumplen para cualesquiera N­adas. Al espacio de N­adas con soporte finito se le denota por K{N} . Como ejemplo de espacio de N­adas de soporte finito veamos el siguiente. Cada polino­ P mio n ai xi determina un´vocamente una N­ada aN donde ai = 0 si i > n. Esta N­ada ı i=0 es de soporte finito. Rec´procamente, si aN es una N­ada de soporte finito entonces, nece­ ı ı sariamente, hay un natural n tal P ai = 0 para cualquier i > n. As´, le podemos hacer que corresponder a aN el polinomio n ai xi . Esta correspondencia es biun´voca y las opera­ ı i=0

42

Cap´tulo 2. Espacios vectoriales ı

ciones son las mismas en ambos espacios. Esto nos muestra que, el espacio de polinomios es el espacio de N­adas con soporte finito. En otras palabras K{N} = K [x]. Un caso importante es cuando N es finito y en este caso K{N} = KN . O sea, cada N­ada es de soporte finito. En particular, si N = {1, . . . , n} entonces K{N} = KN = Kn . Subcampos Sea L un subcampo de K. Podemos sumar los elementos de K y al multiplicar un ele­ mento de L por uno de K obtenemos un elemento de K. Esto significa que tenemos una operaci´ n binaria en K (la suma) y una multiplicaci´ n por escalares L × K → K. En este o o caso, los axiomas de espacio vectorial se desprenden directamente de las definiciones de campo y subcampo y obtenemos que K es un espacio vectorial sobre L. Un caso muy par­ ticular es que todo campo es espacio vectorial sobre si mismo. Otro ejemplo importante es que R es subcampo de C. Como cada complejo se puede escribir como una pareja (a, b) con coordenadas en R y la suma de complejos y el producto por un real son las mismas operaciones que en R2 tenemos que C como espacio vectorial sobre R es lo mismo que R2 . Otro ejemplo m´ s es que R es un espacio vectorial sobre Q. Este caso es suficientemente a ´ complicado para que no digamos nada sobre el. El espacio de N­adas de vectores EN Ahora, nos debemos preguntar, cual es el m´nimo de condiciones que le debemos pedir ı a las coordenadas de una N­ada, para poder definir un espacio vectorial. Ya vimos que, si las coordenadas est´ n en un campo entonces, obtenemos un espacio vectorial. Pero esto es a pedir mucho. En realidad, solo necesitamos saber sumar las coordenadas y multiplicar cada coordenada por un escalar, o sea, necesitamos que las coordenadas sean vectores. M´ s precisamente. Sea E un espacio vectorial sobre el campo K. Denotaremos por EN a el conjunto de todas las N­adas de E. Si aN y bN son dos elementos de EN entonces, la i­´ sima coordenada de aN + bN es ai + bi . Esto lo podemos hacer porque sabemos sumar e los elementos de E. Ahora, si λ es un elemento de K entonces, la i­´ sima coordenada de e λaN es λai . Esto lo podemos hacer porque sabemos multiplicar los escalares en K por los vectores en E. Los axiomas de espacio vectorial se demuestran f´ cilmente debido a que se a cumplen en cada coordenada. El espacio de NM­matrices KNM Un caso particular de N­adas de vectores es cuando estos vectores son M­adas de esca­ ¡ ¢N lares. Este espacio es KM . Para aclarar un poco que sucede en este caso, supongamos ¢N ¡ que N = {1, 2} y que M = {1, 2, 3}. Entonces, un elemento del espacio KM es una 2­ada (a1 , a2 ) de vectores y cada uno de ellos es una 3­ada de escalares. Los dos vectores los po­ ¶ demos representar como en el recuadro a µ α a1 = (α11 , α12 , α13 ) 11 α12 α13 la izquierda y para simplificar nos queda­ a2 = (α21 , α22 , α23 ) α21 α22 α23 mos con la tabla que vemos a la derecha.

Secci´ n 2.2 o

Definici´ n y ejemplos o

43

Esta tabla es un elemento del espacio de (N × M)­adas KN×M , o sea, los ´ndices son ı ¡ M ¢N parejas en el producto cartesiano N × M. Esto nos permite identificar K con KN×M y como las operaciones en ambos espacios son las mismas estos espacios son en esencia el mismo. Cambiando el orden en que ponemos los indices obtenemos las igualdades ¡ ¢M ¡ M ¢N = KN×M = KM×N = KN K que el lector debe comparar con (ax )y = axy = ayx = (ay )x para n´ meros naturales a, x, y. u Desde ahora, para simplificar la notaci´ n, a una (N × M)­ada cualquiera la llamaremos o NM­ada. Tambi´ n, en lugar de usar la notaci´ n α(N×M) para denotar una NM­ada concreto, e o usaremos la notaci´ n αNM . A una coordenada de esta NM­ada la denotaremos αij en lugar o de usar la m´ s complicada α(i,j) . En esta notaci´ n, es m´ s c´ modo pensar que hay dos con­ a o a o juntos de ´ndices (N y M) en lugar de uno solo (N × M). O sea, una NM­ada es un conjunto ı de elementos del campo indexado por dos conjuntos de ´ndices. Cuando N = {1, . . . , n} ı y M = {1, . . . , m} entonces obtenemos una matriz con n renglones y m columnas. En el ejemplo anterior obtuvimos una matriz con 2 renglones y 3 columnas. Para conjuntos N y M arbitrarios (por ejemplo, conjuntos de jerogl´ficos chinos), la ı diferencia es que no hay un orden preestablecido entre los elementos de los conjuntos de ´ndices por lo que no sabr´amos cual columna o rengl´ n poner primero y cual despu´ s. Como ı ı o e esta diferencia no es tan importante y para no formar confusi´ n en la terminolog´a desde o ı ahora, a las NM­adas los llamaremos NM­matrices. Escribiremos KNM para denotar el espacio vectorial de todas las NM­matrices. Como ya sabemos, en este espacio las matrices se suman por coordenadas y se multiplican por escalares tambi´ n por coordenadas. e Sea αNM una NM­matriz. Es costumbre llamarle a las coordenadas αij de αNM entra­ das de la matriz. Si i ∈ N entonces la M­ada αiM ∈ KM es el i­´ simo rengl´ n de la matriz e o N αNM . Si j ∈ M entonces la N­ada αNj ∈ K es la j­´ sima columna. Al conjunto N se e le llama conjunto de ´ndices de los renglones. An´ logamente, al conjunto M se le llama ı a conjunto de ´ndices de las columnas. ı 0 0 Si N , M son subconjuntos no vac´os de N y M respectivamente entonces a la matriz ı αN 0 M 0 se le llama submatriz de αNM . Si |N0 | = |M0 | = 1 entonces la submatriz es una entrada. Un rengl´ n es una submatriz donde |N0 | = 1 y M0 = M o sea una submatriz del o tipo αiM . Una columna es una submatriz donde |M0 | = 1 y N = N0 o sea una submatriz ´ o ı del tipo αNj . Una ultima observaci´ n acerca de las matrices, es que toda esta terminolog´a de “columnas” y “renglones” viene de la manera usual en forma de tabla en que escribimos una matriz concreta. El espacio de tensores Bueno, ¿y si tenemos m´ s de dos conjuntos de ´ndices? Pues es lo mismo. Una NML­ada a ı es una (N × M × L)­ada. Al igual que en las matrices denotaremos por αNML a una NML­ ada con tres conjuntos de ´ndices o sea un tensor de exponente 3. Las matrices son tensores ı de exponente 2 y las N­adas son tensores de exponente 1. Los tensores de exponente 0 son los elementos del campo.

44

Cap´tulo 2. Espacios vectoriales ı

Si bien podemos pensar un tensor de exponente 1, co­ mo una serie de elementos del campo uno al lado de otro y pensar los de exponente 2, como una tabla rectangular de elementos del campo, tambi´ n podemos pensar los tensores e de exponente 3, como un conjunto de elementos del campo dispuestos en un arreglo que llenan un cubo en el espacio. Para cada i ∈ N tenemos que αiML es un tensor de exponen­ te 2 o sea una matriz. Todo αNML nos lo podemos imaginar como muchas matrices puestas una encima de la otra. Sin embargo cuando el exponente del tensor es grande ya nuestra imaginaci´ n no da o para visualizar geom´ tricamente un arreglo de los elementos del campo dispuestos en un e cubo de dimensi´ n grande. Es mucho m´ s util el manejo algebraico de estos, que tratar o a ´ de visualizarlos. En este contexto, la terminolog´a de “renglones” y “columnas” se hace ı inutilizable. Como es l´ gico, los tensores con conjuntos de ´ndices fijos forman un espacio o ı vectorial. La suma se hace por coordenadas y tambi´ n la multiplicaci´ n por un escalar. e o

2.3 Subespacios
Sea E un espacio vectorial sobre K. Un subespacio es un conjunto no vac´o de vectores ı que es un espacio vectorial para las mismas operaciones. Un conjunto de vectores F no vac´o es un subespacio si y solo si para ı cualesquiera a, b ∈ F y λ ∈ K los vectores a + b y λa est´ n en F. a Prueba. Si F es un subespacio de E entonces, por definici´ n a + b y λa est´ n en F. o a Rec´procamente, sea F un conjunto de vectores de E que cumple las hip´ tesis. Como la ı o suma de vectores es asociativa y conmutativa en E, tambi´ n lo es en F. Sea a ∈ F (existe por e ser F no vac´o). Tenemos 0a = 0 ∈ F. Adem´ s ∀b ∈ F (−1) b = −b ∈ F. Con esto se ı a comprueba que (F, +) es grupo abeliano. Los axiomas de espacio vectorial se cumplen en F por ser este un subconjunto de E. Uni´ n e intersecci´ n de subespacios o o ¿Ser´ n la intersecci´ n (y la uni´ n) de subespacios un subespacio? La uni´ n de subespa­ a o o o cios no es un subespacio. Un ejemplo de esto son el eje x y el eje y en el plano cartesiano (veremos prontamente que son subespacios) sin embargo, la uni´ n de los mismos no es un o subespacio ya que por ejemplo (0, 1) + (1, 0) = (1, 1) que no pertenece a la uni´ n de los dos o ejes. Por el contrario, la intersecci´ n de subespacios si es un subespacio. o La intersecci´ n de un conjunto de subespacios es un subespacio. o

Una combinaci´ n lineal de N es cualquier vector de la forma que se o αi i muestra en el recuadro a la derecha. En otras palabras.3 o Subespacios 45 Prueba. tenemos que una combinaci´ n lineal es o siempre una suma de un n´ mero finito de vectores. bi y es un subespacio ya que αa+βb+α0 a+β0 b = (α + α0 ) a+(β + β0 ) by λ (αa + βb) = λαa+λβb. bi. Consideremos el conjunto de vectores {αa + βb | α. .Secci´ n 2. cada uno de ellos multipl´quese por un escalar y s´ mese los resultados”. o Es posible que no se entienda esta notaci´ n. a + b tambi´ n est´ en cada uno de los subespacios del conjunto. An´ logamente. la notaci´ n i∈N αi i debe interpretarse as´: “t´ mese o ı o los vectores de N. Si N es infinito tenemos un problema. bi do la paralela a hbi obtenemos el punto αa en la recta hai y vemos que p = αa + βb. Si a y b son dos vectores en cada uno de los subespacios de un conjunto entonces. e a Combinaciones lineales Veamos unos ejemplos importantes de subespacios. Para cada a punto p de este plano dibujemos la paralela a la l´nea hai que ı p pasa por p obteniendo un punto de intersecci´ n con la l´nea o ı b hbi el cual es βb para alg´ n β ∈ R. As´ por ı ejemplo si N = {a. ı u Todo esto est´ muy bien si el conjunto N es finito. que la N­ada αN u cuyas coordenadas son los coeficientes de la combinaci´ n lineal es de soporte finito. ı Sean ahora a y b dos vectores en R3 no colineales o sea a 6= βb. ¿Ser´ es­ a te plano el subespacio ha. b. La intersecci´ n de subespacios nunca es vac´a porque cada subespacio contiene al o ı 0. β ∈ R}. ı En R3 hay un solo plano que contiene estas dos lineas. Estos ejemplos nos motivan a la siguiente definici´ n. a ¿Que es una suma infinita de vectores? La manera de evitar este problema es que le pedire­ mos a los coeficientes αi que todos salvo un n´ mero finito sean cero o sea. podemos ver que los vectores en este hai espacio son los puntos de la l´nea por el origen que pasa por a. El conjunto hai = {αa | α ∈ R} de todos los m´ ltiplos del u vector a es un subespacio de R2 ya que αa + βa = (α + β) a. Luego. Geom´ tricamente. bi? Pues. teniendo en cuenta la identificaci´ n de vectores e o con los puntos del plano cartesiano. y α (βa) = (αβ) a. Como o podemos despreciar los sumandos iguales a cero. Geom´ tricamente. Sea N un conjunto de X o vectores. claro que si. c. A los escalares αi se les llama coeficientes i∈N de la combinaci´ n lineal. Sea a un vector a no nulo en R2 . dibujan­ u a ha. u El conjunto de todas las combinaciones lineales de N es un subespacio. p ∈ ha. El conjunto de ´ndices es el conjunto de o ı vectores N por lo que en la suma hay tantos sumandos como vectores hay en N. Lo mismo sucede para αa. Este conjunto de vectores se denota por ha. vemos que este conjunto contiene a la l´nea hai que pasa por e ı a y a la l´nea hbi que pasa por b. d} entonces una combinaci´ n lineal de N es un vector de la forma o P αa+βb + γc+δd.

F3 est´ contenido en cualquier subespacio que contiene a N y en particular o a o F3 ⊆ F1 . Denotemos por F1 . Espacios vectoriales ı u que es una combinaci´ n lineal de N yaP todos¢los (αi + βi ) salvo un n´ mero finito tienen o ¡ que P que ser cero. Por definici´ n de intersecci´ n tenemos que F2 ⊆ F3 . a n Prueba. F contiene a todos los m´ ltiplos de los vectores en N u y a todas sus sumas finitas. por 2. Si F es un subespacio que contiene a N entonces. Si F contiene a N entonces. P P Prueba. Luego.3. ı ¨ hhNii = hNi (idempotencia). F2 y F3 a los tres conjuntos del enunciado de la proposici´ n. Finalmente. cualquier combinaci´ n lineal de N est´ en F. Por la proposici´ n 2. o 3. 2. Como hNi es un subespacio.5 obtenemos que F1 ⊆ F2 . el m´ s peque˜ o que contiene a n a n . Sean i∈N αi i y i∈N βi i dos combinaciones lineales de N entonces. La intersecci´ n de todos los subespacios que contienen a N. ¨ N ⊆ M ⇒ hNi ⊆ hMi (monoton´a).6.3 hhNii es el subespacio m´ s a peque˜ o que contiene a hNi.3 el conjunto F2 es un subespacio que contiene a o o N y de 2. A cualquiera de los tres conjuntos (¡son iguales!) de la proposici´ n anterior se le denota o por hNi y se le llama cerradura lineal de N o tambi´ n el subespacio generado por N. i∈N Cerradura lineal Denotaremos por hNi al conjunto de todas las combinaciones lineales de N. e Propiedades de la cerradura lineal La cerradura lineal cumple las siguientes propiedades: ¨ N ⊆ hNi (incremento). o o Por definici´ n. o a Los siguientes tres conjuntos de vectores coinciden 1. Lo mismo ocurre con γ αi i = i∈N γαi i. El conjunto de todas las combinaciones lineales de N.46 Cap´tulo 2. El subespacio m´ s peque˜ o que contiene a N. Prueba. Cualquier combinaci´ n lineal de N es tambi´ n combinaci´ n lineal de M (haciendo cero todos los o e o coeficientes de los vectores en M\N). de la aso­ ciatividad y conmutatividad de la suma de vectores y de la distributividad del producto por X X X escalares obtenemos: (αi + βi ) i αi i+ βi i = i∈N i∈N i∈N Prueba. Por o definici´ n F1 = hNi. El incremento es inmediato de 2. F contiene a hNi.6. Supongamos ahora que N ⊆ M. La prueba termina usando la transitividad de la inclusi´ n de conjuntos.

lo m´ s f´ cil. Que se cumplan las propiedades 1­3 es. es bueno que el lector encuentre el parecido a entre el concepto de cerradura lineal y el concepto de “cerradura” en an´ lisis (la intersecci´ n a o de todos los cerrados que contienen a un conjunto). O sea. en R nos hacen falta siempre dos reales ı para dar un vector y en R7 nos hacen falta siete. 2. Esto quiere decir que cada vector de E se define por un cierto n´ mero de elementos del campo (coordenadas) y que este n´ mero es independiente u u 2 del vector a definir. Solo depende del espacio. 1) son tres vectores en R3 . la cerradura de N. 1. Por a o ´ esto con el mismo exito. 2. porque en este caso existe la o a funci´ n inversa f−1 : E → K{N} que nos permitir´ introducir coordenadas en cualquier espa­ o N cio vectorial. En este caso fN (2. equivalente a que el operador de cerradura se defina como la intersecci´ n de todos los cerrados que o contienen al conjunto. K{N} 3 αN 7→ αi i ∈ E Conjuntos generadores Primero. si fN es sobreyectiva. Este hecho es fundamental. En general una funci´ n que a un conjunto N le hace corresponder otro conjunto hNi y que cumple o las propiedades 1­3 se le llama operador de cerradura (clausura. sea N = {x. en general. 0) y z = (0. veremos que los conjuntos de vectores para los cuales fN es biyectiva a tienen la misma cantidad de vectores. y. 0. En todas las ramas de las matem´ ticas se encuentran operadores de cerradura. 1. En matem´ ticas las palabras “clausura”.Secci´ n 2. Ejercicio 46 Demuestre que (x ∈ hN ∪ yi \ hNi) ⇒ (y ∈ hN ∪ xi). Esta funci´ n no tiene porque que ser sobreyectiva ni inyectiva.4 o Bases 47 hNi no puede ser otro que hNi. 0) = fN (0. envoltura). 2) por lo que fN no es inyectiva. 2) = (0.4 Bases Observemos que la definici´ n de combinaci´ n lineal de N de­ o o termina la funci´ n fN del recuadro a la izquierda que a ca­ o i∈N da N­ada de soporte finito αN le hace corresponder el vector P o i∈N αi i. As´. hhNii = hNi. otros autores le llaman “clausura lineal” o “envoltura lineal” a nuestro concepto de cerradura lineal. 0. 0) no tiene preimagen. Adem´ s. La imagen de la funci´ n fN es hNi . a Ejercicio 45 Demuestre que N es un subespacio si y solo si N = hNi. 1). “cerradura” y “envoltura” son sin´ nimos. y = (0. En esta secci´ n estableceremos que en todo espacio vectorial existen conjuntos N para o los cuales la funci´ n fN es biyectiva. 0. z} donde x = (0. Diremos a a o que N es un conjunto generador si hNi es todo el espacio o sea. Es m´ s. X . depende del con­ junto de vectores N. Por ejemplo. Tampoco es sobreyectiva porque (1. En este caso a los conjuntos tales que N = hNi se le llaman cerrados. [129] 2.

Por monoton´a e idempotencia hNi P hN\ai lo que contradice 1. la existencia de combinaciones lineales iguales con al­ gunos coeficientes diferentes es equivalente a la existencia de combinaciones lineales iguales a cero con algunos coeficientes no cero. Luego. Espacios vectoriales ı Todo sobreconjunto de un conjunto generador es generador. Si dos combinaciones lineales de N son iguales entonces. veamos cuando fN es inyectiva. 4. (1 ⇔ 2) Si 1 no es cierto entonces existe a ∈ N tal que hNi = hN\ai pero entonces a ∈ hN\ai lo que contradice 2. Si una combinaci´ n lineal de N es cero entonces. e Conjuntos linealmente independientes Ahora. Prueba. necesariamente hMi tambi´ n lo es. Cualquier subconjunto propio de N genera un subespacio m´ s peque˜ o a n que todo N. a un fN es inyectiva si y solo si se cumple la propiedad 3 del siguiente resultado. Por incremento N\a ⊆ hN\ai y como adem´ s a ∈ hN\ai a entonces N ⊆ hN\ai. Esto contradice 2. Rec´procamente. obtenemos que a ∈ hN\ai. Cualquier vector en N no es combinaci´ n lineal de los restantes. si 2 no es cierto entonces existe ı a ∈ N tal que a∈ hN\ai. o 3. [129] Diremos que un conjunto de vectores N es linealmente independiente si se cumple . (2 ⇔ 4) Si no se cumple 2 entonces hay un vector a ∈ N que es combinaci´ n lineal de o N\a. todos sus coeficientes o son cero. Por monoton´a de la cerradura lineal tenemos hNi ⊆ hMi. Ejercicio 47 Busque en la prueba del Teorema de Caracterizaci´ n de Conjuntos Lineal­ o mente Independientes (2. Observese que en un lenguaje m´ s descriptivo.48 Cap´tulo 2. 2. Esto contradice 4. ı ¡P ¢ ¡⊆ ¢ P (3 ⇔ 4) Observese que αi i = i∈N βi i ⇔ a i∈N i∈N (αi − βi ) i = 0 y adem´ s (αi = βi ) ⇔ (αi − βi = 0).9) donde se usa que en los campos hay inversos nultiplicativos. todos sus coeficientes son iguales. Las siguientes afirmaciones son equivalentes 1. si no se cumple 4 entonces hay un vector a ∈ N y una combinaci´ n lineal de N igual o a cero y con αa 6= 0. Teorema de Caracterizaci´ n de Conjuntos Linealmente Independientes o Sea N un conjunto de vectores. ı Si hNi es todo el espacio entonces. Los generadores son un filtro Prueba. Rec´proca­ ı mente. Pasando todos los sumandos hacia un lado de la igualdad obtenemos una combinaci´ n o lineal de N igual a cero con un coeficiente distinto de cero. Despejando a. Supongamos M ⊇ N.

4 o Bases 49 alguna (y por lo tanto todas) las afirmaciones de la proposici´ n anterior. Bases La relaci´ n entre los conjuntos generadores y los conjun­ o tos LI la podemos ver intuitivamente en la figura a la derecha. Lema de Aumento de un Conjunto LI Si N es independiente y N∪ a es dependiente entonces a ∈ hNi.9. Aqu´ est´ n representados los subconjuntos del espacio E que ı a son generadores o que son LI. Nuestro inter´ s ahora se va a concentrar e en la franja del centro donde hay subconjuntos que a la vez son generadores y LI. La siguiente proposici´ n nos dice que o “esta franja no puede ser muy ancha”.4 de los conjuntos LI. Luego toda combinaci´ n lineal de N igual a cero tiene todos sus coeficientes o iguales a cero Antes de pasar a la definici´ n de base. Prueba.Secci´ n 2. E Conjuntos generadores Conjuntos LI ∅ . A partir de ahora para no repetir constantemente frases largas a los conjuntos de vectores linealmente independientes los llamaremos conjuntos LI. An´ lo­ a gamente a los conjuntos de vectores linealmente dependientes los llamaremos conjuntos LD. demostremos un peque˜ o resultado que usaremos o n repetidamente en lo adelante. Sea N ⊆ M tal que M es LI. ı o Luego. el coeficiente en a es diferente a cero y despejando a obtenemos a ∈ hNi. hay o una combinaci´ n de N ∪ a igual a cero cuyos coeficientes no todos son igual a cero. Prueba. Si el o coeficiente en a fuera diferente a cero obtendr´amos una contradicci´ n con que N es LI. Mientras m´ s arriba m´ s gran­ a a de es el subconjunto. Los independientes son un ideal Todo subconjunto de un conjunto LI es LI. Los conjuntos de o vectores que no son linealmente independiente se les llama linealmente dependientes. Si N ∪ a es LD entonces. Cualquier combinaci´ n lineal de N es combinaci´ n o o lineal de M. por la caracterizaci´ n 2. Estas notaciones se deben pronunciar “ele i” y “ele de”.

50 Cap´tulo 2. Prueba. Luego o todo sobreconjunto propio de N es LD. o (3 ⇒ 1) Sea N generador minimal.9. Si N ⊆ M son dos bases diferentes entonces N es un subconjunto propio de M y por el Teorema de Caracterizaci´ n de Bases (2. Como N es generador entonces M tambi´ n lo es. Entonces. Esto es f´ cil si a . existe una base M tal que L ⊆ M ⊆ N. Tambi´ n. o o Teorema de Existencia de Bases Sea N un conjunto generador y L ⊆ N un conjunto LI. Como N es generador. Por el Lema de Aumento de un Conjunto LI (2. esto significa que M tambi´ n lo es y por lo tanto M es una base.11) tenemos N ⊆ hMi. Las siguientes afirmaciones son equivalentes 1.2 de los conjuntos LI esto contradice la o suposici´ n de que N es LI. Si alg´ n subconjunto propio de N fuera generador entonces existir´a a ∈ N u ı tal que a ∈ hN\ai y por la caracterizaci´ n 2. N es generador y N es LI.9. Espacios vectoriales ı Sea N un conjunto de vectores. 3.9. a Prueba. Como N es generador / a ∈ hNi . Teorema de Caracterizaci´ n de Bases o Prueba. por la caracterizaci´ n 2.12) esto es una contradicci´ n. Si a ∈ N entonces / N ∪ a es LD. Luego. Sea a ∈ N. e Nuestra tarea es encontrar un M que es maximal con estas propiedades. Un conjunto de vectores que es generador de F y que es LI se le llama base de F. (1 ⇒ 2) Sea N independiente y generador. (2 ⇒ 3) Sea N independiente maximal. De la caracterizaci´ n 2.11) tenemos a ∈ hNi . o Lema de Incomparabilidad de las Bases Dos bases diferentes no est´ n contenidas una dentro de la otra.2 de los conjuntos LI se sigue que N ∪ a es LD. Por el Teorema de Caracterizaci´ n de Bases (2. Las bases de todo el espacio se llaman simplemente bases. Esto contradice la suposici´ n de que N es minimal. e o Sea F un subespacio (en particular puede ser todo el espacio). Si M es maximal con estas propiedades (∀a ∈ N\M M ∪ a es LD) entonces por el Lema de Aumento de un Conjunto LI (2. Por incremento N ⊆ hNi.12) el ser base es o equivalente a ser un conjunto LI lo m´ s grande posible o ser un conjunto generador lo m´ s a a chico posible. Si N es LD entonces. Sean L y N como en las hip´ tesis del teorema. 2. N es generador y cualquier subconjunto propio de N no es generador. N es generador. Sea M un conjunto LI tal que o L ⊆ M ⊆ N. N es LI y cualquier sobreconjunto propio de N es LD. el ser base es equivalente a que nuestra funci´ n fN del principio de e o esta secci´ n sea biyectiva.1 o de los conjuntos LI existe subconjunto propio M de N tal que hMi = hNi .

4 o Bases 51 el conjunto N es finito. Prueba. Hemos demostrado que existe b ∈ N\ (M\a) tal que Mb es LI. para cualquier a ∈ M existe b ∈ N tal que (M\a) ∪ b es base. entonces existe a ∈ N\M tal que M ∪ a es LI.14): 1. Por la Propiedad del Cambio de las Bases . an } y B dos bases. o Luego.11) todo b ∈ N ser´a combinaci´ n lineal ı o de M\a. . Prueba. Cualquier conjunto generador contiene a una base. Equicardinalidad de las Bases Dos bases cualesquiera de un espacio vectorial tienen el mismo cardinal. Cualquier conjunto LI esta contenido en una base. a Propiedad del Cambio de las Bases Si M y N son dos bases entonces. Si para todos los b ∈ N\ (M\a) el conjunto Mb fuera LD entonces. Sean A = {a1 . si no. Como N es finito este proceso tiene que terminar en alg´ n u momento con el M deseado. [129] Dimensi´ n o Ahora lo que queremos ver es que todas las bases tienen el mismo n´ mero de vectores. Agregamos a al conjunto M y repetimos este proceso. Esto significa que Mb es generador. N ⊂ hM\ai y por monoton´a e idempotencia tendr´amos hNi ⊆ hM\ai . b no es una combinaci´ n lineal de M\a y por lo tanto αa 6= 0.. por el Lema de Aumento de un Conjunto LI (2. substituirla en la segunda y as´ obtener o ı que v ∈ hMb i. 2. u Para probar esto se necesita ver primero una propiedad cl´ sica de las bases. Sea a un vector fijo pero arbitrario en M. ı ı Como hNi es todo el espacio en particular tendr´amos a ∈ hM\ai lo que no es posible ya ı que M es LI. Construyamos M. Ejercicio 48 Pruebe que las siguientes afirmaciones son consecuencia directa del Teorema de Existencia de Bases (2. Demostremos que Mb es generador.. Para un vector b ∈ N denotemos Mb = (M\a) ∪ b. Por ser M base tenemos que b y v son combinacio­ nes lineales de M o sea existen escalares apropiados tales que X X αx x v = λa a + λx x b = αa a + x∈M\a x∈M\a Como Mb es LI entonces. Sea v un vector arbitrario. 3.Secci´ n 2. Todo espacio vectorial tiene base. O sea. Primero ponemos M igual a L.. podemos despejar a de la primera ecuaci´ n. Si M es maximal terminamos.

13). [130] Ejercicio 50 Encuentre un ejemplo donde no se cumple 2. Sin embargo no solamente tienen una base sino muchas. Repitiendo este proceso obtenemos bases A3 . Por el contrario.. Para darnos cuenta de que hay muchas cosas que se cumplen o en el caso finito dimensional pero no en el caso infinito dimensional veamos como ejemplo el siguiente resultado que tendremos m´ ltiples ocaciones para utilizarlo.. [130] Bases can´ nicas o Ya sabemos que todo espacio vectorial tiene bases. Por esto es conveniente construir bases que son las m´ s “sencillas” para a . a3 .. A4 . Aplicando la Propiedad del Cambio de las Bases (2. an } donde b1 ∈ B. e Al cardinal de una base (cualquiera) se le llama dimensi´ n del espacio vectorial. . Como e las dimensiones coinciden. si o sus bases son infinitas entonces. el espacio vectorial es de dimensi´ n infinita. La teor´a de o ı los espacios vectoriales de dimensi´ n finita es m´ s sencilla pero m´ s completa que la de los o a a espacios de dimensi´ n infinita...13).14) existe una base M del espacio F que contiene a N. . A los interesados en esto les recomiendo leer ahora la ultima secci´ n de este cap´tulo. Sea N una base de E. an } tal que b2 ∈ B. u u Luego N = M y por lo tanto E = hNi = hMi = F.. o ı Ejercicio 49 Pruebe que si E un subespacio de F entonces dim E ≤ dim F. Si dim E = dim F entonces E = F.15) a A1 obtenemos otra base A2 = {b1 . N tambi´ n es finita. Por el Teorema de Existencia de Bases (2..16) la hemos he­ cho solamente para el caso que el espacio tiene una base finita. el n´ mero de vectores en N es igual al n´ mero de vectores en M. Finalmente.52 Cap´tulo 2. Como M es finita entonces. . Observese que |A1 | = n ya que en otro caso A1 Ã A lo que contradice el Lema de Incomparabilidad de las Bases (2. Prueba. Nuestra prueba del Teorema de Existencia de Bases (2.17. An todas con n vectores y adem´ s An ⊆ B.15) existe otra base A1 = {b1 .14) es solo para el caso que el con­ junto generador es finito. Espacios vectoriales ı (2. a2 . Como a B es base obtenemos An = B y por lo tanto B tambi´ n tiene n vectores. La di­ o mensi´ n de un espacio vectorial E se denotar´ por dim E. Sin embargo. Los espacios vectoriales que tienen o a una base finita se les llama finito dimensionales o de dimensi´ n finita. u Sea F un espacio vectorial finito dimensional y E un subespacio de F.. las pruebas generales dependen de un a conocimiento m´ s profundo de la Teor´a de Conjuntos que no presuponemos que lo posea el a ı ´ lector. b2 . Observese que |A2 | = n ya que en otro caso A2 Ã A1 lo que contradice el Lema de Incomparabilidad de las Bases (2. Observese que la prueba de Equicardinalidad de las Bases (2. Es importante que el lector sepa que estas tres afirmaciones son v´ lidas en general.. solo hemos probado que los espacios vectoriales que tienen un conjunto generador finito tienen base.

Sea N el conjunto de todos esos vectores. O sea. El o o ejemplo m´ s sencillo de esto es tomar un subespacio de un espacio de dimensi´ n finita. Sin embargo.2. β) = 0 = (0. b) = ae1 + be2 . la dimensi´ n de R2 es 2. K [x] es de dimensi´ n infinita contable. . Por otro lado. para el espacio de series no se puede dar explicitamente una base. De aqu´ obtenemos que conjunto N es una base que la llamamos base can´ nica ı o de R2 .3 de los conjuntos LI el o o conjunto N es LI. si αe1 + βe2 = (α. A la o base N se le llama base can´ nica de K [x]. Si el conjunto de ´ndices es finito entonces estamos hablando de todas las ı M M­adas o sea de K . Sea N el conjunto de todos esos vectores. o tenemos la igualdad (a. o El campo de los n´ meros complejos como espacio vectorial sobre los reales tienen como u base can´ nica al conjunto {1. Para cada i en el conjunto de ´ndices M denotemos por ei el vector cuya i­esima e ı coordenada es 1 y las dem´ s son cero. . . Luego. La o {M} dimensi´ n de K es el cardinal de N ya que hay una biyecci´ n entre N y M. Esto quiere decir que el conjunto N es generador. Para cada i en el conjunto de ´ndices {1. o La ª Veamos el espacio de polinomios K [x]. Tenemos (α1 . . o n Pasemos ahora a K . Si a o este subespacio es suficientemente general. no todos los espacios de dimensi´ n finita tienen una base can´ nica. b) en R2 tiene una manera de expresarse como combinaci´ n lineal de N = {e1 . Es claro que ´ todo polinomio se puede escribir de forma unica como combinaci´ n lineal finita de N. Luego. . i} y por lo tanto tiene dimensi´ n 2. Cualquier vector (a. Sea N el conjunto xi | i ∈ N . Tenemos a P αN = i∈N αi eN donde los coeficientes son distintos de cero solamente en un subconjunto finito de indices. o o Recordemos al lector que lo de soporte finito es no trivial solo para cuando el conjunto M es infinito. . necesariamente. N es una base de este espacio la cual es su base can´ nica. o Todos los espacios que hemos visto que no tienen base can´ nica son de dimensi´ n infi­ o o nita. entonces no hay manera de construir una base can´ nica del mismo incluso en el caso de que todo el espacio tenga una base can´ nica. En el caso de que el conjunto M sea infinito a entonces el espacio KM no tiene una base can´ nica. en el caso de que M es finito K{M} = KM y la base can´ nica o de KM es la construida en el p´ rrafo anterior. 1). 0) y e2 = (0. N es generador y por la caracterizaci´ n 2. A la base N se le llama base can´ nica de Kn .Secci´ n 2.4 o Bases 53 los ejemplos de espacios vectoriales que construimos en la Secci´ n 2. Luego. Los reales como espacio o o vectorial sobre los racionales no tienen una base can´ nica. © dimension de Kn es n. o Comenzemos con R2 . α y β son ambos cero. o o Ejercicio 51 Demuestre que el conjunto {(x − x0 )i | i ∈ N} es una base de K [x]. . Los vectores e1 y e2 se pueden visualizar geom´ tricamente como los dos vectores de e longitud 1 en ambos ejes de coordenadas. 0) entonces. o o Desafortunadamente. Sean e1 = (1. . e2 }. Efectivamente. [130] Ejercicio 52 ¿Cual es la base can´ nica del espacio de las NM­matrices? [130] o .9. αn ) = n ´ i=1 αi ei y esto significa que cada vector en K se expresa de forma unica como combina­ ci´ n lineal de N. Para el espacio K{M} de todas las M­adas de soporte finito ya hicimos casi todo el trabajo (v´ ase Kn ). n} denotemos por ei ı el vector cuya i­esima coordenada es 1 y todas las dem´ s son cero (recuerde que todo cam­ a po Pntiene uno y cero). Luego.

5 Clasificaci´ n de espacios vectoriales o En esta secci´ n veremos que todo espacio vectorial es isomorfo a un espacio de N­ o ´ adas de soporte finito. grupos. ı Aqu´ estaremos interesados en los isomorfismos de espacios vectoriales. o o . ı ´ Para los espacios vectoriales es igual. Primero. anillos y campos. la unica diferencia es que en ellos hay definida una operaci´ n que no es interna del espacio: el producto de un escalar por un vector. [130] o El estudio de las transformaciones lineales lo pospondremos hasta el siguiente cap´tulo. Prueba. Sin embargo o esto no presenta mayores dificultades.54 Cap´tulo 2. y ∈ F. Una funci´ n f : E → F se le llama morfismo de espacios o f (αa) = αf (a) vectoriales si para cualesquiera a. ı Ya observamos. Isomorfismos lineales En el Cap´tulo 1 vimos los morfismos de operaciones binarias. hay mucha m´ s cantidad de a a a personas que la conoce y por lo tanto facilita la comunicaci´ n con ingenieros y cient´ficos o ı de diversas areas. Como f es una biyecci´ n existen a. A los morfismos de espacios vectoriales tambi´ n se les llama transformaciones lineales. Esto quiere decir que “cualquier propiedad” debe conservarse al aplicar un isomorfismo. An´ logamente al caso de operaciones binarias tenemos el siguiente resultado: a La inversa de cualquier isomorfismo lineal es un isomorfismo lineal. Sea α ∈ K y x. b ∈ E tales que o f (a) = x . Segundo es mucho m´ s antigua. que los isomorfismos son nada m´ s que un cambio de los nombres de los a elementos y las operaciones. e ´ Esta ultima expresi´ n ser´ la que usemos porque tiene dos importantes ventajas. Ejercicio 53 Demuestre que la composici´ n de morfismos es un morfismo. Una transformaci´ n ı o lineal f : E → F es un isomorfismo de espacios vectoriales o isomorfismo lineal si esta es biyectiva. Para el caso finito dimensional esto quiere decir que el unico (salvo isomorfismos) espacio vectorial de dimensi´ n n sobre un campo K que existe es el espacio o n de las n­adas K . o a es m´ s corta que la primera. La siguiente proposici´ n es un ejemplo de esta afirmaci´ n. Sean E y F dos espacios vectoriales sobre el mismo campo f (a + b) = f (a) + f (b) K. b ∈ E y cualquier α ∈ K se cumplen las propiedades del recuadro. f (b) = y. Espacios vectoriales ı 2. Como f es isomorfismo tenemos f−1 (x + y) = f−1 (f (a) + f (b)) = f−1 (f (a + b)) = a + b = f−1 (x) + f−1 (y) f−1 (αx) = f−1 (αf (a)) = f−1 (f (αa)) = αa =αf−1 (x) que es lo que se quer´a demostrar.

! a x à Como f es isomorfismo tenemos à à ! X X X αi i = x ⇔ αi f (i) = y ⇔ αj j = y i∈M i∈M j∈N donde el conjunto de coeficientes {αi | i ∈ M} es exactamente el mismo que {αj | j ∈ N}. Ejercicio 54 Demuestre que los isomorfismos conmutan con el operador de cerradura lineal y que trasforman subespacios en subespacios de la misma dimensi´ n. Si M es generador entonces. y x es o P ´ un vector de F entonces. o Coordinatizaci´ n o Sea N un conjunto de vectores del espacio vectorial F.5 o Clasificaci´ n de espacios vectoriales o 55 Un isomorfismo transforma conjuntos LI en conjuntos LI. En otras palabras. . Luego. si o M es generador entonces N tambi´ n lo es. cualquier combinaci´ n lineal de N que es nula tambi´ n es combinaci´ n lineal nula de o e o M y por lo tanto todos sus coeficientes son cero. ya vimos que fN es sobreyectiva si y solo si N es generador. Sea M ⊆ E y denotemos N = f (M) ⊆ F. si N es una base de F. con­ juntos generadores en conjuntos generadores y bases en bases. Sea f : E → F un isomorfismo de espacios vectoriales. y = f (x) ∈ F. En el caso de que N sea una base. Sean adem´ s! ∈ E . Luego. i∈N i∈N Por otro lado. poniendo x = 0 obtenemos à ! à ! X X αi i = 0 ⇔ αj j = 0 i∈M j∈N luego. para cualquier y ∈ F el vector x = f−1 (y) es combinaci´ n o lineal de M y por la equivalencia anterior el vector y es combinaci´ n lineal de N. e Supongamos que M es LI entonces. N es LI. En este caso. que fN es inyectiva si y solo si N es LI y por lo tanto fN es un isomorfismo si y solo si N es una base. a los coeficientes αi se les llama coordenadas de x en la base N. Al principio de la secci´ n ante­ o rior introducimos la funci´ n fN que a cada N­ada de soporte finito le hace corresponder la o combinaci´ n lineal cuyos coeficientes son dicha N­ada. la funci´ n inversa f−1 : F → K{N} es un isomorfismo lineal llamado o N coordinatizaci´ n de F mediante la base N.Secci´ n 2. Prueba. existe una unica N­ada αN ∈ K{N} tal que x = i∈N αi i. Esta funci´ n es siempre una trans­ o o formaci´ n lineal ya que o X X X fN (αN + βN ) = (αi + βi ) i = αi i + βi i = fN (αN ) + fN (βN ) i∈N i∈N X X i∈N fN (λαN ) = (λαi ) i = λ αi i = λfN (αN ) .

19 un isomorfismo entre ellos transforma biyectivamente una base de uno en una base del otro por lo que tienen la misma dimensi´ n.56 Clasificaci´ n o Cap´tulo 2.21). Ya en este caso. o Prueba. a Teorema de Clasificaci´ n de Espacios Vectoriales o Todo espacio vectorial es isomorfo a un espacio de N­adas de soporte finito. Si los dos tienen la misma dimensi´ n entonces. Mediante los isomorfismos de coordinatizaci´ n podemos pensar que E = K{N} y o {M} F = K . Escogiendo el conjunto N adecuadamente obtenemos o todas las dimensiones posibles. u u para entender es necesario usar varios m´ todos: las analog´as geom´ tricas en dimensiones e ı e peque˜ as. Como pensar en espacios vectoriales A partir de ahora el lector debe siempre tener en mente el Teorema de Clasificaci´ n de o Espacios Vectoriales (2. La funci´ n g la po­ o o demos pensar como la que simplemente le cambia el nombre a los ´ndices de una N­ada. Todo espacio vectorial finito dimensional es isomorfo a Kn . este espacio es Kn por lo que es v´ lido el siguiente teorema. se debe pensar en R2 y R3 . el c´ lculo algebraico con s´mbolos y los razonamientos l´ gicos. sean N y M bases de E y F respecti­ o ı vamente. Sean E y F dos espacios vectoriales. Si E y F son isomorfos entonces por 2. Casi todo lo que n a ı o se puede demostrar para espacios vectoriales finito dimensionales se demuestra en el caso . o Dos espacios vectoriales sobre el mismo campo son isomorfos si y solo si tienen la misma dimensi´ n. La interpretaci´ n geom´ trica de estos dos espacios como los segmentos dirigidos o e con origen en el cero da una intuici´ n saludable acerca de lo que es cierto y lo que no. uno es igual a otro salvo los “nombres” de los vectores y las operaciones. ı Esta es claramente un isomorfismo de espacios vectoriales (ya que la suma de N­adas es por coordenadas y lo mismo con el producto por un escalar). Si el lector lo prefiere. o En segundo lugar el lector debe pensar en el ejemplo Rn . el n´ mero n puede ser un n´ mero fijo suficientemente grande digamos n = 11. No hay ninguna raz´ n (por ahora) para que deseemos distinguir dos espacios o vectoriales que son isomorfos. Esta proposici´ n nos permite saber como son TODOS los espacios vectoriales. Ya vimos o (mediante la base can´ nica) que el espacio vectorial de todas las N­adas (funciones) de o soporte finito tiene dimensi´ n |N|. Espacios vectoriales ı Se dice que dos espacios son isomorfos si existe una funci´ n que es un isomorfismo o entre ellos. Si esto sucede. En el caso de que N sea finito con n elementos . hay una biyecci´ n f : M → N. La clave para ver que los espacios vectoriales son isomorfos es que estos tengan la misma dimensi´ n. Rec´procamente. o o {N} {M} Sea g : K 3 αN 7→ βM ∈ K la funci´ n tal que βi = αf(i) . Al hablar de un espacio vectorial en primer lugar.

si el lector no le tiene miedo al concepto de campo (que es uno de los objetivos de este libro) entonces.Secci´ n 2. Adem´ s.. b1 . el subespacio es por 2. El problema es que nadie conoce (ni conocer´ nunca) una base de este espacio. 1.. el subespacio tiene que ser isomorfo a R y tiene que tener una base de un vector. Luego. Desde este punto de vista podemos pensar (no rigurosamente) a Cn como un R2n en el que hay menos subespacios. De la misma manera Cn es un espacio vectorial sobre R de dimensi´ n 2n o sea. Si i = 0 entonces todo el subespacio es el vector 0 (el origen de u o coordenadas). los ı subespacios de dimensi´ n 1 de Rn son las lineas rectas que pasan por el origen. a2 . existe un vector a tal que el subespacio es igual a hai. El espacio vectorial Cn es extremadamente impor­ tante dentro de las matem´ ticas y la f´sica. Para R2 este o . . Si i = 1 entonces. Los que se interesan en las ciencias de la computaci´ n deben tambi´ n pensar en Zn y o e p n en general en cualquier K donde K es un campo finito. Las aplicaciones m´ s relevantes a incluyen la codificaci´ n de informaci´ n con recuperaci´ n de errores y la criptograf´a. n} seg´ n sea su dimensi´ n. i} o e es una base de C como espacio vectorial sobre R. Las demostraciones de muchos hechos v´ lidos a en Rn se copian tal cual para espacios vectoriales de dimensi´ n finita sobre cualquier campo. Hay una manera a a n de pensar en C que ayuda un poco para tener intuici´ n geom´ trica. Luego. . b2 . los casos interesantes son los que 0 < i < n. . . hay una biyecci´ n natural entre Cn y R2n (la bi­ o o yecci´ n es (a1 + b1 i. Ya vimos que hai es la l´nea que pasa por el origen y por el punto a que es el final del vector a. Nuestros teoremas o a nos garantizan que hay un isomorfismo entre R como espacio vectorial sobre Q y las funcio­ nes de soporte finito de una base de este espacio a Q. estos teoremas no dicen mucho a ı para espacios vectoriales de dimensi´ n mayor que el cardinal de los naturales ℵ0 .. Esto tiene una gran ventaja en el sentido a a de que no hay que pensar en los detalles particulares que se cumplen en uno u otro campo.17 todo el espacio. que es o o o ı la ciencia de cifrar mensajes. a2 + b2 i. Si i = n entonces. an + bn i) 7→ (a1 .. bn )). Pero an­ o a a tes. O sea. Sin embargo. . Como ya vimos {1. .6 o Suma de subespacios 57 particular de Rn con la misma complejidad. en el caso infinito dimensional la situaci´ n es m´ s fea.. lo m´ s f´ cil es pensar en Kn .21) sabemos que estos tienen que ser isomorfos a Ri para i ∈ {0. o En tercer lugar se debe pensar en Cn . el hecho de que C es algebraicamente a ı a cerrado hace que para Cn algunos problemas sean m´ s f´ ciles que en Rn . es saludable dar una interpretaci´ n geom´ trica de los subespacios para que el lector o e pueda comparar el caso general con el caso de los espacios R2 y R3 .6 Suma de subespacios En esta secci´ n introduciremos las operaciones m´ s b´ sicas entre subespacios. Si E es un subespacio de Cn sobre R entonces no ne­ o cesariamente E es un subespacio de Cn sobre C .. Sin embargo o esta biyecci´ n no es un isomorfismo. Subespacios de Rn ¿Cuales son todos los subespacios de Rn ? Del Teorema de Clasificaci´ n de Espacios o Vectoriales (2. Ahora. as´ que realmente. an . o 2.

Para R3 este an´ lisis termina con o a todas las posibilidades: sus subespacios son: el origen. . Ahora tenemos que pensar por lo menos en los subespacios de R4 y ya se nos acaba la intuici´ n y la terminolog´a geom´ trica. En este caso hay un unico plano (R2 ) que pasa a por estos tres puntos y tambi´ n ya vimos que este plano es ha. a Si i = 2 entonces. Un subespacio de o ı e dimensi´ n i en Rn esta generado por una base {a1 . Por definici´ n de intersecci´ n E ∩ F es el subespacio m´ s grande contenido o o a en E y F. Que sean LI o lo que quiere decir es que sus puntos y el origen no est´ n contenidos en un subespacio de a ´ dimensi´ n menor que i. En otras palabras. ai } de i vectores LI. Espacios vectoriales ı an´ lisis termina con todas las posibilidades. Ahora trataremos de calcular la dimensi´ n de E + F. Suma de conjuntos y subespacios Sean E y F dos subespacios sobre un campo K. pasemos al caso general. a La igualdad modular Sean E y F dos subespacios. toda combinaci´ n lineal de E ∪ F se puede escribir como o x∈E y∈F en el recuadro a la derecha.22 se puede reformular como hE ∪ Fi = e o E + F. . Ya observamos adem´ s que E ∪ F no es un subespacio. b} tiene que ser LI y en este caso eso quiere decir que b no es un m´ ltiplo escalar de a. Sin embargo. Despu´ s de esta definici´ n el resultado 2. Para o esto necesitaremos primero encontrar bases de E ∩ F y E + F. . Esto quiere decir que todo elemento de hE ∪ Fi es de la forma a + b con a en E y b en F. Rec´pro­ X o ı αx x + βy y camente. . . El subespacio a n hE ∪ Fi tiene una estructura muy simple: hE ∪ Fi = {a + b | a ∈ E. las lineas por el origen. bi. los subespacios de e dimensi´ n 2 de Rn son los planos que pasan por el origen. los puntos finales de los vectores a. b y u ´ el origen de coordenadas no est´ n alineados. ai i. Todo a + b es una combinaci´ n lineal de E ∪ F. hay un a subespacio que es el m´ s peque˜ o que contiene a los dos y este es hE ∪ Fi. b ∈ F} X Prueba. b ∈ B} Dados dos conjuntos cualesquiera de vectores A y B definimos la suma de estos como en el recuadro a la izquierda.58 Cap´tulo 2. b} de dos vectores. . A + B = {a + b | a ∈ A. . . . Si este es el caso entonces hay un unico Ri que contiene a todos o estos puntos y este es el subespacio ha1 . Como E y F son subespacios entonces. el subespacio tiene que ser isomorfo a R2 y tiene que tener una base {a. Por esto. Luego. La base {a. Es por esto que al subespacio hE ∪ Fi se le llama la suma de los subespacios E y F y desde ahora se le denotar´ por E + F. los planos por el origen y todo el espacio. el primero y el segundo sumando son elementos de E y F respectivamente. En la proposici´ n 2.3 vimos que E ∩ F es o un subespacio.

Adem´ s. por la forma en que contruimos E y F tenemos N ⊆ E ∩ F. Efectivamente.14) existe una base E de E que contiene a N. Demostremos primero que E ∩ F = N. a existe una base F de F que contiene a N. la f´ rmula se reduce a la conocida igualdad entre cardinales de o conjuntos |E| + |F| = |E ∪ F| + |E ∩ F|. obtenemos z ∈ E ∩ F.23 existen bases E y F de E y F tales que E ∪ F es base de E + F y E ∩ F es base de E ∩ F. . y.6 o Suma de subespacios 59 Existen E una base de E y F una base de F tales que E ∩ F es base de E ∩ F y E ∪ F es base de E + F. por el Teo­ a rema de Existencia de Bases (2. Para la prueba de la otra inclusi´ n sea a ∈ E ∩ F. En particular. a P Como N es una base de E∩F el vector z es combinaci´ n lineal de N. De aqu´ obtenemos que X ı X αi i+ (αi + λi ) i 0=x+y+z= i∈E\N i∈N y como F es LI deducimos que los restantes coeficientes tambi´ n son cero. segundo y tercer sumando respectivamente en la igualdad anterior. Substituyendo x obtenemos X X 0=y+z= αi i+ αi i i∈N i∈F\N y demostremos que todos los αi son cero. Luego. z el primer. Para esto supongamos que X X X X 0= αi i = αi i+ αi i+ αi i i∈E∪F i∈E\N i∈N i∈F\N Como E es LI. Como N es base de E ∩ F y las bases son los conjuntos LI m´ s grandes. Por 2. Por construcci´ n. E ∩ F ⊆ N. dim E + dim F = dim (E + F) + dim (E ∩ F). cualquier a + b ∈ E + F es combinaci´ n lineal de E ∪ F por lo que E ∪ F es generador de E + F. obtenemos que a ∈ N. o sea z = i∈N λi i o para ciertos coeficientes λi . Sea N una base de E∩F . o αi = 0 para todo i ∈ E\N y por lo tanto x = 0. Prueba. tenemos que N ∪ a es LI. En primer lugar. tenemos x ∈ E. An´ logamente. y ∈ E ∩ F y o z ∈ F.Secci´ n 2. Como N es LI y est´ contenida en E entonces. todos los coeficientes de esta combinaci´ n lineal son cero. o Necesitamos probar que E ∪ F es LI. Como N ∪ a ⊆ E o entonces. a Solo nos queda probar que E ∪ F es una base de E + F. como z = − (y + x) y E es un subespacio. Prueba. e Igualdad modular Si E y F son dos subespacios entonces. Sean x. Luego.

La diferencia est´ en que la suma directa ya trae en su definici´ n las operaciones de suma de a o vectores y multiplicaci´ n por un escalar. a Isomorfismo Can´ nico entre la Suma y la Suma directa o Si E y F son subespacios tales que E ∩ F = {0} entonces la funci´ n o E ⊕ F 3 (a.24) obtenemos dim (E0 + F0 ) = dim E0 + dim F0 − dim (E0 ∩ F0 ) = dim E + dim F. Es claro que los espacios E y E0 son isomorfos y por lo tanto tienen la misma dimensi´ n. b = a + a . Por o definici´ n de suma de subespacios tenemos que E0 + F0 = E ⊕ F .60 Cap´tulo 2. Nosotros omitiremos esta prueba por ser trivial y aburrida. Mejor nos concentraremos en algo m´ s interesante. b) = (λa. λb) Observese que como conjunto la suma directa es el producto cartesiano de conjuntos. a dim (E ⊕ F) = dim E + dim F. b ¡ E ⊕ 0F = ¡ b) 0| a ∈ E. A continuaci´ n probaremos solo un poquito m´ s. . ¿Puede tener E + F dimensi´ n diferente a las de la tabla? o Suma directa Para dos espacios vectoriales Ey F(no necesariamente contenidos en otro espacio) sobre un mismo campo Kdefiniremos la suma directa de ellos como el espacio vectorial {(a. Sea E0 = {(a. Otro tanto ocurre con F y F0 . este poquito nos o a llevar´ a profundas reexiones. Prueba. b) 7→ a + b ∈ E + F es un isomorfismo de espacios vectoriales. o sea que cumplen todos los axiomas. Espacios vectoriales ı E 1 1 1 F 1 1 2 (E + F) 1 2 2 E 1 2 2 F 2 2 2 (E + F) 3 3 4 Ejercicio 55 Use la igualdad modular para cons­ truir ejemplos de subespacios reales E y F tales que ellos y E + F tienen las dimensiones definidas en la tabla del recuadro a la derecha. Sin embargo.¢ ∈ F} ¢ 0 0 (a. De la Igualdad modular o (2. b) + a . b) | b ∈ F}. 0) | a ∈ E} y F0 = {(0. Isomorfismo can´ nico entre la suma y la suma directa.b + b λ (a. o ´ De esta ultima proposici´ n y de la igualdad modular se deduce que si dos subespacios E o y F son tales que E ∩ F = {0} entonces dim (E ⊕ F) = dim (E + F) o sea E ⊕ F es isomorfo a E + F. Deber´amos probar que la suma directa es efectiva­ o ı mente un espacio vectorial.

Secci´ n 2.6 o

Suma de subespacios

61

Observemos que el isomorfismo (a, b) 7→ a + b no depende de escoger base alguna en E ⊕ F. Todos los isomorfismos que construimos antes de esta proposici´ n se construye­ o ron escogiendo cierta base en alguno de los espacios. Los isomorfismos que no dependen ´ de escoger alguna base juegan un papel importante en el algebra lineal y se les llama iso­ morfismos can´ nicos. Decimos que dos espacios vectoriales son can´ nicamente isomorfos o o si existe un isomorfismo can´ nico entre ellos. As´ por ejemplo todo espacio vectorial E de o ı dimensi´ n 3 es isomorfo a K3 pero no es can´ nicamente isomorfo a K3 porque no se pue­ o o de construir de cualquier espacio vectorial de dimensi´ n 3 un isomorfismo con K3 que no o dependa de escoger alguna base. Cuando veamos los productos escalares veremos que hay fuertes razones para que diferenciemos las bases. Los isomorfismos no can´ nicos no ne­ o cesariamente preservan una u otra propiedad de las bases. Por otro lado, los isomorfismos can´ nicos si las preservan. Si por un lado, debe haber cierta resistencia a considerar iguales o a dos espacios vectoriales isomorfos (no todas las bases son iguales) por el otro, los espacios can´ nicamente isomorfos no se diferencian en nada uno del otro, por lo que se puede pensar o que es el mismo espacio.

Prueba. Sea f la funci´ n definida en el enunciado. Tenemos o f (λ (a, b)) = f (λa, λb) = λa + λb = λ (a + b) = λf (a, b) f ((a, b) + (x, y)) = f (a + x, b + y) = a + x + b + y = f (a, b) + f (x, y) por lo que solo queda demostrar que f es biyectiva. Por definici´ n de suma de subespacios o f es sobreyectiva. Para probar la inyectividad supongamos que f (a, b) = f (x, y) entonces, a − x = y − b. Como a, x ∈ E entonces a − x ∈ E. Como b, y ∈ F entonces y − b ∈ F. Luego a − x = y − b ∈ E ∩ F = {0} por lo que a = x y b = y.

Ejercicio 56 1. Demuestre que E ⊕ F y F ⊕ E son can´ nicamente isomorfos. o

2. ¿Como se debe llamar esta propiedad de la suma directa de espacios? 3. Demuestre que la suma directa de espacios es asociativa. 4. ¿Tiene la suma directa elemento neutro? [130]

Subespacios complementarios Sea S un espacio vectorial y E un subespacio de S . Diremos que el subespacio F es complementario de E en S si S = E ⊕ F. Esta igualdad por el Isomorfismo Can´ nico entre o la Suma y la Suma directa (2.26) lo que quiere decir es que S = E + F y E ∩ F = {0}. En R2 dos lineas por el origen diferentes son complementarias una a otra. En R3 un plano y una l´nea no contenida en el plano (ambos por el origen) son complementarios uno a otro. ı Todo subespacio tiene complementario. Prueba. Sea E un subespacio de S. Sea A una base de E. Por el Teorema de Existencia de Bases (2.14) hay una base C de S que contiene a A. Sea F el espacio generado por B = C\A.

62

Cap´tulo 2. Espacios vectoriales ı

Como C es generador de S, todo elemento en S es combinaci´ n lineal de C y en particular o todo elemento de S se expresa como a + b con a ∈ E y b ∈ F. Luego S = E + F. Por otro lado, si x ∈ E ∩ F entonces, tienenà existir combinaciones ! que lineales tales que à ! X X X X x= αa a = αa a ⇒ αa a − αa a = 0 . ´ Como C es LI entonces, por la caracterizaci´ n 2.9.4 de los conjuntos LI la ultima combina­ o ci´ n lineal tiene todos sus coeficientes iguales a cero. Luego, E ∩ F = {0}. o Si E y F son dos subespacios complementarios entonces cada vector x se expresa de forma unica como x = a + b donde a ∈ E y b ∈ F. ´ Prueba. Si E y F son complementarios entonces E + F es todo el espacio y por lo tanto todo vector es de la forma a + b. Si a + b = a0 + b0 entonces a − a0 = b0 − b ∈ E ∩ F = {0} ´ por lo que la descomposici´ n x = a + b es unica. o ´ Ejercicio 57 Demuestre el rec´proco de 2.28: Si cada vector se expresa de forma unica ı como x = a + b con a ∈ E y b ∈ F entonces, los subespacios son complementarios. [130] Ejercicio 58 Pruebe que E = E1 ⊕ E2 ⊕ · · · ⊕ En si y solo si cualquier vector x ∈ E se ´ expresa de forma unica como x = x1 + · · · + xn con xi ∈ Ei . Sugerencia: Usar 2.28, el ejercicio anterior y la asociatividad de la suma directa para aplicar inducci´ n en el n´ mero o u de sumandos n. Espacios vectoriales versus conjuntos Hemos demostrado ya unos cuantos resultados que se parecen mucho a los de Teor´a ı de Conjuntos y siempre es saludable establecer analog´as con resultados ya conocidos. Para ı acentuar m´ s esta similitud hagamos un diccionario de traducci´ n a o Conjunto ←→ Espacio vectorial Subconjunto ←→ Subespacio vectorial Cardinal ←→ Dimensi´ n o Intersecci´ n de subconjuntos ←→ Intersecci´ n de subespacios o o Uni´ n de subconjuntos o ←→ Suma de subespacios Uni´ n disjunta o ←→ Suma directa Complemento ←→ Subespacio complementario Biyecciones ←→ Isomorfismos Si nos fijamos atentamente muchos de los resultados que hemos demostrado para espa­ cios vectoriales tienen su contraparte v´ lida para conjuntos usando el diccionario que hemos a construido. Probablemente, el ejemplo m´ s notable de esto son las igualdades modulares a para conjuntos y para espacios vectoriales.
a∈A a∈B a∈A a∈B

Secci´ n 2.7 o

Espacios cocientes

63

Sin embargo, es preciso ser cuidadosos en tratar de llevar resultados de los conjuntos a los ´ espacios vectoriales. Por ejemplo, el complemento de un subconjunto es unico y no siempre ´ hay un unico subespacio complementario. Otro ejemplo, un poco m´ s substancial, es que la a intersecci´ n de conjuntos distribuye con la uni´ n o sea A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) . o o Por otro lado la intersecci´ n de subespacios en general no distribuye con la suma o sea, la o igualdad A∩(B + C) = (A ∩ B)+(A ∩ C) no siempre es verdadera. Para ver esto t´ mese en o R3 los subespacios A = h(0, 0, 1) , (1, 1, 0)i , B = h(1, 0, 0)i y C = h(0, 1, 0)i . Calculamos A ∩ (B + C) = h(1, 1, 0)i y (A ∩ B) + (A ∩ C) = {(0, 0, 0)} y vemos que son distintos.

Ejercicio 59 Si A y B son dos conjuntos entonces la diferencia sim´ trica de los mismos es e
el conjunto A +2 B = (A ∪ B) \ (A ∩ B). Demuestre que todos los conjuntos finitos de un conjunto cualquiera U forman un espacio vectorial de dimensi´ n |U| sobre el campo Z2 para o la suma +2 y el producto 1A = A, 0A = ∅. Vea, que los conceptos de nuestro diccionario de traducci´ n se aplican a este caso en forma directa. o

2.7 Espacios cocientes
Ya vimos que para un subespacio E del espacio F, siempre existen subespacios comple­ mentarios a el. Sin embargo hay muchos de estos subespacios complementarios y no hay una manera can´ nica de escoger alguno de ellos. En esta secci´ n nos dedicaremos a cons­ o o truir can´ nicamente el espacio cociente F/E que es el espacio de todos los subespacios afines o paralelos a E y que es isomorfo a cualquier subespacio complementario de E. Subespacios afines Ya vimos que en el plano cartesiano R2 los subespacios son el origen {0}, todo R2 y las lineas que pasan por el origen. Sin embargo, hay otras lineas en el plano que no pasan por el origen. Para obtener una de estas lineas lo que tenemos que hacer es trasladar una l´nea por el origen ` ı mediante un vector x (v´ ase la figura). De esta manera, obtenemos la e l´nea `0 que se obtiene sumandole x a cada vector en la l´nea `. Observese ı ı que si x 6= 0 entonces las lineas ` y `0 no se intersectan.

`0 ` x

R2

Esto nos motiva a la siguiente definici´ n. Sea A un conjunto de vectores y x un vector. o Al conjunto A + x = {a + x | a ∈ A} se le llama la traslaci´ n de A con el vector x. El o lector debe observar que la operaci´ n de trasladar es un caso particular (cuando uno de los o sumandos solo contiene a un solo vector) de la operaci´ n de suma de conjuntos de vectores o introducida en la secci´ n anterior. o

si E = E + x entonces dim E = dim E. y − x ∈ F y por lo tanto F = F + y − x = E. Ahora observemos. E = E + z. Como F es un subespacio. . E + x = E + z + x = E + a.29. Prueba. E = F+y−x. Las e traslaciones de un subespacio cumplen una propiedad muy sencilla pero 0 E fundamental: que es posible trasladar el subespacio con diferentes vec­ tores y obtener el mismo subespacio af´n (v´ ase la figura a la izquierda). Si y ∈ (E + x) ∩ (E + x0 ) entonces. Ahora por el caso general. a Todo subespacio af´n es paralelo a un solo subespacio. x − y ∈ F. Es com´ n utilizar la terminolog´a u ı geom´ trica para hablar de los subespacios afines de dimensi´ n peque˜ a. M´ s precisamente: ı e a Si a ∈ E + x entonces. Sabemos que. As´. un punto es e o n ı un subespacio af´n de dimensi´ n cero. Probemos primero el caso que x = 0. Es un error com´ n (debido al caso de lineas en el plano) pensar que es equivalente u que dos subespacios sean paralelos a que estos no se intersecten. Para convencerse de que esto no es cierto. Cada uno de ellos o ı ´ es paralelo a un unico subespacio y su dimensi´ n es la dimensi´ n de ese subespacio. Espacios vectoriales ı Un subespacio af´n es el trasladado de un subespacio. La relaci´ n de paralelismo entre subespacios afines es de o equivalencia ya que si E = F + x y G = E + y entonces. Si E+x = F+y entonces.64 E+x=E+a xa Cap´tulo 2. Luego. Basta trasladar con el vector cero. E + x = E + a. ı un conjunto de vectores E es un subespacio af´n si existen un subespacio ı E y un vector x tales que E = E + x. Dos subespacios afines se le llaman paralelos ı si uno es un trasladado del otro. que un trasladado de un subespacio af´n es a su vez un subespacio ı af´n ya que (E + x) + y = E + (x + y). Como F+y−x contiene al cero entonces. Esto significa que el conjunto de los subespacios afines se parte en clases de paralelismo y dos subespacios son paralelos si y solo si est´ n en la misma clase de paralelismo. por 2. E + x = E + y = E + x0 . Prueba. un ı o ı ı o plano es un subespacio af´n de dimensi´ n dos. el lector debe pensar en dos lineas no coplanares en R3 . Observese que los subespacios son tambi´ n subespacios afines. z = a − x ∈ E y del primer caso. Este resultado nos permite definir la dimensi´ n de un subespacio af´n. ı Prueba. ı o Dos subespacios afines paralelos o son el mismo o no se intersectan. En o o otras palabras. una l´nea es un subespacio af´n de dimensi´ n uno. En otras palabras. G = F + (x + y). Tenemos y ∈ E ⇔ y−a ∈ E ⇔ y ∈ E+a.

Este producto convierte a D/E en un espacio vectorial llamado espacio cociente de D por E. cualquier subespacio af´n paralelo ı a E intersecta a F en un y solo un vector. Luego. Como D = E ⊕ F existen ı ´ unos unicos vectores y ∈ E y z ∈ F tales que x = y+z. Tenemos ı 2 2x λE = λ (E + x) = λE + λx = E + λx lo que muestra que λE est´ en la misma R x a clase de paralelismo que E. D/E es can´ nicamente isomorfo a cualquier complementario de E. El subespacio E es el neutro para esta operaci´ n y o el opuesto de E + x es E − x. x0 y0 x + x0 y + y0 Denotemos ahora por D/E al conjunto de todos los subespacios afines de D paralelos a E. Ejercicio 61 Cual es el espacio cociente de R3 por el plano xy.Secci´ n 2. Para convertir a D/E en un espacio vectorial nos falta el producto por escalares. Definiremos λA como en el recuadro a la izquierda. En otras palabras (v´ ase la figura a la derecha) la suma e 0 y de cualquier vector en E con cualquier otro en F esta en un mismo espacio paralelo a E y F.7 o El espacio cociente Espacios cocientes 65 Sea D un espacio vectorial y E un subespacio de D. Ejercicio 62 ¿Que pasa si sumamos dos espacios afines no paralelos? El isomorfismo con los complementarios R2 F E Sea F un subespacio complementario a E. Si E = E + x y F = E + y son dos subespacios afines paralelos entonces R2 x E + F = (E + x) + (E + y) = (E + E) + (x + y) = E + (x + y) lo que muestra que E + F est´ en la misma clase de paralelismo a que E y F. Si z0 es otro vector en E ∩ F entonces. Luego por 2. Sea E = E + x cualquier subespacio af´n paralelo a E. Esta observaci´ n nos dice que la suma de subespacios afines es una operaci´ n binaria o o dentro de D/E.29 E+x = E+y+z = E + z y por lo tanto z ∈ E + x o sea. existe . En otras palabras (v´ ase la figura a la derecha) el e 2y producto de un escalar por todos los vectores en E resulta en espacio paralelo 0 y a E. z ∈ E ∩ F. D/E es un grupo abeliano para la suma. Esta suma es asociativa y conmutativa debido a la asociatividad y conmuta­ tividad de la suma de los vectores en D. o Prueba. Ejercicio 60 Compruebe los axiomas de espacio vectorial para el espacio cociente D/E. Sea λA = {λa | a ∈ A} A un conjunto arbitrario de vectores y λ un escalar. Entonces. Sean E = E + x un subespacio af´n paralelo a E y λ un escalar.

Entonces. y ∈ A se cumple que x ≤ y o que y ≤ x. En esta secci´ n demostramos estos resultados para los casos faltantes. Se dice que A es una cadena si para cualesquiera x. no siempre existen estructuras “complementarias” (por ejemplo en la teor´a de a ı grupos). es dim D − dim E.32 la aplicaci´ n f : F 3 x 7→ (E + x) ∈ D/E tiene inversa (que a cada o E + x ∈ D/E le hace corresponder el unico vector en (E + x) ∩ F). las estructuras cocientes si se pueden construir. 2.4 enunciamos el Teorema de Existencia de Bases (2. Espacios vectoriales ı a ∈ E tal que z0 = a + x. Si embargo. Luego. Luego. Por ejemplo. todo grupo tiene un cociente por cualquier subgrupo normal.8 El caso de dimensi´ n infinita o En la Secci´ n 2. y = −a y z = z0 . Por­ o o que siempre aparece un curioso que quiere saber. lo haremos todo en forma minimalista: Antes o ı de cada una de las dos pruebas daremos las definiciones y resultados exclusivamente que necesitamos. o Es posible (gracias al isomorfismo con los complementarios) desarrollar toda el algebra lineal sin ´ la introducci´ n de los espacios cocientes.14) y la Equicar­ o dinalidad de las Bases (2. Como estas demostraciones dependen de resultados de Teor´a de Conjuntos y una expo­ ı sici´ n de esta nos llevar´a a escribir otro libro. ı El Lema de Zorn Un conjunto ordenado es un conjunto con una relaci´ n de orden. f : F 3 x 7→ (E + x) ∈ D/E es un isomorfismo de espacios vectoriales. Observese que el isomorfismo f es can´ nico. Esta proposici´ n tambi´ n nos dice que la di­ o o e mensi´ n de D/E es la misma que la de un complementario a E o sea. Diremos que A esta inductivamente ordenado si A 6= ∅ y . cualquier subespacio complemen­ o tario a E es can´ nicamente isomorfo a D/E.16) pero solo los probamos para el caso de que el espacio tiene dimensi´ n finita. o sea una relaci´ n o o reexiva antisim´ trica y transitiva (v´ ase el glosario). Diremos que x ∈ P es una cota superior de A si para cualquier y ∈ A se cumple que y ≤ x. Prueba. f es biyectiva. Adem´ s o a o a es importante que el lector se familiarize con el concepto. Por 2. ´ Adem´ s. Los resultados complicados de Teor´a de Conjuntos no los demostraremos. en el estudio de estructuras algebraicas m´ s generales. De aqu´ x = −a + z0 y por la unicidad de la descomposici´ n de ı o un vector en suma de vectores de espacios complementarios. ya que.66 Cap´tulo 2. es m´ s c´ modo hacerlo con ellos. a f (x + y) = E + (x + y) = (E + x) + (E + y) = f (x) + f (y) f (λx) = E + (λx) = λ (E + x) = λf (x) por lo que f es un isomorfismo. Por otro lado. Sea F un subespacio complementario a E. Diremos que x ∈ A es elemento maximal de A si para cualquier y ∈ A se cumple que x ­ y. Sea P un conjunto ordenado y A un e e subconjunto de P.

y {Bi }i∈I es una cadena entonces. o sea B0 es linealmente dependiente. El conjunto B es una cota superior de la cadena {Bi }i∈I y tenemos que convencernos que B est´ en T. Como B0 es finito. o La relaci´ n A ∼ B definida como |A| ≤ |B| y |B| ≤ |A| es una relaci´ n de equivalencia o o entre todos los conjuntos. Supongamos que B es linealmente dependiente. Sean L y N como en las hip´ tesis. Como para cualquier i tenemos a Bi ⊆ N entonces. Prueba. Como N es generador. a ı Lema de Zorn Cualquier conjunto inductivamente ordenado tiene un elemento maximal. Probemos que el conjunto T est´ inductivamente ordenado. Cardinales Dados dos conjuntos A y B denotaremos |A| ≤ |B| si existe una inyecci´ n de A en B. Existencia de bases Teorema de Existencia de Bases (caso general) Sea N un conjunto generador y L ⊆ N un conjunto LI. Denotemos o T = {M | M es linealmente independiente y L ⊆ M ⊆ N} . Los cardinales est´ n ordenados por la relaci´ n a o de orden que ya definimos.8 o El caso de dimensi´ n infinita o 67 cualquier cadena contenida en A tiene una cota superior que est´ en A. La suma de cardinales se define como el cardinal de la uni´ n de a o dos conjuntos disjuntos. T est´ inductivamente ordenado y por el Lema de Zorn (2.34) el conjunto T tiene un elemento a maximal. tiene que existir i0 tal que B0 ⊆ Bi0 y esto contradice que todo sub­ conjunto de un conjunto linealmente independiente es linealmente independiente. Sea M un elemento maximal de T. El producto de cardinales se define como el cardinal del producto . a o Entonces ∀x ∈ N\M M ∪ x es dependiente y por el Lema de Aumento de un Conjunto LI (2. Entonces. El siguiente resultado a es cl´ sico en teor´a de conjuntos. existe una base M tal que L ⊆ M ⊆ N. Nuestra tarea es encontrar un elemento maximal de T. Efectivamente. A la clase de equivalencia que contiene al conjunto A se le llama cardinal del conjunto A y se denota por |A|. existe o un subconjunto finito B0 de B y una combinaci´ n lineal de B0 igual a cero tal que todos sus coeficientes son no cero. Los cardinales pueden ser finitos o infinitos. El conjunto T est´ naturalmente ordenado por inclusi´ n. B ⊆ N. esto significa que M tambi´ n lo es y por e lo tanto M es una base.Secci´ n 2.11) tenemos N ⊆ hMi. El cardinal infinito m´ s peque˜ o es ℵ0 que es el cardinal de los naturales (ℵ es la primera letra del alfabeto a n hebreo y se llama “´ lef”). T es no vac´o ya que L ∈ T. Luego. Entonces. Sea {Bi }i∈I una a ı S cadena arbitraria en T y denotemos B = i∈I Bi .

ı a∈A . Sean A y B dos bases. i∈I Prueba.37 obtenemos X |B| ≤ |R| = |Ba | ≤ ℵ0 |A| = |A| . p´ gina e a 121). a y b est´ n en el o a mismo conjunto Ai . Luego |B| ≤ |A| y por simetr´a de nuestros razonamientos|A| ≤ |B|. Podemos pensar que los Ai son disjuntos. 1950.36 y 2. El primero es muy ´ sencillo y daremos una demostraci´ n para el. Sea ϕ : i∈I Ai → T × I definida por ϕ (a) = o (fi (a) . b) ∈ R si y solo si b ∈ Ba . Sea T un conjunto de cardinal t. Ya probamos el caso de que una de las dos bases es finita. ℵ0 |A| = |A|. i) si a ∈ Ai . Necesitaremos dos resultados acerca de los cardinales de conjuntos. Construyamos la relaci´ n R ⊆ A × B de manera que (a. Por definici´ n de ϕ si ϕ (a) = ϕ (b) entonces. El siguiente resultado que necesitamos se demuestra (usando muchas cosas) en la Teor´a ı de Conjuntos (v´ ase por ejemplo: Kamke E.. ϕ es inyectiva. o Tenemos |B| ≤ |R| ya que si hubiera un b0 ∈ B no relacionado con ning´ n elemento de u ı A entonces. Equicardinalidad de las bases Equicardinalidad de las Bases (caso infinito) Dos bases cualesquiera tienen el mismo cardinal. como |A| es infinito y |Ba | es finito entonces. Theory of sets. P |Ai | ≤ t |I|. Prueba. podemos suponer que A y B son infinitos. New York. fi (a) = fi (b) y por lo tanto a = b.68 Cap´tulo 2. usando 2. Como B es una base y debido a la finitud de las combinaciones lineales entonces ∀a ∈ A el m´nimo subconjunto Ba ⊆ B tal que ı a ∈ hBa i existe y es finito. Por S hip´ tesis existen inyecciones fi : Ai 7→ T . Luego. Espacios vectoriales ı cartesiano de conjuntos. Dover. o Si ∀i |Ai | ≤ t entonces. A ⊆ hB\b0 i y como A es base obtendr´amos que B\b0 es generador lo que contradice que B es base. Nosotros omitiremos la prueba. Por otro lado. Luego. Si |A| es infinito entonces.

en lugar de decir que f es una transformaci´ n lineal. Una funci´ n o f : E → F se le llama transformaci´ n lineal de E en F si para f (a + b) = f (a) + f (b) o cualesquiera vectores a y b y cualquier escalar λ se cumplen f (λa) = λf (a) las propiedades del recuadro a la derecha. Denotemos F0 = f (E0 ) la imagen de E0 . El objetivo de este cap´tulo es familiarizar al lector con el a ı concepto de transformaci´ n lineal y sus propiedades b´ sicas. En plural escribi­ o remos TLs. f (x + y) = a + b por lo que a + b ∈ F0 . Sean a y b vectores en F0 . Nuevamente. para no reescribir constantemente frases largas. Luego. Introduciremos las ma­ o a trices y estudiaremos la relaci´ n de las mismas con las transformaciones lineales.as transformaciones lineales son uno de los objetos m´ s estudiados y m´ s importan­ a a tes en las matem´ ticas. o 3. Tenemos. Prueba. Sea f : E → F una TL y E0 un subespacio de E. diremos que f es una TL. Tenemos f (λx) = λa por lo que λa ∈ F0 . . Por definici´ n existen vectores x. F0 es un subespacio de F. Imagenes de subespacios Toda TL transforma subespacios en subespacios. Las TLs NO necesariamente transforman conjuntos LI en conjuntos LI ni tampoco conjuntos generadores en conjuntos generadores..1 Definici´ n y ejemplos o Sean E y F dos espacios vectoriales sobre K. Veremos o el concepto de nucleo e imagen de una transformaci´ n lineal etc. Sea ahora λ un escalar.y tales que f (x) = a y o f (y) = b..

Si o o v 7→ 2v trazamos una recta que pase por el centro de la Tierra intersectaremos la superficie en dos puntos.70 Cap´tulo 3. o e o En el caso del campo R las homotecias tienen una interpretaci´ n geom´ trica muy clara. nuestros ant´podas ı ı son la personas que viven “pies arriba” del “otro lado” de la Tierra. ı Lo mismo ocurre si en lugar del escalar 2 usamos cualquier otro escalar α ∈ K obtenien­ do la TL dada por hα : E 3 x 7→ αx ∈ E. Si α = 1 entonces obtenemos la funci´ n identidad x 7→ x. Hay dos casos particulares de homotecias especialmente importantes. dejar fijos los angulos y elevar al cubo el m´ dulo del vector. En la figura de la izquierda est´ representada la funci´ n ant´podal en a o ı 2 2 R . Un ejemplo sencillo es la funci´ n R 3 x 7→ x3 ∈ R. o a n En la figura de la derecha observamos la dilataci´ n x 7→ 2x en el o 2 plano cartesiano R . En ella hay dos curvas cerradas de cinco p´ talos. Estos puntos se dicen que son ant´podas o sea. A esta funci´ n se la denotar´ por Id. Si coordinatizamos la Tierra con unos ejes de coordenadas con origen en el centro de la misma. Hay funciones que transforman subespacios ı o en subespacios y no son TLs. Esto quiere decir que hα es la dilataci´ n de raz´ n α. El nombre viene de la siguiente interpretaci´ n. o . Si 0 < α < 1 entonces hα es realmente una contracci´ n o o o pero interpretaremos las contracciones como dilataciones con raz´ n m´ s peque˜ a que 1. Cualquier homotecia hα v 7→ −v con α < 0 se puede representar como h−1 (h−α ) por lo que hα se puede interpretar geom´ tricamente como una dilataci´ n seguida de la funci´ n ant´podal. La primera es e R la misma que la de la figura anterior (10 + 2 sin 5θ). A pesar e o o ı de su simplicidad las homotecias juegan un papel fundamental en la comprensi´ n de las TL o y este papel se debe a que ellas son todas las TL en dimensi´ n 1. nuestros ant´podas ı se obtienen multiplicando por −1. Transformaciones lineales ı El rec´proco de la proposici´ n anterior NO es cierto. La figura es expresamente ı complicada para que el lector tenga la oportunidad de pensar un poco en que punto se va a transformar cada punto. e o Homotecias Veamos el ejemplo m´ s simple de TL. Si o e α > 0 entonces cada punto x ∈ Rn se transforma en el punto αx que est´ en la misma recta a por el origen que x pero a una distancia del origen α veces mayor que x. La segunda es la ant´poda de la primera (−10 − 2 sin 5θ). Para obtener una funci´ n contraejemplo en o ´ Rn basta usar coordenadas esf´ ricas. Si a cada vector x de un espacio E le hacemos a o corresponder el vector 2x obtenemos la funci´ n h2 : E 3 x 7→ 2x ∈ E . Esta funci´ n es una o TL ya que h2 (a + b) = 2 (a + b) = 2a + 2b = h2 (a) + h2 (b) h2 (λa) = 2λa = λ2a = λ = λh2 (a) Observese que en la segunda l´nea usamos la conmutatividad del producto de escalares. La curva interior (que es la gr´ fica de la funci´ n a o R2 5 + sin 5θ en coordenadas polares) se transforma en la misma curva pero del doble de tama˜ o (10 + 2 sin 5θ). n Si α = −1 entonces a la homotecia h−1 : x 7→ −x se le llama funci´ n antipodal. A las funciones hα se les llama homotecias. Sin embargo no es lineal. Si α = 0 o o a entonces obtenemos la funci´ n nula tambi´ n llamada funci´ n constante cero x 7→ 0. Esta manda el o cero en el cero y a R en R.

1 o Definici´ n y ejemplos o 71 Si dim E = 1 entonces toda TL de E en E es una homotecia. Esto no es cierto. Sea ahora λ ∈ K. Nuevamente. Sea x = αa un vector arbitrario en E . . Como f es lineal tenemos f (x) = f (αa) = αf (a) = αλa = λαa = λx lo que demuestra que f es una homotecia.28 tenemos que cada vector x ∈ E ´ se descompone de manera unica como a + b donde a es un vector en F y b es un vector en ´ G . La notaci´ n πF sugiere erroneamente que esta funci´ n solo depende del subespa­ o o cio F . Inmersiones Hasta ahora las TL que hemos visto (las homotecias) est´ n definidas de un espacio en a si mismo. El primer sumando de la derecha est´ en F y el segundo en G . No hay mucho que decir de las inmersiones excepto de que hay una para o cada subespacio.Secci´ n 3. De esta manera πF es una funci´ n fija y bien definida. Por la unicidad de la descomposici´ n a o necesariamente tenemos πF (x + y) = πF (x) + πF (y) . A la funci´ n i : E 3 x 7→ x ∈ F se le llama inmersi´ n o o de E en F. Cualquier proyecci´ n πF o o restringida a F es la identidad por lo que necesariamente es sobreyectiva. Prueba. Tenemos λx = λπF (x)+λπG (x) . Como {a} es una base tiene que existir un escalar λ ∈ K tal que f (a) = λa. Las inmersiones son TLs inyectivas y son las restriciones a subespacios de la funci´ n identidad. Luego x + y = (πF (x) + πF (y)) + (πG (x) + πG (y)) . Sea {a} una base de E y f una TL de E en E. Las inmersiones son la TL m´ s simples que est´ n definidas de un espacio en otro a a distinto. ¿Habr´ algu­ e a na TL natural de E en F? Lo que podemos hacer es buscarnos un espacio G complementario de F (existe por 2. o ´ Si x. Las proyecciones son transformaciones lineales. y son dos vectores entonces hay descomposiciones unicas x = πF (x) + πG (x) y y = πF (y) + πG (y) . el subespacio F puede tener muchos subespacios comple­ mentarios diferentes y la proyecci´ n depende del subespacio complementario que o escojamos. Prueba. Proyecciones Ahora supongamos al rev´ s (de las inmersiones) que F es subespacio de E . Escojamos un subespacio G complementario de F . el primer sumando de la derecha est´ en F y el segundo en G y por la unicidad de la descomposici´ n necesariamente a o tenemos πF (λx) = λπF (x) .27) De esta manera E = F ⊕ G y por 2. Sea E un subespacio de F. As´ para cada x ∈ E tenemos un unico a ∈ F y esto nos da una funci´ n que denotaremos ı o por πF y la llamaremos proyecci´ n de E en F a lo largo de G .

Esta construc­ ci´ n se ilustra en la figura de la derecha. Denotemos h = f + g. Hay un solo subespacio o af´n paralelo a F que pasa por a y este es F + a. tenemos (λf) (a + b) = λf (a + b) = λ (f (a) + f (b)) = (λf) (a) + (λf) (b) (λf) (αa) = λf (αa) = λαf (a) = αλf (a) = α (λf) (a) lo que significa que λf es una TL. Dado un vector a trazamos la l´nea paralela al eje y que pasa por a y ı la intersecci´ n del eje x con esta l´nea es un vector πx (a) . Prueba.72 Cap´tulo 3. Transformaciones lineales ı ¿Como son geom´ tricamente las proyecciones? En esencia el problema es el siguiente. 3. El espacio vectorial de las transformaciones lineales Sea f una TL y λ un escalar. veremos que operaciones se definen naturalmente entre las TLs. k = 2. An´ logamente se observa que πF (a) = a (G + a) ∩ F. e Dados dos espacios complementarios F . A esta operaci´ n se le llama suma de TLs. G y un vector a como hallar un vector en F y otro en G que sumados den a. A esta o operaci´ n se le llama producto de un escalar por una TL. no pudimos dibujar el espa­ o cio Rn as´ que el lector deber´ contentarse con ver la figura ı a en el caso n = 3. o El producto de un escalar por una TL es una TL. En el caso general es exactamente igual. Prueba. La in­ ı tersecci´ n (F + a) ∩ G es un solo punto y este punto es o el vector πG (a) . Tenemos que F o es un subespacio de dimensi´ n k y uno de sus complemen­ o tarios G es de dimensi´ n n − k. Esto ya lo hicimos una vez cuando introducimos las coordenadas cartesianas en R2 . De manera an´ loga obtenemos o ı a πy (a) y sabemos que a = πx (a) + πy (a). Denotaremos por λf a la funci´ n a 7→ λf (a). o La suma de dos TLs es una TL.2 Operaciones entre transformaciones lineales Ahora. . Tenemos h (αa) = f (αa) + g (αa) = α (f (a) + g (a)) = αh (a) h (a + b) = f (a + b) + g (a + b) = f (a) + g (a) + f (b) + g (b) = h (a) + h (b) lo que significa que h es una TL. Denotaremos por f + g a la funci´ n o a 7→ f (a) + g (a). Sean ahora f y g dos transformaciones lineales. Como es l´ gico. Efectivamente.

f ◦ (g ◦ h) = (f ◦ g) ◦ h (asociatividad) 2. f ◦ (g + h) = f ◦ g + f ◦ h (distributividad a la izquierda) 3. La composici´ n h = g ◦ f se define o como la funci´ n E 3 a 7→ g (f (a)) ∈ G. o que h es una TL. La composici´ n de TLs es una TL. El lector debe ya debe poder encontrar por si mismo el porqu´ de la validez de cada una e . o Prueba. Con (f ◦ (g + h)) (a) = f ((g + h) (a)) = f (g (a) + h (a)) = = f (g (a)) + f (h (a)) = (f ◦ g) (a) + (f ◦ h) (a) = ((f ◦ g) + (f ◦ h)) (a) probamos la distributividad a la izquierda. F). Por ejemplo. ı La composici´ n de TLs cumple las siguientes propiedades: o 1. Al espacio vectorial de todas las TLs del espacio E en el espacio F lo denotaremos por Mor (E. podemos sumar transformaciones lineales y multiplicarlas por escalares. Debido a todo lo dicho es v´ lido el siguiente resultado: a Mor (E. Como (f ◦ (g ◦ h)) (a) = f (g (h (a))) = ((f ◦ g) ◦ h) (a). la prueba de la distributividad del producto por escalares con respecto a la su­ ma es la siguiente: (λ (f + g)) (a) = λ (f (a) + g (a)) = λf (a) + λg (a) = (λf + λg) (a). F) es un espacio vectorial. f ◦ λg = λf ◦ g = λ (f ◦ g) (conmuta con el producto por escalares) Prueba. la composici´ n es o asociativa. F) y g ∈ Mor (F. G) o sea. Los axiomas de espacio vectorial se comprueban de manera muy simple usando las definiciones. (f + g) ◦ h = f ◦ h + g ◦ h (distributividad a la derecha) 4. Sea h = g ◦ f la composici´ n de dos TLs. G) dos TLs. Tenemos o h (a + b) = g (f (a + b)) = g (f (a) + f (b)) = g (f (a)) + g (f (b)) = h (a) + h (b) h (αa) = g (f (αa)) = g (αf (a)) = αg (f (a)) = αh (a) que es lo que se quer´a demostrar.2 o Operaciones entre transformaciones lineales 73 Luego. Demostremos que h = g ◦ f ∈ Mor (E. Esta notaci´ n es debido que a las transformaciones lineales tambi´ n se les llama o e morfismos de espacios vectoriales.Secci´ n 3. Para la distributividad a la derecha usamos las igualdades ((f + g) ◦ h) (a) = (f + g) (h (a)) = f (h (a)) + g (h (a)) = = (f ◦ h) (a) + (g ◦ h) (a) = ((f ◦ h) + (g ◦ h)) (a) Finalmente para probar que la composici´ n conmuta con el producto por escalares tenemos o (f ◦ λg) (a) = f (λg (a)) = λf (g (a)) = (λ (f ◦ g)) (a) = = λf (g (a)) = (λf) (g (a)) = (λf ◦ g) (a) . Composici´ n de transformaciones lineales o Sean f ∈ Mor (E.

E). El segundo ejemplo son los n´ meros complejos. Transformaciones lineales ı de las igualdades utilizadas en esta prueba. Por ejemplo en el plano cartesiano R2 o la rotaci´ n f en 45◦ y la reecci´ n g en el eje y son (como veremos despu´ s) OLs. . (g ◦ f) (1. o ´ ´ Hay otras dos algebras importantes que deben ser muy conocidas por el lector. si componemos dos OLs. pero adem´ s sabemos multiplicar polinomios. se le lla­ Alg4) ∗ conmuta con el producto por escalares ´ ma algebra . Observese que los primeros tres axiomas los podemos resumir en uno: la suma de vectores y ∗ definen un anillo en el espacio vectorial. obtenemos otro OL. Los OLs juegan (como veremos m´ s adelante) un papel muy importante en el estudio de las TLs y por esto es que a merecen un nombre especial.74 Cap´tulo 3. 0) = o o e (−1. −1) = (f ◦ g) (1. el conjunto de los polinomios con coeficientes reales R [x] es un espacio vectorial sobre R. e ´ ´ Un algebra se le llama conmutativa si el producto de vectores es conmutativo. ´ El algebra de operadores lineales A una TL de un espacio vectorial en si mismo se le llama operador lineal. Este ejemplo se generaliza a los polinomios sobre cualquier campo. Lo a hacemos as´ porque a los OLs tambi´ n se les llama endomorfismos de un espacio vectorial. Estos son un espacio vectorial de dimensi´ n dos so­ u o bre los reales pero adem´ s sabemos multiplicar n´ meros complejos. O o o o sea. Nuevamente. es el neutro para la composici´ n. Si un espacio vectorial cualquiera (el cual ya trae definidos la suma y el pro­ Alg1) ∗ es asociativa ducto por escalares) tiene otra operaci´ n Alg2) ∗ es distributiva con respecto a + o binaria ∗ que cumple los axiomas en el Alg3) ∗ tiene elemento neutro recuadro a la derecha entonces. Primero. 0). Pero esto es obvio ya que la funci´ n identidad cumple que f◦Id = Id ◦f = f. Las algebras u End E casi nunca son conmutativas (salvo en dimensi´ n 1). usaremos la abreviatura OL para referirnos a los operadores lineales. Alg2 o o ´ y Alg4. o O sea. 1) 6= (−1. Sin embargo. El cuarto axioma lo que quiere decir es que para cualquier escalar λ y cualesquiera vectores a y b se cumple que λa ∗ b = a ∗ λb = λ (a ∗ b). La multiplicaci´ n de a u o complejos tambi´ n cumple todos los axiomas Alg1­Alg4. El conjunto de todos los OLs de E se denotar´ por End E. Hemos demostrado el siguiente resultado o El espacio vectorial End E en un algebra con respecto a la composici´ n. El algebra de los ´ ´ n´ meros complejos y el algebra de polinomios sobre un campo son conmutativas. Ya vimos (3. ı e Por definici´ n tenemos End E = Mor (E. Para ver que End E es un algebra solo nos queda comprobar que la composici´ n tiene o elemento neutro.8 ) que la operaci´ n de composici´ n de OLs cumple los axiomas Alg1. Este producto cumple todos los axiomas de a Alg1­Alg4. La principal diferencia entre las TLs y los OLs o es que la operaci´ n de composici´ n es una operaci´ n interna en espacio vectorial End E.

o o Todas las diferentes restricciones de f se obtienen al tomar diferentes subconjuntos A0 . ¿Ser´ posible para cualquier funci´ n g : N → F o a o encontrar una extensi´ n h : E → F de g que sea TL? ¿Ser´ unica tal extensi´ n? Veremos o a´ o que ambas preguntas tienen respuesta positiva si N es una base.3 o El grupo general lineal Extensiones lineales 75 Una funci´ n cualquiera es biyectiva si y solo si esta tiene inversa. A los OLs no singulares tambi´ n se les llama automor­ e fismos del espacio vectorial. debemos encontrar extensiones que sean TLs. Es un problema frecuente en matem´ ticas el encontrar extensiones que cumplan ciertas a propiedades. la funci´ n inversa de un OL es e o un operador lineal. cada elemento tiene inverso ya que f ◦ a f−1 = f−1 ◦ f = Id. Si h y g son dos funciones tales que h es una restricci´ n de g entonces se dice que g o es una extensi´ n de h. En nuestro caso. Sea h : E → F una TL. pueden haber muchas extensiones h : A → B de g. En el caso contrario se le llama no singular. Formulemos nuestro problema m´ s precisamente. Adem´ s. la composici´ n es una operaci´ n binaria en GL (E) que ya sabemos o o que es asociativa y tiene elemento neutro. A la funci´ n f se le llama restricci´ n de f a A0 y la denotaremos por fA 0 . Un operador lineal se le llama singular si este no tiene inverso. GL (E) es un grupo para la composici´ n al cual se llama grupo o general lineal del espacio vectorial E. . En el cap´tulo anterior. Extensiones y restricciones Sean A y B dos conjuntos y A0 un subconjunto de A. por ejemplo. o ı cuando vimos los isomorfismos de espacios vectoriales. ya que podemos escoger arbitrariamente los valores de h (x) para todos los x ∈ A\A0 . En particular. demostramos que si una TL tiene in­ versa entonces esta inversa tambi´ n es una TL.3 Extensiones lineales Estudiaremos en esta secci´ n una manera universal de construir TLs.Secci´ n 3. Luego. En otras palabras los automorfismos son los endomorfismos biyectivos. 3. Luego. Sabemos que N ⊂ E y por lo tanto tenemos la restricci´ n hN : N → F. Si est´ dada una funci´ n g : A0 → B y A es un sobreconjunto de o a o A0 entonces. La suma de OLs no singulares puede ser singular ya que. Sean E y F dos espacios vectoriales sobre K y N un a conjunto de vectores de E. Cada vez que se tiene una funci´ n o 0 0 0 f : A → B tambi´ n se tiene una funci´ n f : A → B definida por f (a) = f (a) para e o 0 0 cualquier a ∈ A . veamos o algunas consideraciones de tipo general acerca de funciones entre conjuntos arbitrarios. la composici´ n de OLs no singulares es siempre un o OL no singular. la funci´ n o nula cumple que 0 = f − f. Sin embargo. Al conjunto de todos los OLs no singulares del espacio vectorial E se le denota por GL (E). Pero antes.

F) o o y a cada TL h ∈ Mor (E. la descomposici´ n de x en la base N tiene coeficientes αi = 0 o para i 6= x y αi = 1 para i = x. Cualquier x ∈ E se expresa de forma unica como combinaci´ n lineal de N o P o sea x = i∈N αi i. Observese que o i∈N (como debe ser) la restricci´ n de h a N es igual a g ya que si x ∈ N o entonces. Las extensiones lineales son transformaciones lineales. que este es un espacio vectorial para la suma y el producto por escalares definidos por coordenadas y que se denota por FN . F) le corresponde hN su restricci´ n a N (que es una N­ada). Si N es una base de E entonces. F). i∈N i∈N i∈N i∈N El isomorfismo entre FN y Mor (E. Tenemos X X X h (x + y) = (αi + βi ) g (i) = αi g (i) + βi g (i) = h (x) + h (y) i∈N i∈N i∈N X X h (λx) = λαi g (i) = λ αi g (i) = λh (x) y esto prueba que h es una TL. Queremos ver que esta correspondencia es un isomorfismo de espacios vectoriales. Prueba. i∈N i∈N Para demostrar la unicidad de la extensi´ n debemos convencernos de que dos TLs dis­ o tintas no pueden coincidir en una base.2 que el conjunto de todas las funciones de N en F es o el conjunto de las N­adas de vectores de F. Transformaciones lineales ı Para demostrar la existencia de la extensi´ n debemos construirla. F) Recordemos ahora de la Secci´ n 2. g : E → F dos TLs y N una base de E. Las TLs est´ n predeterminadas por sus valores en una base. A la funci´ n h del o X x 7→ αi g (i) recuadro a la derecha se le llama extensi´ n lineal de g. Sean f. Cualquier x ∈ E se expresa de forma unica o en o como combinaci´ n lineal de N o sea x = i∈N αi i. Supongamos que f (i) = g (i) para ´ cualquier i ∈ N. Luego ! Ã ! Ã X X X X αi i = αi f (i) = αi g (i) = g αi i = g (x) f (x) = f y por lo tanto las TLs f y g son iguales. hemos construido una correspondencia biun´voca entre ı FN y Mor (E. Sea N una base de E o ´ y g : N → F una funci´ n arbitraria de N P F.76 Cap´tulo 3. a Prueba. A cada N­ada hN ∈ FN le corresponde su extensi´ n lineal h ∈ Mor (E. .

9. 1) esta base en la base can´ nica de R2 y sin embargo no es inyectiva. estas son dos combinaciones lineales iguales de la base M. 1) 7→ (0. Para ver que h es sobreyectiva sea z vector en F. Como M es una base P F existen de P coeficientes γi tales que z = i∈N γi h (i) y por lo tanto z = h (v) donde v = i∈N γi i. La (1. ¿Ser´ esta a propiedad suficiente para comprobar que una TL es un isomorfismo?. Un criterio de isomorfismo Al establecer que los espacios Mor (E. 0) respuesta es NO. h es inyectiva.Secci´ n 3. h0 ∈ Mor (E. 0) 7→ (1. Luego. Efectivamente. Probemos que P la extensi´ n lineal h : E → F de hN es un isomorfismo.3 o Extensiones lineales 77 Si N es una base de E entonces. o Prueba. Nos o falta la propiedad evidentemente necesaria de que la restricci´ n de la TL debe ser inyectiva. . Por la caracterizaci´ n 2. Prueba. o Una TL es un isomorfismo si y solo si su restricci´ n a una o base es inyectiva y la imagen de esta restricci´ n es una base. 1) en la base can´ nica de R3 como en el recuadro a la derecha transforma a o (0. F) 3 h 7→ hN ∈ F es un isomorfismo de espacios vectoriales. En este caso queremos hacer la traduci´ n de la propiedad de una TL o de ser o no un isomorfismo de espacios vectoriales. X X αi h (i) = βi h (i) i∈N i∈N y como todos los h (i) = hi son diferentes. Efectivamente. la extensi´ n lineal de la funci´ n definida o o (0. si x = i∈N αi i y P o y = i∈N βi i son dos vectores cualesquiera en E y h (x) = h (y) entonces. 0. Ya hemos probado la necesidad. sean h. 1. la biyecci´ n o N r : Mor (E. F) y λ un escalar. 0) 7→ (0. Por ejemplo. Ya vimos en el cap´tulo anterior que ı un isomorfismo transforma una base del dominio en una base del codominio. Tenemos r (h + h0 ) = (h + h0 )N = hN + h0N = r (h) + r (h0 ) r (λh) = (λh)N = λhN = λr (h) que se cumplen por las definiciones de suma y producto por escalares de las N­adas. F) y FN son isomorfos es natural que esperemos que cualquier propiedad de las TL se tradusca de alguna u otra manera al lenguaje de las N­adas de vectores.3 de los conjuntos LI los coeficientes de estas combi­ o naciones lineales tienen que coincidir αi = βi y por lo tanto x = y. 0. Solo nos queda probar que r es una TL. Para la suficiencia sea N una base de E y hN ∈ FN una N­ada de vectores de F tal que sus coordenadas son todas diferentes (la inyectividad) y que el conjunto de sus coordenadas (la imagen) es una base M = h (N) de F.

F). Para cada i ∈ N la columna αMi es el vector f (i) coordinatizado en P la base M.12 obtenemos o ¡ {M} ¢N ¡ {N} {M} ¢ = K{M}×N que es el conjunto de las MN ↔ K el isomorfismo Mor K . Para el caso que m´ s nos interesa en a ¡ M ¢N MN que N y M son bases finitas obtenemos Mor (E. K{M} . Ejercicio 63 Sean E ↔ E0 y F ↔ F0 isomorfismos de espacios vectoriales. O sea. Transformaciones lineales ı 3. Construya algunas columnas de la matriz αNN de esta TL en la base can´ nica del espacio de polinomios. Es f´ cil ver y es intuitivamente claro que esta corres­ a l l ¡ ¢ pondencia biun´voca Mor (E. K{M} tenemos la ı g f composici´ n f : E → K{N} → K{M} → F que es una TL en o E −→ F Mor (E. Sea f ∈ Mor (E.4 Coordinatizaci´ n de transformaciones lineales o Para darle coordenadas a una TL lo primero es darle coordenadas a los espacios entre los cuales est´ definida la TL. aplicando 3. P ai xi 7→ n ai (x + 1)i ∈ K [x] es un i=0 isomorfismo de espacios vectoriales. K{M} es un isomor­ K{N} −→ K{M} ı g fismo de espacios vectoriales. Construya un Podemos pensar a N como la base can´ nica de K{N} . P La f´ rmula f (i) = o e a∈M αai a nos dice tambi´ n como construir f dada αMN . O sea f (i) = a∈M αai a. F0 ). F) ↔ Mor K{N} . F). A esta M­ada se le llama producto de la matriz αMN por el vector βN y se denota por αMN βN . si E 3 x = i∈N βi i entonces. Las imagenes de los i ∈ N las calculamos por la f´ rmula y a f la construimos por extensi´ n o o P lineal. F) ↔ Mor (E0 . Ejercicio 64 Pruebe que la funci´ n K [x] 3 o Pn i=0 a∈M a∈M i∈N i∈N i∈N P La expresi´ n i∈N αai βi es un escalar y hay uno para cada a ∈ M por lo que son las o coordenadas de una M­ada. Sean N y M bases de E y F respectivamente. Demuestre que las entradas de esta matriz o est´ n definidas por la ecuaci´ n recursiva αkn = αk.(n−1) con las condiciones a o de frontera αkn = 0 si k > n y αkn = 1 si k = 0 o k = n. isomorfismo Mor (E. Los resultados de la secci´ n anterior nos dicen como o construir αMN dada f. K matrices tales que cada columna es de soporte finito. o ¢ ¡ Rec´procamente para cada g ∈ Mor K{N} . A la matriz αMN que le corresponde a f mediante el isomorfismo construido se le llama matriz de la TL f en las bases M y N. F) ↔ K = K . Luego.(n−1) + α(k−1). Tenemos los a isomorfismos de coordinatizaci´ n E ↔ K{N} y F ↔ K{M} .78 Cap´tulo 3. F) tenemos o ¡ ¢ f {N} la composici´ n g : K → E → F → K{M} que es una TL en Mor K{N} . Para cada f ∈ Mor (E. Ã ! X X X X X βi f (i) = βi αai a = αai βi a F 3 f (x) = .

No se debe confundir el “producto por un escalar” con el “producto escalar”. para todos los i ∈ M y todos los j ∈ L obtenemos una ML­matriz formada por todos estos productos. el producto i∈N escalar de dos vectores es un elemento del campo. o e o El producto escalar can´ nico o X Sean αN y βN dos N­adas. En otras palabras αMN βN es la combinaci´ n o lineal de las columnas de αMN cuyos coeficientes son las coordenadas de βN . M´ s adelante veremos que hay otros productos definidos en a cualquier espacio vectorial. De esta manera. En esta secci´ n estudiaremos m´ s sistem´ ticamente el isomorfismo entre las TLs y las o a a matrices repitiendo m´ s detalladamente todo lo dicho en esta introducci´ n.Secci´ n 3. tanto ı ı N un rengl´ n αiN como una columna βNj son vectores del espacio K de N­adas y podemos o formar su producto αiN βNj . xy = yx (conmutatividad) 2. A esta matriz se le llama el producto de las matrices αMN y βNL y se denotar´ por αMN βNL . Por esto a este producto lo llamaremos can´ nico y solamente o est´ definido en el espacio vectorial de las N­adas para cierto conjunto finito de ´ndices N. x (λy) = (λx) y = λ (xy) (conmuta con el producto por escalares) Ejercicio 65 Pruebe las principales propiedades del producto de N­adas (3. le recomiendo seguir adelante y despu´ s releer esta introducci´ n. Resumiendo. Ejercicio 66 Busque tres vectores x y z en el plano R2 tales que (xy) z 6= x (yz). Si el lector no a o entendi´ muy bien. Por ejemplo. si γML = a αMN βNL entonces γij = αiN βNj . As´. ı . si los conjuntos de ´ndices son M = {1. Cuando hacemos esto. N El producto de matrices ı Sean αMN y βNL dos matrices. a ı El producto escalar cumple las siguientes propiedades: 1. El primero es un producto de un escalar por un vector y el segundo es un produc­ to de dos vectores. El producto escalar de estas N­adas αN βN = αi βi es el escalar del recuadro a la derecha. x (y + z) = xy + xz (distributividad a la izquierda) 3.14). coincide con el conjunto de ´ndices de los renglones de la segunda. 2}.4 o αMN βN = X Coordinatizaci´ n de transformaciones lineales o αMi βi 79 Observese que este producto lo podemos escribir como en el re­ cuadro a la izquierda. (y + z) x = yx + zx (distributividad a la derecha) 4. Observese que el conjunto de ´ndices de las columnas de la primera. [130] Ejercicio 67 Pruebe que ∀αN ∈ RN se cumple que α2 = αN αN ≥ 0. Esto quiere decir que este producto se obtie­ i∈N ne multiplicando las columnas de αMN por las correspondientes coordenadas de βN y sumando los resultados.

u Claro. la prueba directa de este hecho es muy sencilla. En este libro. En este caso o podemos escribir αMN = α1N y diremos que α1N es un vector rengl´ n o N­ada rengl´ n. no haremos distinciones entre N­adas. el lector debe pensar que cuando aparesca un vector en un e producto de matrices este se convierte en vector fila o columna seg´ n sea conveniente. podemos pensar que α1N es una N­ada αN . Esta matriz define una funci´ n KN 3 βN → αMN βN ∈ KM . KM ↔ KMN . este abuso de la notaci´ n aunque es muy c´ modo puede llevar (si nos pone­ o o mos pedantes) a contradicciones. Transformaciones lineales ı N = {1. . En este caso podemos hacer el producto de matrices αMN βN1 = αMN βN y este es el producto de una matriz por un vector definido al princi­ pio de esta secci´ n. 3 3 α2N βN1 α2N βN2 α2i βi1 i=1 i=1 α2i βi2 Productos de matrices y vectores Sean αMN y βNL dos matrices. Para esto. Ejercicio 68 Tome dos matrices con entradas enteras y multipl´quelas. o Observese que. 2} entonces. en forma gr´ fica tenemos a ⎞ ⎛ µ ¶ β11 β12 ¶ µ α11 α12 α13 ⎝ α1N βN1 α1N βN2 β21 β22 ⎠ = α21 α22 α23 α2N βN1 α2N βN2 β31 β32 y por definici´ n de producto escalar de vectores tenemos o µ ¶ µ P3 ¶ P3 α1N βN1 α1N βN2 α1i βi1 α1i βi2 Pi=1 = Pi=1 .80 Cap´tulo 3. o o Obviamente. 3} y L = {1. La transformaci´ n lineal de una matriz o o Sea αMN una MN­matriz. sino tambi´ n el producto escalar de dos vectores al constatar e que αN βN = α1N βN1 . En este caso podemos hacer el producto de matrices α1N βNL = αN βNL y esta es la definici´ n del producto de un vector o por una matriz. Intuitivamente. N­adas columna y N­adas rengl´ n o o sea α1N = αN1 = αN . podemos sumar dos N­adas pero no podemos sumar una N­ada columna con una N­ada rengl´ n. 2. Si el conjunto de indices L tiene un solo elemento en­ tonces la matriz βNL tiene una sola columna. An´ logamente se define el producto por el otro lado. Por ejemplo. Repita este ejercicio ı hasta que usted comprenda muy bien el concepto de producto de matrices. En este caso podemos escribir βNL = βN1 y diremos que βN1 es un vector columna o una N­ada columna. podemos pensar que βN1 es una N­ada βN . Obviamente. Sin embargo. Si el conjunto de o a indices M tiene un solo elemento entonces la matriz αMN tiene un solo rengl´ n. Esta ¡ funci´ n es una TL como ya vimos al principio de esta secci´ n utilizando el isomorfismo o ¢ o Mor KN . no solo el producto de matrices por vectores y al rev´ s son casos particu­ e lares del producto de matrices. dimos las definiciones de producto de una matriz por un vector y al rev´ s.

Prueba. o o o ´ Ejercicio 69 Halle la matriz de la rotaci´ n con angulo α en R2 . KL dos TLs. Denotemos αMi = f (ei ) ∈ KM .Secci´ n 3. Sea f : KN → KM una TL y αMN su matriz. aqu´ es m´ s simple ya que tenemos bases can´ nicas de K y K . pa­ ra cualquier βN ∈ KN se cumple que f (βN ) = αMN βN . Para cualquier γN ∈ KN y cualquier i ∈ L tenemos X X X βij (αjN γN ) = βij αjk γk = βiM (αMN γN ) = j∈M j∈M k∈N . o sea. Entonces. ¢ esto N M ya lo probamos al principio de esta secci´ n al construir el isomorfismo Mor K . Recordemos que ei es la N­ada con coordenadas o δji = 1 si i = j y δji = 0 si i 6= j. A la matriz αNM cuyas columnas son las imagenes de la base can´ nica mediante la TL o f la llamaremos matriz de la TL f. Si i ∈ N entonces. Sean αMN y βLM las matrices de f y g respectivamente. que cualquier TL de KN en KM se obtiene multiplicando por una MN­matriz. Sea E = {ei : i ∈ N} la base can´ nica de KN . Sean f ∈ Mor KN . KM y g ∈ Mor KM . Luego o f y f0 coinciden en la base can´ nica y por extensi´ n lineal ambas son la misma funci´ n. [130] o Composici´ n de TLs y producto de matrices o La matriz de la composici´ n de dos TLs es o igual al producto de las matrices de las TLs. Sin embargo. Por las propiedades del producto de vec­ tores tenemos que para todo i ∈ M se cumple que αiN (βN + γN ) = αiN βN + αiN γN y que αiN (λβN ) = λ (αiN βN ). Ahora queremos ver que estos son todos los ejemplos posibles. ¢ ¡ ¢ ¡ Prueba. por definici´ n de la base o can´ nica y del producto de una matriz por un vector tenemos la igualdad del recuadro. Sea f : KN → KM una TL. En¡realidad. La matriz de una transformaci´ n lineal o En la proposici´ n anterior vimos que al mutiplicar MN­matrices por N­adas obtenemos o ejemplos de TLs. Esto significa que son v´ lidas las igualdades αMN (βN + γN ) = a αMN βN + αMN γN y αMN (λβN ) = λ (αMN βN ). K o ↔ MN N M ı a o K . Sea αMN una matriz cualquiera pero fija. Sea f0 : βN 7→ αMN βN . Prueba. Sabemos que f y α e = P MN i j∈M αMj δji = αMi f0 son TLs.4 o Coordinatizaci´ n de transformaciones lineales o 81 El multiplicar una matriz fija por N­adas es una TL.

17. Sean f. En particular los conjuntos de ´ndices N y M tienen que ı El espacio de todas las NN­matrices ¡ ¢ es un algebra isomorfa a End KN . De la proposici´ n 3. Esta matriz es INN que cumple que Iij = δij (el delta de Kronecker) y que la llamaremos matriz identidad. Como γN 7→ βLM (αMN γN ) es la TL g ◦ f entonces. Transformaciones lineales ı k∈N j∈M y por lo tanto βLM (αMN γM ) = (βLM αMN ) γN . ı El producto de matrices es asociativo. distribuye por ambos lados con la suma de matrices y conmuta con el producto por un escalar. βLM y γKL respectivamente. g y h TLs cuyas matrices son αMN .17 completa la tarea de o ´ demostrar que esta aplicaci´ n es un isomorfismo de algebras.82 = Cap´tulo 3. o XX βij αjk γk = k∈N X (βiM αMk ) γk = (βiM αMN ) γN Ejercicio 70 Pruebe la asociatividad del producto de matrices directamente de la definici´ n o de producto o sea. Prueba. ya sabemos que la aplicaci´ n que a un OL en KN le hace corresponder su a o matriz es un isomorfismo de espacios vectoriales. ¡ N ¢ −1 ¡ o −1 −1 existe la TL f tal que f ◦ f = Id K y f ◦ f = Id KM . [130] Prueba. A la matriz de la TL f−1 se le llama matriz inversa de αMN y se denota por α−1 . Solo falta el neutro para el producto que es la matriz de la identidad en KN . Co­ mo la composici´ n de TLs es asociativa tenemos (h ◦ g) ◦ f = h ◦ (g ◦ f) y por lo tanto o (γKL βLM ) αMN = γKL (βLM αMN ). La proposici´ n 3. KM y αMN la matriz de f. Esto prueba la asociatividad. el conjunto de ı a MN ´ndices de los renglones de α−1 es N y no M. se desprenden de las respec­ a tivas propiedades de las TLs y de la proposici´ n 3. Ya sabemos que KNN es un espacio vectorial para la suma de matrices y el producto de una matriz por un escalar. An´ logamente. sin usar TLs. ı MN De la definici´ n es inmediato que una matriz tiene inversa si y solo si su TL es un iso­ o morfismo de espacios vectoriales.17 obtenemos o MN −1 −1 que la matriz inversa cumple que αMN αMN = INN y αMN αMN = IMM . Las dem´ s propiedades se prueban exactamente igual o sea. La matriz de (h ◦ g) ◦ f es (γKL βLM ) αMN . tenemos (g ◦ f) (γN ) = (βLM αMN ) γN que es lo que se quer´a probar. El resultado anterior hace la mayor parte del trabajo necesario ´ para mostrar que KNN es un algebra. La matriz de h ◦ (g ◦ f) es γKL (βLM αMN ). Adem´ s. La funci´ n¢f es biyectiva si y solo si. o Matrices inversas ¡ ¢ Sea f ∈ Mor KN . Observese que el conjunto de ´ndices de las columnas de α−1 es M y no N. ´ .

5 o Cambios de base 83 tener el mismo cardinal ya que estos cardinales son las dimensiones del dominio y el codo­ minio de esta TL. Sea αMN una matriz cuadrada y f ∈ Mor KN . a ´ Ejercicio 71 Sean f y g las rotaciones del plano R2 en los angulos α y β respectivamente. su prueba aqu´ se nos har´a innecesariamente complicada. Use el ejercicio 69 para hallar las matrices en la base can´ nica de f.13 para o que f tenga funci´ n inversa es necesario y suficiente que esta restricci´ n sea inyectiva (las o o columnas diferentes) y que su imagen (el conjunto de columnas) sea una base de KM . Use 3. g y f ◦ g. A la matriz αNV se le llama matriz de o i∈N cambio de base (de V a N). La resticci´ n de f a la base can´ nica de KN es la N­ada de las columnas de la matriz αMN . KM su TL. Nuestro problema ahora es: dado una V­ada βV que son las coordenadas del vector x en la base V como hallar las coordenadas γN de x en la base N. Conocemos los isomorfismos de coordinatizaci´ n o N K ↔ E ↔ K . Mejor lo ı ı dejaremos para el pr´ ximo cap´tulo donde esto ser´ una f´ cil consecuencia de un resultado o ı a a mucho m´ s importante. Cambios de base en un espacio vectorial Sean V y N dos bases del espacio E. En el algebra e a lineal estos cambios de coordenadas son lineales o sea. Esta matriz no es otra cosa que la matriz del isomorfismo KV → E → KN . la matriz debe ser cuadrada. Una matriz cuadrada αMN tiene inversa si y solo si sus columnas son todas diferentes y son una base de KM . [131] o 3. Por 3. O sea.5 Cambios de base Es usual en las aplicaciones que sea conveniente realizar ciertos c´ lculos en un sistema de a ´ coordenadas y despu´ s realizar otros c´ lculos en otro sistema de coordenadas. para cualquier v ∈ V tenemos la v = αiv i f´ rmula en el recuadro a la derecha. la transformaci´ n que lleva unas o coordenadas a otras es una TL. O sea. V . En este caso las letras V y N tienen el sentido de que V es la base “vieja” y que N es la base “nueva”.17 para o ´ hallar f´ rmulas para el seno y el coseno de la suma de dos angulos. Sea αNV la matriz cuyas columnas son los vectores de la base V expre­ X sados en las coordenadas de N. Ahora nos preocuparemos en traducir nuestro criterio de isomorfismo 3. Sin embargo.13 al lenguaje de matrices.Secci´ n 3. ¡ ¢ o Prueba. Es posible probar un criterio an´ logo al anterior substituyendo las columnas por los ren­ a glones.

Sean V. Conocemos los isomorfismos de coordinatizaci´ n KWV ↔ Mor (E. N son las bases nuevas. 3) y a2 = (1. y) ∈ R2 en la base N = {a1 . Como un cambio de base es un isomorfismo entonces la matriz o αNV tiene inversa que es la matriz de cambio de la base N a la base V. El problema ahora es: dada una WV­matriz o αWV que es la matriz de la TL f : E → F en las bases V y W como hallar la matriz βMN de f en las bases N y M. Transformaciones lineales ı Si βV es la V­ada de las coordenadas de un vector en la base V entonces. λMW αWV γ−1 es la matriz de f en las bases N y M. M dos bases del espacio F. e2 } es la base can´ nica y para construir la matriz o o αNV de cambio de base necesitamos las coordenadas de V en la base N. Queremos calcular las coordenadas de un vector u = (x. O sea. Luego. V = {e1 . Luego. Estas coordenadas se pueden hallar resolviendo dos sistemas de ecuaciones lineales pero es m´ s sencillo usar a la siguiente argumentaci´ n. Pero. denotando p y q las coordenadas que buscamos. Las coordenadas (x.84 Cap´tulo 3. o sea. u = pa1 + qa2 tenemos: µ ¶ µ ¶−1 µ ¶ µ ¶µ ¶ µ ¶ p 2 1 x 2 −1 x 2x − y = = = . a esto lo pospondremos hasta el pr´ ximo cap´tulo. V. X Sea γNV la matriz de cambio de base de V a N en E. a2 } donde a1 = (2. Sea λMW la v= γiv i matriz de cambio de base de W a M en F. Nuevamente. Tenemos. F) ↔ KMN . o ı Cambios de base en el espacio de transformaciones lineales Veamos como cambia la matriz de una TL cuando cambian las bases. q 3 2 y −3 2 y 2y − 3x ´ y en estos c´ lculos lo unico que no conoce el lector es como calcular la matriz inversa. para cualquier v ∈ V i∈N X y cualquier w ∈ W tenemos las f´ rmulas en el recuadro a la derecha. αNV βV es la N­ada de las coordenadas del mismo vector en la base N. P P Prueba. y) son las coordenadas de u en la base can´ nica. o λjw j w= Estas matrices no son otra cosa que las matrices de los isomorfismos de j∈M V N W M coordinatizaci´ n K → E → K y K → F → K . x = v∈V βv v = i∈N γi i à à ! ! X X y por lo tanto X X X x= βv αiv i = αiv βv i = γi i v∈V i∈N i∈N v∈V i∈N Ejemplo. 2). Las columnas de esta matriz ya las tenemos. son a1 y a2 . o Si αWV es la matriz de f en las bases V y W entonces. De P la unicidad de las coordenadas de cualquier vector en la base N obtenemos la igualdad v∈V αiv βv = γi que es la que se nacesitaba demostrar. Descompongamos x ∈ E en las dos bases. W son las bases “viejas” y M. N dos bases del espacio E y W. NV .

γNV ↓ N K −→ KN es un caso particular del anterior. O sea. no tiene sentido escoger bases diferen­ tes para el dominio y el codominio ya que estos son iguales. En nuestro caso. Cambios de base en el espacio de operadores lineales Si f ∈ End (E) = Mor (E. la o matriz de f en la base can´ nica es o ¶−1 µ ¶µ ¶µ ¶ µ 2 1 cos α − sin α 2 1 cos α + 8 sin α −5 sin α = 3 2 sin α cos α 3 2 13 sin α cos α − 8 sin α y en esta igualdad substituimos f (i) por la f´ rmula de la izquierda para obtener à ! o à ! X X X X βji γiv j = λjw αwv j. Se dice que un diagrama de βMN funciones es conmutativo si cualesquiera dos caminos di­ rigidos entre dos cualesquiera conjuntos son funciones iguales. j∈M i∈N j∈M w∈W . a2 } donde a1 = (2. βMN .5 o Cambios de base 85 X Prueba. N dos bases de E. ∀v ∈ V se cumple la f´ rmula o w∈W del recuadro a la derecha. Luego. La proposici´ n anterior la podemos interpretar gr´ ficamen­ o a αWV KV −→ KW te de la siguiente manera. Como γNV es la matriz de un isomorfismo entonces. γNV tiene inversa por lo que podemos despejar βMN . γNV . Sea γNV la matriz de cambio de αVV KV −→ KV base de V a N en E. sin α cos α ¿Cual ser´ la matriz de f en la base can´ nica? La matriz de cambio a o de base a la base can´ nica es la que tiene como columnas a los vectores a1 y a2 .Secci´ n 3. o Substituyendo en la f´ rmula de la derecha à f´ rmulas que definen las matrices λMW y o las o ! γNV obtenemos X X X γiv f (i) = λjw αwv j i∈N j∈M w∈W De la unicidad de la representaci´ n de cualquier vector en la base M obtenemos que para o P P cualesquiera j ∈ M y v ∈ V se cumple que i∈N βji γiv = w∈W λjw αwv y por lo tanto βMN γNV = λMW αWV . 3) y a2 = (1. el que el diagrama a la izquierda sea conmutativo lo quiere decir es que βMN γNV = λMW αWV . NV µ ¶ Ejemplo. E) es un OL entonces. y γNV ↓ ↓ λMW λMW son las matrices de TLs entre espacios como se muestra KN −→ KM en el diagrama a la izquierda. Las columnas de αWV son las imagenes por f de la base f (v) = αwv w V expresadas en la base W o sea. Sean V. M. Denotemos por βMN la matriz de f en las X bases N. el diagrama es el de la dere­ ↓ γNV ´ cha. 2). hallar la matriz βNN de f en la base N. Luego. Las matrices αWV . para cualquier i ∈ N se cumple la j∈M f´ rmula del recuadro a la izquierda. βNN γNV = γNV αVV βNN y despejando obtenemos que βNN = γNV αVV γ−1 . Las columnas de βMN son las imagenes por f de la base f (i) = βji j N expresadas en la base M. Sea f la TL del plano R2 que tiene la matriz del recuadro a cos α − sin α la izquierda en la base V = {a1 . Ya no hay que probar la conmutatividad de este ya que el. En este caso. El problema ahora es: dada una VV­matriz αVV que es la matriz del OL f en la base V.

en este caso pasan cosas raras ya que. Sin embargo. Prueba. Si f : E → F entonces Ker f ⊂ E e Im f ⊂ F. Esto quiere decir que Im f es un subespacio. Sean a. Tenemos f (a + b) = f (a) + f (b) = 0 + 0 = 0 y f (λa) = λf (a) = λ0 = 0. Como f es lineal tenemos f (a + b) = f (a) + f (b) = x + y y adem´ s a f (λa) = λf (a) = λx. Despu´ s. Esta notaci´ n es debido a que en ingl´ s nucleo es “kernel”. Por ultimo. Al conjunto {x ∈ E | f (x) = 0} se le llama nucleo de la TL. Por definici´ n existen a. b vectores en Ker f y λ ∈ K. o . La imagen y el nucleo de una TL son subespacios. demostraremos el resultado prometido al principio de la secci´ n. cuando E = F el nucleo y la imagen son subespacios del mismo espacio. Descomposici´ n de transformaciones lineales o Ahora. Sea fK la restricci´ n de f al subespacio K.86 Cap´tulo 3. b tales que f (a) = o x. como veremos m´ s adelante. Denotemos i : Im f → F la inmersi´ n del subespacio Im f o o ´ en F. f (b) = y. Sea K un subespacio complementario cualquiera pero fijo del Ker f. Sea f : E → o F una TL. Definiciones Para esto comenzaremos con dos definiciones fundamentales. vere­ e mos interesantes consecuencias de este resultado. aunque a estos subespacios tienen dimensiones complementarias ellos NO son complementarios en general. La imagen de f se denotar´ por Im f. o o o 3. El nucleo de a f se denotar´ por Ker f. las proyecciones y los isomorfismos. denotemos πK : E ³ K la proyecci´ n de E a K a lo largo del Ker f. Sea f : E → F una TL. Solamente en el caso que la TL es un OL o sea. Al conjunto {y ∈ F | ∃x ∈ E f (x) = y} se le llama imagen de la TL. Sean x.6 El nucleo y la imagen de una transformaci´ n lineal o En esta secci´ n queremos ver que para describir todas las transformaciones lineales nos o es suficiente conocer las inmersiones. Transformaciones lineales ı y esto es una advertencia de que un operador lineal puede tener en una base una matriz que es igual a la de la rotaci´ n en la base can´ nica y sin embargo no es una rotaci´ n. y vectores en Im f y λ ∈ K. Descrip­ a o e tivamente la imagen es el conjunto de los vectores en el codominio que tienen preimagen y el nucleo es el conjunto de los vectores en el dominio cuya imagen es el vector 0. El nucleo y la imagen de una TL son subespacios de espacios diferentes. Esto quiere decir que Ker f es un subespacio.

Por 2. como para cualquier TL se tiene que f (0) = 0 entonces el vector cero siempre es un elemento del nucleo. Prueba. Transformaciones lineales con nucleo trivial Observese que. Luego. La primera afirmaci´ n del Teorema o de Descomposici´ n de una TL (3. Como (a − b) ∈ K ∩ Ker f entonces. 87 Este teorema lo podemos visualizar m´ s f´ cilmente si observa­ a a mos el diagrama de la derecha. Por 2. Lo importante es que el rec´proco tambi´ n es cierto. fK (a − b) = 0. este teorema lo usamos en el primer cap´tulo para probar que Zp es un campo para ı . Si fK (a) = fK (b) entonces. Sea x un vector arbitrario en el dominio de f. Si el nucleo solo contiene al vector cero se dice que f tiene nucleo trivial. De aqu´ obtenemos ı (i ◦ fK ◦ πK ) (x) = i (fK (πK (x))) = i (fK (a)) = f (a) = f (a) + f (b) = f (x) y con esto queda probado que f = i ◦ fK ◦ πK .24) lo que dice es que este dia­ o grama es conmutativo. Por el teorema anterior Im f es isomorfo a un complementario de Ker f. De u hecho. ´ Para probar que fK es un isomorfismo sea f (x) ∈ Im f. Tenemos (f (x) = f (y)) ⇔ (f (x) − f (y) = 0) ⇔ (f (x − y) = 0) ⇔ (x − y ∈ Ker f) y por lo tanto el que halla dos vectores diferentes cuyas imagenes sean iguales es equivalente a la existencia de un vector no nulo en el nucleo de la TL. Sean x. a − b = 0 o sea a = b. Como fK (a) = f (a) = f (a) + f (b) = f (x) entonces fK es sobreyectiva. Para cualquier transformaci´ n lineal f : E → F.28 (p´ gina 62) existen unos a ´ unicos vectores a ∈ K. b ∈ Ker f tales que x = a + b. fK es inyectiva. ı e Una TL es inyectiva si y solo si su nucleo es trivial. Cualquier TL lineal inyectiva tiene nucleo trivial ya que en este caso la ´ preimagen de cualquier vector es unica. f E −→ F πK ↓ ↑i K −→ Im f fK Prueba. Sea f una TL. Prueba. o dim E = dim Ker f + dim Im f. b ∈ Ker f tales que x = a + b.Secci´ n 3.6 El nucleo y la imagen de una transformaci´ n lineal o o Teorema de Descomposici´ n de una TL o f = i ◦ fK ◦ πK y fK es un isomorfismo. Un criterio de isomorfismo Espero que el lector recuerde el sencillo resultado de teor´a de conjuntos: toda funci´ n ı o inyectiva de un conjunto finito en otro con el mismo n´ mero de elementos es biyectiva.y dos vectores en el dominio de f.28 existen unos unicos vectores a ∈ K.

De 3.88 Cap´tulo 3. Prueba. Luego. la funci´ n f : E → Im f es un isomorfismo y por lo tanto o dim E = dim Im f. Si f es inyectiva entonces. es mostrar que “exactamente” el mismo resultado (simple pero ´ muy util) se cumple para espacios vectoriales de dimensi´ n finita. Por hip´ tesis dim F = dim E.17 (p´ gina 52) obtenemos F = Im f. El espacio cociente E/ Ker f est´ formado por todos los subespacios afines Ker f + x. Prueba. Descomposici´ n can´ nica de transformaciones lineales o o Para aplicar el Teorema de Descomposici´ n de una TL (3. Si f es sobreyectiva entonces.33) e que cualquier tal subespacio es isomorfo al cociente E/ Ker f.24) est´ n o a f involucradas tres funciones: la proyecci´ n πK (que es sobreyec­ o E −→ F tiva). Esta ultima no depende de K y podemos quedarnos E/ Ker f ←→ Im f ? con ella.25 tenemos dim Ker f = dim E − dim Im f. Transformaciones lineales ı p primo.24) para as´ obtener otra versi´ n o ı o del mismo que no dependa de escoger nada. Como Im f es un subespacio de F entonces. De aqu´. si f◦g = Id entonces. F = Im f. a Como consecuencia de este resultado probaremos que para comprobar que dos opera­ dores lineales f y g en un espacio de dimensi´ n finita son el inverso uno del otro. Por 3. Ya vimos (v´ ase 2. la a x 7→ Ker f + x ´ unica posible respuesta a nuestra pregunta son las funciones defini­ f (x) 7→ Ker f + x das en el recuadro a la izquierda. debido a que todas las dimensiones son o ı finitas. Por hip´ tesis dim F = dim E. g : E → E dos OLs de un espacio finito dimen­ sional. a El espacio Im f est´ formado por todas las imagenes f (x). dim Ker f = 0 y por lo tanto Ker f = {0}. La funci´ n identidad es sobreyectiva. Luego. Queremos substituir K por E/ Ker f en el Teorema de Descomposici´ n de una TL (3. f ◦ g = Id si y solo si g ◦ f = Id.27 f es inyectiva y por lo tanto tiene inversa f−1 . As´ que todas nuestras incognitas est´ n representadas ı a en el diagrama de la derecha.26 concluimos que f es inyectiva. . ¿Cuales funciones podemos escoger para nuestras incognitas? No tenemos muchas va­ riantes. Una TL f : E → F es inyectiva si y solo si es sobreyectiva. o sea que sea can´ nico. El objetivo ahora. Componiendo con f−1 obtenemos f−1 ◦ f ◦ g = f−1 ◦ Id y por lo tanto g = f−1 . o En el Teorema de Descomposici´ n de una TL (3. Entonces. Por 3. o aplicando 2. Sean f.24) necesitamos escoger (ya o que hay muchos) un subespacio complementario K del nucleo de f. solo es o necesario comprobar una de las dos igualdades g ◦ f = Id o f ◦ g = Id. o Sean E y F dos espacios de dimensiones finitas e iguales. la restricci´ n fK (que es biyectiva) y la inmersi´ n i (que es o o ?↓ ↑i ´ inyectiva). f es sobreyecti­ o va.

Esta funci´ n tiene dominio Im f. . El isomorfismo f es el que a un subespacio af´n Ker f + x le hace corresponder f (x). se le llama funci´ n o natural y se denota por “nat”. este es o o o o ı tambi´ n clave para poder encontrar el conjunto de todas las soluciones de un sistema de e ecuaciones lineales. Sin embargo esto es muy f´ cil porque la composici´ n de funciones a o f E −→ F nat ↓ ↑i E/ Ker f −→ Im f f0 es evidentemente igual a la funci´ n f. Como para un subespacio af´n ı E paralelo al Ker f se cumple que (E = Ker f + x) ⇔ (x ∈ E) entonces. g es un isomorfismo y por lo tanto tiene un isomor­ fismo inverso que denotaremos por f0 . La funci´ n g es una TL ya que o g (f (x) + f (y)) = g (f (x + y)) = Ker f + x + y = g (f (x)) + g (f (y)) g (λf (x)) = g (f (λx)) = Ker f + λx =λ (Ker f + x) = λg (f (x)) y es tambi´ n evidentemente sobreyectiva.29 no se limita a ser el eje central de la descomposi­ ci´ n can´ nica de una transformaci´ n lineal. ı As´ completamos nuestro diagrama como en el recuadro a la ı derecha. Los subespacios afines paralelos a Ker f son precisamente los conjuntos de vectores en que la funci´ n f es constante. la inyectividad de g es equivalente a que la funci´ n f sea constante en cualquier subespacio af´n paralelo al Ker f. f (x) = f (y). o nat f0 i x 7−→ Ker f + x 7−→ f (x) 7−→ f (x) La importancia del resultado 3. Solo nos falta demostrar que este es conmutativo.Secci´ n 3. o ı La cadena de equivalencias (y ∈ Ker f + x) ⇔ (∃a ∈ Ker f | y = a + x) ⇔ (f (y − x) = 0) ⇔ (f (y) = f (x)) nos convence de que g es inyectiva independientemente de quien sea f y de la validez del siguiente resultado. o Luego. a La segunda de estas funciones es nuestra preocupaci´ n fundamental ya que tenemos que o probar que es un isomorfismo. e ¿Que quiere decir que g es inyectiva? Lo que quiere decir es que si los subespacios afines Ker f + x y Ker f + y son el mismo entonces. La funci´ n natural es una TL ya que o nat (x + y) = Ker f + x + y = Ker f + x + Ker f + y = nat (x) + nat (y) nat (λx) = Ker f + λx = λ Ker f + λx = λ (Ker f + x) = λ nat (x) y adem´ s es evidentemente sobreyectiva. Como veremos en el pr´ ximo cap´tulo. codominio E/ Ker f y la o denotaremos por g.6 El nucleo y la imagen de una transformaci´ n lineal o o 89 La primera de estas funciones tiene dominio E. codominio E/ Ker f.

90 .

que o ωσω−1 ∆ tiene inversa SN 3 ρ 7→ ω−1 ρω ∈ SM .1 Permutaciones La definici´ n de determinante de una matriz pasa inevitablemente por la definici´ n del o o signo de una permutaci´ n. Al grupo (SN . o Si |M| = |N| entonces los grupos SM y SN son isomorfos. Una permutaci´ n de N es una biyecci´ n de N en N. estudiaremos sus propiedades. Este es uno de los conceptos sin los cuales a realmente no se puede entender nada en las matem´ ticas superiores. Observemos. . Prueba. SN es un grupo respecto o o a la composici´ n. Si ω : M → N es una biyecci´ n entonces fij´ ndonos en o a ↑ ω−1 el diagrama conmutativo del recuadro a la derecha obtenemos ω ↓ N −→ N una funci´ n ∆ : SM 3 σ 7→ ωσω−1 ∈ SN . de resolver los sistemas de ecuaciones lineales de forma general. En este cap´tulo dare­ a ı mos la definici´ n de los determinantes. ◦) se le llama el grupo sim´ trico de N. El lector debe entender bien esta secci´ n para poder pasar al estu­ o o dio de los determinantes.os determinantes son una funci´ n que a cada matriz cuadrada le hace corresponder o un elemento del campo. La excepci´ n es la prueba de 4. 4. Todo lo que se digamos acerca de la importancia de los de­ terminantes en las matem´ ticas es poco. por lo tanto. El grupo sim´ trico e Sea N un conjunto finito. Denotaremos por o e IdN a la funci´ n identidad que es el neutro de SN . Adem´ s. Al o o conjunto de todas las permutaciones de N lo denotaremos por SN .5 que por complicada e irrelevante o para los determinantes puede ser omitida en una primera lectura. m´ todos de c´ lculo o e a y seremos capaces. La composici´ n de biyec­ o ciones es una biyecci´ n y toda biyecci´ n tiene inversa. gracias a ellos. ∆ es un a isomorfismo de los grupos SM y SN . ∆ (σθ) = ωσθω−1 = ωσω−1 ωθω−1 = ∆ (σ) ∆ (θ) y por lo tanto. Sean M y N son dos conjuntos del mismo cardi­ σ M −→ M nal.

x0 )◦(x1 . Cada parte tiene tantos elementos como biyecciones f : M\i → N\j y por hip´ tesis de inducci´ n este n´ mero es (n − 1) !. . Dos ciclos (x0 . el ciclo o ¢ © ª ¡ θ = x. xn−1 ). ω2 (x) . Se comprueba f´ cilmente que (x0 . Luego. Por inducci´ n. . . Determinantes ı El lector debe interpretar este resultado como que. Sea j el natural m´ s peque˜ o tal que ωj (x) ya apareci´ antes a n o j en esta sucesi´ n. . ρ ∈ SN\M se descompone en composici´ n de o o o ciclos disjuntos ρ = ρ1 ◦ · · · ◦ ρt y por lo tanto. ω (x) . . . habr´a un n´ mero k mayor que o ı u cero y menor que j tal que ωj (x) = ωk (x) o sea. En la sucesi´ n x. . ω (x) . Para n = 1 el grupo SN tiene una o sola permutaci´ n que es la identidad y la identidad es un ciclo. . ωj−1 (x) exactamente igual de como lo hace la permutaci´ n ω. . Es importante notar que la composici´ n de ciclos disjuntos es conmu­ u o tativa pero la composici´ n de ciclos en general no lo es. Observemos que ω (x) = x porque si no. u Prueba. Si n = 1 entonces ρ (n) = 1 = 1!. Sea x ∈ N. . Sea n > 1 y ω ∈ SN una per­ o mutaci´ n. A los ciclos de orden 2 se les llama transposiciones. x0 )◦. ρ (n) = n (n − 1) ! = n!.◦(x2 . Si o i ∈ M entonces. x0 ) y a esto demuestra que todo ciclo se descompone en composici´ n de transposiciones. . . A la permutaci´ n o ¯ xi+1 mod n si y = xi σ mostrada en el recuadro a la derecha se le llama ci­ σ (y) = y si y ∈ M / clo de orden n. o o u Ciclos Sea M = {x0 . el n´ mero de elementos de SN solo depende del n´ mero de elementos en N. o o . . no puede haber infinitos elemen­ o o tos diferentes ya que N es finito. . xn−1 ) y (y0 . . o o Prueba. . Luego. ω = θ ◦ ρ = ρ ◦ θ donde ρ o ı es la restricci´ n de ω a N\M. u u El n´ mero de permutaciones de un conjunto con n elementos es n!. . . . . . ω = θ ◦ ρ1 ◦ · · · ◦ ρt . . A esta permutaci´ n se le denotar´ por o a (x0 . . o o Prueba. en el grupo SM podemos cambiarle el nombre a los elementos de M mediante la biyecci´ n δ : M → N y obteniendo el grupo SN . . . ym−1 ) se les llama disjuntos si ning´ n u xi es igual a alg´ n yj . De aqu´. ωk (x) tendr´a dos preimagenes diferen­ ı tes ωk−1 (x) 6= ωj−1 (x) y esto no puede ser ya que ω es una biyecci´ n.92 Cap´tulo 4. . Hagamos la prueba por inducci´ n en n = |N|. . ωj−1 (x) transforma los elementos de M = x. . La prueba o se completa porque toda permutaci´ n es composici´ n de ciclos. . ω (x) . o En particular. . el conjunto de biyecciones lo podemos partir en n partes disjuntas seg´ n u cual sea j = f (i). . xn−1 } ⊆ N. xn−1 ) = (xn−1 . o Toda permutaci´ n es composici´ n de ciclos disjuntos. Para la prueba es m´ s claro encontrar ρ (n) el n´ mero de biyecciones f : M → N a u donde |M| = |N| = n. Toda permutaci´ n es composici´ n de transposiciones. . . Hagamos inducci´ n en n.

Observese que si j > i + 1 entonces. (i. k + 1} entonces. . . Efectivamente. . como θ se descompone como composici´ n θ = o θ1 ◦ . . . xn ] en estas variables con (σ (xi ) − σ (xj )) coeficientes enteros. o Prueba. Ahora. .. . . . ◦ ρq = (−1)q f (IdN ) y como f (IdN ) 6= 0 entonces. ◦ πp = ρ1 ◦ . ◦ θr ) = −f (ω ◦ θ1 ◦ . O sea. .1 o El grupo alternante Permutaciones 93 Si π1 ◦ . j) ◦ τi por lo que (por inducci´ n en j − i) obtenemos que cualquier transposici´ n o o se descompone en composici´ n de un n´ mero impar de transposiciones normales. j) tengamos i < j.1 podemos suponer que estamos trabajando en el grupo sim´ trico SN donde e N = {1.. . . el factor ω (xi ) − ω (xj ) aparece en f (ω ◦ τk ). . primero debemos probar que si i < j son tales que (i. p y q tienen la misma paridad. p y q tienen la misma paridad. . . Para esto.. n}. constru­ yamos la funci´ n f : SN → Z [x1 . xn ] que a cada σ ∈ SN le hace corresponder el o polinomio del recuadro a la derecha. ◦ πp ) = f ρ1 ◦ . k + 1) para cualquier k ∈ {1. .. . ◦ θr de un n´ mero impar de transposiciones normales. . regresemos a las hip´ tesis originales. . Finalmente. . Tenemos π1 ◦ . . Luego. Cada permutaci´ n σ de N tambi´ n permuta 1≤i<j≤n o e estas variables mediante la regla σ (xi ) = xσ(i) . ◦ ρq son dos descomposiciones de una permutaci´ n o en composici´ n de transposiciones entonces. n − 1} que llamaremos transposiciones normales. . ◦ ρq ¢ ¡o y por lo tanto f (π1 ◦ . Como todas las πi y las ρj son transposi­ ciones obtenemos las igualdades ¡ ¢ (−1)p f (IdN ) = f (π1 ◦ . j) = τi ◦ (i + 1. ◦ ρq . . Necesitamos probar varias cosas acerca de la funci´ n f. o Veamos primero que para cualquier permutaci´ n ω y cualquier transposici´ n normal τk o o se cumple que f (ω ◦ τk ) = −f (ω). Tambi´ n esto nos permite o e definir ciertas transposiciones especiales τk = (k. En los restantes casos tenemos / ⎧ ⎪ ω (τk (xk+1 )) − ω (τk (xj )) si i = k y j 6= k + 1 ⎪ ⎨ ω (τk (xk )) − ω (τk (xj )) si i = k + 1 y j 6= k ω (xi ) − ω (xj ) = ⎪ ω (τk (xi )) − ω (τk (xk+1 )) si j = k e i 6= k + 1 ⎪ ⎩ si j = k + 1 e i 6= k ω (τk (xi )) − ω (τk (xk )) Como f (ω ◦ τk ) y f (ω) tienen la misma cantidad de factores. . . o u Consideremos un conjunto de variables x1 . . . . (−1)p = (−1)q . Por 4.. . ◦ θr−1 ) = · · · = (−1)r f (ω) y como r es impar obtenemos f (ω ◦ θ) = −f (ω). . . tenemos u f (ω ◦ θ) = f (ω ◦ θ1 ◦ . j ∈ {k. . Esto nos permite suponer que a cada vez que escribamos una transposici´ n (i. Si i. obtenemos f (ω ◦ τk ) f (ω) = ω (xk+1 ) − ω (xk ) ω (xk ) − ω (xk+1 ) y esto prueba que f (ω ◦ τk ) = −f (ω). . .Secci´ n 4. que el conjunto N est´ ordenado. k + 1) entonces. ◦ πp ) = f ρ1 ◦ . . esto es obvio. j) 6= (k.. . . xn y forme­ Y mos el anillo de polinomios Z [x1 . ◦ πp = ρ1 ◦ . Veamos ahora que para cualquier permutaci´ n ω y cualquier transposici´ n θ se cumple o o que f (ω ◦ θ) = −f (ω).

◦ π1 y por lo tanto sgn π−1 = (−1)n = sgn π. Tenemos que establecer una biyecci´ n entre AN y A− . El conjunto A− es una clase lateral porque si σ ∈ A− entonces. tenemos π−1 = (π1 ◦ . . El lector debe N N N comparar esto con ?? (p´ gina ??) substituyendo el subgrupo AN por un subespacio E. . En otro caso. o o N − − Las funciones f : AN 3 ρ 7→ ρ ◦ σ ∈ AN y g : AN 3 θ 7→ θ ◦ σ ∈ AN son la inversa una de otra ya que. Sean π = π1 ◦ . En particular. . La funci´ n sgn jugar´ un papel vital en todo lo que sigue. o ¡ ¢ ¡ ¢ ¡ ¢ Ejercicio 72 Pruebe que sgn π−1 ◦ ρ = sgn π ◦ ρ−1 = sgn ρ−1 ◦ π . Luego AN es un grupo para la composici´ n o e o y se le llama grupo alternante. . ◦ πn ◦ ρ1 ◦ . . Adem´ s. N Los conjuntos AN y A− tienen la misma cantidad de permutaciones. Determinantes ı Una permutaci´ n se le llama par si se descompone en composici´ n de un n´ mero par o o u de transposiciones. ◦ πn )−1 = π−1 ◦ . ◦ π−1 = o n 1 πn ◦ . el lector debe familiarizarse muy bien con la definici´ n de o o esta funci´ n y sus propiedades. Al conjunto de todas las permutaciones pares de N se le denotar´ por AN . o ¨ sgn (π ◦ ρ) = sgn π sgn ρ ¨ sgn π−1 = sgn π Prueba. se le llama impar. 1 y −1. Al conjunto de las permutaciones impares lo denotaremos por A− y lo llamaremos la clase lateral de las permutaciones impares. como la inversa de a cualquier transposici´ n es ella misma. . obtenemos o (f ◦ g) (θ) = θ ◦ σ ◦ σ = θ y (g ◦ f) (ρ) = ρ ◦ σ ◦ σ = ρ. El primero es el neutro para el producto y el segundo es el opuesto para la suma del primero. El signo ı de una permutaci´ n es la funci´ n sgn : SN → K que es 1 si la permutaci´ n es par y es −1 si o o o la permutaci´ n es impar. N Prueba. σ por un a vector x y la operaci´ n ◦ por la operaci´ n +. .94 Cap´tulo 4. observando que la inversa de una transposici´ n es ella misma. en la definici´ n o a o de determinante de una matriz los signos de los sumandos est´ n definidos precisamente a mediante la funci´ n sgn. . Sea σ una transposici´ n. o o El signo de una permutaci´ n o En todo campo K hay dos elementos notables. La composici´ n de dos permutaciones pares es par y la a o inversa de una permutaci´ n par es tambi´ n par. A− = AN ◦ σ. . . Por esto. Observese que estos dos elementos son diferentes si y solo si la caracter´stica del campo es diferente de 2. Tenemos π ◦ ρ = π1 ◦ . ◦ ρm descomposiciones de π y ρ en composici´ n de transposiciones. . ◦ πn y ρ = ρ1 ◦ . . . . ◦ ρm y por lo o tanto sgn (π ◦ ρ) = (−1)n+m = (−1)n (−1)m = sgn π sgn ρ. .

d tienen dos angulos iguales o sea son congruentes. u. q. v. u. Despejando x en x = d − b ∆ la primera ecuaci´ n y substituyendo en la segunda ob­ o a−c tenemos y. Recordemos que SN es el conjunto de todas las las permutacio­ nes de N. sea q el punto de intersecci´ n de la recta u. y v d De esto. p. Que­ 2 R remos calcular el area de este paralelogramo. u.Secci´ n 4. Luego. Si |N| = 1 entonces o la matriz αNN consta de una sola entrada y su determinante es precisamente esta entrada. u + v con el eje x. d) dos vectores en el plano R2 y u + v como se muestra en la figura a la izquierda. ¯ .2 Propiedades b´ sicas de los determinantes a Resolvamos el sistema de ecuaciones lineales de la iz­ quierda. u + v. v es igual a ∆ = ad − bc. u + v. Sea p el punto de intersecci´ n de la recta o 0 p x u. Recalquemos que los determinantes est´ n definidos solo cuando los conjuntos de ´ndices a ı de renglones y columnas coinciden y es un conjunto finito. Estos dos vectores v e q definen un paralelogramo cuyos v´ rtices son 0. por el Teorema de Tales obtenemos ax + by = 1 cx + dy = 1 (b ÷ (a − p) = d ÷ c) ⇒ (pd = ad − cb) u ´ Sabemos que. p. Los o a determinantes son la generalizaci´ n de este n´ mero a dimensiones arbitrarias. hemos demostrado que el area del paralelogra­ 0 c pa x mo 0. Luego. u. u + v con la recta paralela al o u eje x que pasa por v. el paralelogramo 0. q. v. u + v. Por este motivo en este cap´tulo ı todos los espacios ser´ n finito dimensionales y todos los conjuntos de ´ndices ser´ n finitos. Si σ ∈ SN e i ∈ N entonces. Denotemos ∆ = ad − bc. v. u y 0. Para esto. Es f´ cil ver que el tri´ ngulo v. o sea σi es una forma corta de escribir σ (i). o Sean ahora u = (a. a. b) y v = (c. El determinante de una matriz o X Y αNN en la cual los conjuntos de ´ndices de renglones y co­ ı det αNN = sgn σ αiσ i lumnas coinciden es por definici´ n el elemento del campo o σ∈ SN i∈N definido en el recuadro de la izquierda. denotaremos por σi la imagen de i por la permutaci´ n o σ. p. v. pd es el area (base por altura) del paralelogramo b 0. Substituyendo este y en alguna de las ecuaciones obtendremos y = ∆ x. Esta soluci´ n es la del recuadro a la derecha. Recordemos tambi´ n que el signo de una e permutaci´ n sgn σ es 1 si σ es par y es −1 si σ es impar. Estos dos ejemplos nos dan una idea de la importancia del n´ mero ∆ = ad − bc para u la soluci´ n de sistemas de dos ecuaciones lineales y para el c´ lculo de areas en R2 .2 o Propiedades b´ sicas de los determinantes a 95 4. q. o u Definici´ n de los determinantes o Sea N un conjunto finito. a ı a ˜ Determinantes de matrices pequenas Interpretemos esta definici´ n para conjuntos N con pocos elementos. En la figura a la derecha los tri´ ngulos a R2 q ´ p. u + v es a a ´ igual al tri´ ngulo 0. v tiene area igual a la del a paralelogramo 0.

Las tres primeras son de signo positivo y se corres­ ⎞ ponden con los tres sumandos α11 α22 α33 . estos tres a α11 α12 α13 sumandos se pueden representar por la diagonal alterna de la matriz ⎝α21 α22 α23 ⎠ y los dos “tri´ ngulos” con lados paralelos a esta diagonal como se a α31 α32 α33 muestra en el recuadro de la izquierda. 1. a Matrices con filas nulas Si una matriz tiene una columna o un ren­ gl´ n nulo entonces. 1. El elemento neutro para el producto o ¯ lo llamamos matriz identidad. ⎛ α11 α12 α13 Gr´ ficamente. calcular determinantes con el uso directo de su definici´ n es muy ineficiente para o matrices de m´ s de tres renglones y columnas. A la primera le corresponde el sumando α11 α12 y a la segunda el sumando −α12 α21 . Las otras tres permutaciones tienen signo negativo y se corresponden con los sumandos ⎛ ⎞ −α11 α23 α32 . Cuando el conjunto de ´ndices est´ ordena­ ı a ¶ do. 2} entonces tenemos 2 permutaciones de N que son (1. El determinante de la identidad ´ Ya vimos que el conjunto de matrices αNN es un algebra respecto al producto y suma de matrices y multiplicaci´ n por elementos del campo. Hay 6 permutaciones de N y estas son (1. digamos N = {1. Lo mismo ocurre con las columnas. Gr´ ficamente. El n´ mero de sumandos en la definici´ n del determinante es SN = |N| !. Este n´ mero u o u crece r´ pidamente con |N| como se ve en la siguiente tabla a 5 6 7 8 9 10 n 1 2 3 4 n! 1 2 6 24 120 720 5040 40 320 362 880 3628 800 Por esto. la matriz identidad se puede representar gr´ ficamente como una que tiene µ a 1 0 unos en la diagonal y ceros en todas las dem´ s entradas como se muestra en el a 0 1 recuadro a la izquierda para una matriz de dos renglones y columnas. 3. 2. estos tres sumandos se pueden representar por la dia­ ⎝ a α21 α22 α23 ⎠ gonal principal de la matriz y los dos “tri´ ngulos” con lados paralelos a α31 α32 α33 a esta diagonal como se muestra en el recuadro de la derecha. Pongamos ahora N = {1. 2) y (2. Si un rengl´ n es nulo entonces. (1. 2). 3).96 µ ¶ α11 α12 – α21 α22 + Cap´tulo 4. 2. Determinantes ı Si. 1). todos estos sumandos tienen un factor cero o o y por lo tanto la suma de todos ellos es cero. (2. −α12 α21 α33 y −α13 α22 α31 . 1). (3. 1). 2} un a determinante es la suma de los dos productos que se muestran en el recuadro a la izquierda. cuando N = {1. Gr´ ficamente. o Q Prueba. 3. denotamos INN y es la matriz cu­ 1 si i = j yas entradas son iguales al delta de Kronecker δij definido en el δij = 0 si i 6= j recuadro a la derecha. α12 α23 α31 y α13 α21 α32 . su determinante es cero. 3}. . 2. 2). 3) y (3. Cada sumando de los determinantes i∈N αiσ i contiene como factor una entrada de cada rengl´ n. (2.

para una permutaci´ n ρ ∈ SM la matriz αρ(M)N es o α41 α42 α43 α44 aquella cuyos renglones son αρ− 1 (j)N . ı ı La notaci´ n es as´ porque pensamos la transpuesta αT o ı MN como la aplicaci´ n de la operaci´ n T a la matriz αNM . el aplicar el ciclo (1. Efectivamente por la definici´ n o NN ¸ ∙ X Y cambio de variable det αT = sgn σ ασ i i = NN = ω = σ−1 σ∈ SN i∈N ¸ ∙ Y X cambio de variable = sgn ω αω − 1 (i)i = = j = ω−1 (i) ω∈ SN i∈N X Y = sgn ω αjω j = det αNN . Tenemos que demostrar que det αNN = det αT . ⎛ α11 ⎜α21 ⎜ ⎝α31 α41 ⎞ α14 α24 ⎟ ⎟ α34 ⎠ α44 α12 α22 α32 α42 α13 α23 α33 α43 T det A = det AT Prueba. Gr´ ficamente la a MN operaci´ n de transponer una matriz es hacer una reexi´ n o o con respecto a la diagonal de la matriz. As´ por ejemplo. Luego. o Gr´ ficamente esta operaci´ n resulta en cambiar el orden de las a o ⎛ ⎞ columnas. Si laQ permutaci´ n σ ∈ SN no es la identidad entonces hay un i ∈ N tal que i 6= σi o y por lo tanto i∈N δiσ i = 0. An´ logamente se define la operaci´ n de permutar los renglones. Observese que el conjunto de ´ndices de los renglones de la matriz αT ı NM es M y no N como se podr´a pensar de los sub´ndices. Prueba. 4) resulta en ı α11 α12 α13 α14 ⎜α21 α22 α23 α24 ⎟ el intercambio de columnas representado en el recuadro a la iz­ ⎜ ⎟ a o ⎝α31 α32 α33 α34 ⎠ quierda. 2. .2 o Propiedades b´ sicas de los determinantes a 97 det INN = 1 El determinante de la matriz identidad es 1. o o El determinante no se altera al transponer una matriz. ω∈ SN j∈N Permutaciones de columnas y renglones o o Dada una matriz αMN y una permutaci´ n ω ∈ SN definimos la operaci´ n de permu­ tar las columnas de αMN mediante la permutaci´ n ω como la que resulta en la matriz o αMω(N) cuyas columnas son αMω − 1 (i) (¡observese el uso de la permutaci´ n inversa ω−1 !). X Y Y det INN = sgn σ δiσ i = sgn (IdN ) δii = 1. σ∈ SN i∈N i∈N El determinante de la transpuesta Dada una matriz αMN su transpuesta se define como la matriz βNM = αT tal que βij = αji .Secci´ n 4.

Sean A = αNN y B = βNN . De aqu´ obviamente 2a = 0. Sea ω ∈ SN una permutaci´ n. El determinante del producto de dos matrices es igual al producto de los determinantes de las dos matrices. Para hacer la prueba en caracter´stica 2 es necesario usar la expansi´ n generalizada ı ı o de Laplace (por dos columnas) para as´ obtener el resultado. Solamente hemos demostrado que un elemento a del o campo cumple que a = −a. Hay que demostrar det αNω(N) = sgn ω det αNN . Para campos de caracter´stica 2 la igualdad 2a = 0 se ı cumple para ¡cualquier! elemento del campo. Por otro lado la proposici´ n o anterior nos dice que det αNω(N) = sgn ω det αNN = − det αNN de lo que se deduce la tesis. o Como ω no altera la matriz tenemos det αNN = det αNω(N) . det αNω(N) = sgn ω det αNN Prueba. ρ∈ SN i∈N ρ∈ SN i∈N El determinante del producto ´ La ultima propiedad b´ sica de los determinantes es probablemente la m´ s importante a a ´ para el algebra lineal. o La demostraci´ n de este resultado es erronea. La demostraci´ n para los renglones se obtiene transponiendo la matriz. det AB = det A det B Prueba. que utilizaremos muy frecuentemente.98 Cap´tulo 4. Claramente SN ⊂ FN . Sea ω la permutaci´ n de las columnas que intercambia las dos columnas iguales. ´ Una consecuencia de este ultimo resultado. La demostraci´ n para los renglones o o se obtiene transponiendo la matriz. Como la demostraci´ n de esta propiedad es ciertamente complicada. Si el campo es de caracter´stica diferente ı ı de 2 efectivamente esto significa que a = 0. la demostraci´ n anterior es solo v´ lida para campos de o a caracter´stica diferente de 2. Esto lo haremos en algunas p´ ginas m´ s adelante ı a a por lo que el lector puede estar seguro de que el corolario es cierto en cualquier caso. Luego. Denotemos adem´ s TN al conjunto FN \ SN que es el de todas las funciones no biyectivas de N en N. Prueba. Determinantes ı Al permutar las columnas o los renglones de una matriz con la permutaci´ n ω el determi­ o nante se altera por un factor igual a sgn ω. por la definici´ n tenemos o ∙ ¸ X Y cambio de variable det αNω(N) = sgn σ αiω − 1 (σi ) = = ρ = ω−1 ◦ σ σ∈ SN i∈N Y X Y X sgn (ω ◦ ρ) αiρi = sgn ω sgn ρ αiρi = sgn ω det αNN = Con esto demostramos la proposici´ n para las columnas. . o Efectivamente. o le recomiendo al lector omitirla en una primera lectura. Para el objeto de esta demostraci´ n denotemos por o a FN el conjunto de todas las funciones de N en N. es: Si una matriz tiene dos columnas o dos renglo­ nes iguales entonces su determinante es cero.

N Y Y αiω i βω i σi = αiω i βω i θi i∈N i∈N ω∈ TN σ∈ SN i∈N Denotando por ∇ el primer sumando nuestro determinante se convierte en ¸ ∙ X Y X cambio de variable = sgn σ αiω i βω i σ i = =∇+ σ=ρ◦ω σ∈ SN ω∈ SN i∈N ¸ ∙ X X Y Y cambio de var =∇+ = sgn (ρ ◦ ω) αiω i βω j ρ(ω j ) = k = ωj ρ∈ SN ω∈ SN i∈N j∈N !Ã ! Ã X Y Y X sgn ω αiω i sgn ρ βkρk = ∇ + det A det B =∇+ ω∈ SN i∈N ρ∈ SN k∈N Esto nos garantizar´ que cada sumando positivo se cancele con otro negativo. Sea f : AN 3 σ 7→ o N σ ◦ t ∈ A− .13. a Matrices de permutaciones Ahora queremos ver que 4. k ∈ N tales que o ω (j) = ω (k) . Si observamos detenidamente la definici´ n de ∇ o Y X X sgn σ αiω i βω i σ i ∇= vemos que para probar ∇ = 0 es suficiente construir para cada ω ∈ TN una biyecci´ n o f : AN → A− tal que si θ = f (σ) entonces. La funci´ n f es biyectiva ya que su inversa es θ 7→ θ ◦ t.6. . Lo interesante de las matrices de permutaciones es que al multiplicar por o ellas se permutan renglones o columnas. a Sea ω ∈ TN arbitraria pero fija.2 o Propiedades b´ sicas de los determinantes a 99 Q P P Q y usando la f´ rmula i∈N j∈N γij = ω∈ FN i∈N γiω i (Sec. Para esto recordemos o que AN es el subgrupo de las permutaciones pares e A− es la clase lateral de todas las N permutaciones impares. tenemos o a N Y Y Y αiω i βω i (σ◦t)i = αjω j βω j σ k αkω k βω k σ j αiω i βω i σi = αiω i βω i σi i∈N i∈N\{j. Adem´ s. Como ω no es una biyecci´ n existen j.Secci´ n 4. A INω(N) se le llama matriz de la o permutaci´ n ω.11 es un caso particular de 4. 21) obtenemos o a X X Y X X Y det AB = sgn σ αiω i βω i σ i + sgn σ αiω i βω i σ i σ∈ SN ω∈ TN i∈N σ∈ SN ω∈ SN i∈N Por la definici´ n de determinante y de producto de matrices tenemos o X YX det AB = sgn σ αij βjσ i σ∈ SN i∈N j∈N O sea. para completar la demostraci´ n tenemos que probar que ∇ = 0. Sea t ∈ A− la transposici´ n que intercambia j y k. Esta es una buena disculpa para introducir las matrices de permutaciones.k} i∈N ´ donde la ultima igualdad es v´ lida porque ωj = ωk . Sea INω(N) la matriz identidad a la que se le han permutado las columnas con la permutaci´ n ω ∈ SN . p´ g. 1.

a ı ⎛ ⎞ Haga la mutiplicaci´ n de matrices del µ o ¶ 0 0 1 11 12 13 ⎝ recuadro a la derecha. 4. ¿La matriz de que permutaci´ n es o 1 0 0 ⎠ 21 22 23 la de m´ s a la derecha? ¿Concuerdan o no sus c´ lculos a a 0 1 0 con el resultado 4. Esto significa que las matrices de permutaciones son un ¡ subgrupo de GL KN que es isomorfo a SN . Cada sumando es cero a no ser que ω−1 (j) = k. A esta operaci´ n la o o llamaremos cambio de ´ndices de las columnas de la matriz αMN mediante la biyecci´ n ı o φ.13 y 4. en o ı . Podemos construir una matriz βML = αMφ(N) por la f´ rmula βij = αiφ − 1 (j) (¡observese el uso de la inversa φ−1 !). Efectivamente. Observese que ı las permutaciones de las columnas y los renglones son un caso particular de los cambios de ´ndices ya que una permutaci´ n no es m´ s que una biyecci´ n de un conjunto en si mismo. As´. ı o a o Una matriz cuadrada es una matriz cuyas cantidades de renglones y columnas coinci­ den. o Observemos que det INω(N) = sgn ω. Para ω = σ tenemos i∈N δii = 1 que est´ multiplicado por sgn ω. A este n´ mero com´ n se le llama orden de la matriz. El unico “pero” es que. podr´amos definir det αMN = det αMφ(N) . De aqu´. No es dif´cil probar que M (σ ◦ ω) = M (σ) M (ω) y que cualquier ı ¡ ¢ matriz de permutaciones tiene inversa (igual a su transpuesta). De la misma manera se definen los cambios de ´ndices de los renglones. o o P Prueba.11. Luego M : SN → GL KN es un morfismo ¢de grupos que es inyectivo. Tenemos γij = k∈N αik δkω − 1 (j) . Cambios de ´ndices ı o Sea αMN y φ : N → L una biyecci´ n. Despu´ s veremos dos importan­ o a n e tes consecuencias de esta expansi´ n: que los determinantes son funcionales multilineales y o que una matriz tiene inversa si y solo si esta tiene determinante diferente de cero.14 dan una nueva prueba de 4. a Ejercicio 73 4. Sea γMN = αMN INω(N) . Esto es v´ lido para cualquier campo K. si φ : N → M es una ı ı ´ biyecci´ n entonces. Determinantes ı El resultado del producto αMN INω(N) (de IMω(M) αMN ) es la matriz αMN a la que se le han permutado las columnas (los renglones) usando la permutaci´ n ω (la permutaci´ n ω−1 ).14? Denotemos M (ω) = IN ω (N ) . Luego γij = αiω − 1 (j) lo que prueba la proposici´ n para las o columnas. La demostraci´ n para los renglones es igual.100 Cap´tulo 4. en la definici´ n de Q o determinante Q cada producto i∈N δiω − 1 (σ i ) es cero para cada ω 6= σ. Necesitaremos los cambios de u u ´ndices para definir los determinantes de las matrices cuadradas.3 Expansi´ n de Laplace o En esta secci´ n encontraremos una descomposici´ n de los determinantes como una com­ o o binaci´ n lineal de determinantes de matrices m´ s peque˜ as.

o ı No podemos poner la conclusi´ n de este resultado como sgn φ det αMφ(N) = o sgn ϕ det αMϕ(N) ya que como φ y ϕ son biyecciones de N en M ninguna de las dos tiene signo. que hay un elemento a ∈ K tal que el a determinante es a o es −a. a veces se necesita el valor del signo del determinante y segundo ¿que quiere decir que 0 < x ∈ Z5 ? La desigualdad 0 < x solo tiene sentido si en el campo est´ dada una relaci´ n de orden. 3. esta definici´ n no solo depende de la matriz αNM sino tambi´ n de la biyecci´ n φ. 3 → 4. ı T Por ejemplo. o o Si φ y ϕ son dos biyecciones de N¢en M enton­ ¡ ces. ı u Esta ambig¨ edad se resuelve en diferentes casos de varias maneras. En muchos casos no u nos interesa el valor concreto det αMN sino solamente saber si es cierto o no que det αMN = 0. Otro ejemplo. o e o El cuanto depende esta definici´ n de φ lo responde la siguiente proposici´ n. 7} y M = {1. Si este es el caso entonces. En un campo de caracter´stica dos esto es irrelevante ya que en ı este caso 1 = −1. Es claro. det αMφ(N) = sgn φ ◦ ϕ−1 det αMϕ(N) . Apl´quese 4. o Prueba.Secci´ n 4. Este es el caso de R pero no el de Zp ni el de C. 4. Por ejemplo. Al cambiar los ´ndices en ambos lados de la igualdad los determinantes cambian en el ı mismo signo y la igualdad es cierta independientemente de los cambios de ´ndices escogidos. las igualdades det αMN = det αMN y det (αLM βMN ) = det αLM det βMN son v´ lidas independientemente de los cambios de ´ndices usados para definir los determinantes. que el ser singular o no singular NO depende de la biyecci´ n escogida para definir det αMN . [131] En otros casos hay una biyecci´ n natural que nos dice cual debe ser el valor de det αMN . Sin embargo en los casos m´ s importantes (R y C) de que el campo sea de a caracter´stica diferente de dos tenemos una ambig¨ edad al definir el determinante det αNM . una matriz cuadrada αMN se le llama singular si det αMN = 0. en el caso contrario se le llama no singular. θ. a o . 5} entonces la biyecci´ n adecuada es 2 → 1. o En otros casos lo importante no es el valor de alg´ n determinante sino una igualdad entre u estos.3 o Expansi´ n de Laplace o 101 principio. Por ejemplo si N = o {2. Observese que θ = φ ◦ ϕ−1 es una permutaci´ n de M y que las matrices αMφ(N) y αMϕ(N) solo se diferencian en la permutaci´ n de las columnas θ. en realidad no nos importa que biyecci´ n se escogi´ para o o calcular el determinante.11. Como el signo de cualquier permutaci´ n es o 1 o −1 esto quiere decir que el determi­ o nante det αNM est´ definido “salvo signo” o sea. a ı Ejercicio 74 Pruebe que det αω(L)M βMθ(N) = det αω(L)M det βMθ(N) ∀ω. En este caso ´ podemos siempre escoger la unica biyecci´ n que conserva el orden. es que si o una matriz tiene una columna o rengl´ n nulo entonces su determinante es cero. o Esto sucede por ejemplo si los conjuntos N y M son conjuntos de naturales. 7 → 5. o ¡ ¢ ¿Y por que no escoger de los dos posibles valores aquel que sea mayor que cero? Primero.

ı o La expresi´ n sgn ϕ det αN\i ϕ(N\j) no depende de ϕ. Observese que ω◦ϕ−1 es una permutaci´ n de N\i. o Prueba. o Complementos algebraicos Estos razonamientos nos interesan ahora por el siguiente caso particular en el cual todo es m´ s f´ cil. Veremos que si. Aqu´ hay que tener cuida­ o ı do. o o Otro tanto ocurre con ϕ. Para evitar confuciones. una biyecci´ n cualquiera. ¿Que pasa −1 −1 con ω◦ ϕ ¡? Pues. sino ı que tambi´ n hace la exposici´ n m´ s compleja y conceptualmente menos clara. Luego det αN\i ω(N\j) = sgn ω sgn ϕ det αN\i ϕ(N\j) y ^ ^ pasando sgn ω al otro lado de la igualdad terminamos la prueba. a las permutaciones de N las denotaremos en esta demostraci´ n por ω y ϕ respectivamente. podemos dar la siguiente definici´ n. Por ejemplo. j ∈ N. Por un lado ω es una biyecci´ n de N\j en N\i y por otro es una permutaci´ n de N. ¿Habr´ una manera natural de definir el o a determinante de αN\i N\j ?. Determinantes ı ´ En muchos de los textos de algebra lineal esta ambig¨ edad se resuelve postulando que los conjuntos u de ´ndices siempre tienen que ser conjuntos de naturales. Sea ω otra permutaci´ n de N tal que ω (j) = i. o det αNN = αiN α∗ = iN X j∈N αij α∗ ij .102 Cap´tulo 4. A los complementos algebraicos tambi´ n se o e les llama cofactores. en algunos textos. o El determinante de αNN es igual a la suma de las entradas del rengl´ n por sus cofactores. Sea ϕ : N\j → N\i. Definamos el de­ o sgn ϕ det αN\i ϕ(N\j) terminante det αN\i N\j con la expresi´ n del recuadro a la derecha. La matriz α∗ cuyas entradas son los complemento algebraicos α∗ es NN ij la matriz de los complementos algebraicos de αNN o matriz de cofactores de αNN . en todo elemento de ¢ ^ ^ N\i coincide con ω◦ϕ y adem´ s ω◦ ϕ−1 (i) = i. a ^ ^ ¢ ¡ −1 −1 Luego sgn ω ◦ ϕ = sgn ω ◦ ϕ ^ ^ y por las propiedades de la funci´ n signo se tiene o ¡ ¢ −1 ^ ^ que sgn ω ◦ ϕ ^ ^ = sgn ω sgn ϕ. las e o a matrices de cambio de bases est´ n naturalmente indexadas por conjuntos de vectores que no poseen un orden a natural. Por 4. Si αij es una entrada de la matriz A = αNN o entonces el complemento algebraico de αij es α∗ = sgn ω det αN\i ω(N\j) donde ω es ij cualquier permutaci´ n de N tal que ω (j) = i. Podemos definir ϕ (j) = i y de esta o manera ϕ se convierte en una permutaci´ n de N. La matriz αN\i N\j se obtiene de la a a matriz αNN eliminando el rengl´ n i y la columna j. M´ s a´ n. La expansi´ n de un determinante por sus renglones o Teorema de Expansi´ n de Laplace o Sea αiN un rengl´ n arbitrario de la matriz αNN . ^ Ahora. las pruebas son incompletas ya que inevitablemente hay que renumerar los a u renglones y/o columnas y no se demuestra que los resultados son independientes de la renumeraci´ n. Esto no solamente es innecesario. Sea αNN una matriz y sean i. o Parecer´a que no hemos hecho nada ya que en principio esta definici´ n depende de ϕ.15 tenemos que det αN\i ω(N\j) = o ^ ^ ¡ ¢ −1 sgn ω ◦ ϕ o det αN\i ϕ(N\j) .

3 o Expansi´ n de Laplace o [ 103 Si→j N Prueba.Secci´ n 4. n}. a a Sea por ejemplo i = 2 y j = 7. ϕ es un ciclo de longitud j − i + 1 (si i > j entonces es un a ciclo de longitud i − j + 1). . Luego. todav´a debemos precisar el como calcular los cofactores en forma gr´ fica.. aplicando la N definici´ n de determinante y sacando factor com´ n obtenemos o X Y Xu αij sgn σ αnσ n det αNN = j∈N i→ σ∈ SN j j∈N n∈N\i Sea ω una permutaci´ n de N tal que ω (j) = i. Hagamos el cambio de variable ρ = ω◦σ o en la sumatoria interior. Sin embargo. o ij Como es natural hay un teorema exactamente igual a este correspondiente a las columnas. Este reduce el problema a calcular varios ´ determinantes de matrices m´ s peque˜ as. A ⎜ ⎝ + − + − ⎠ la derecha se muestra el sgn ϕ para una matriz con 4 renglones y − + − + columnas. s´ quese el determinan­ o a a ⎛ ⎞ te de la matriz que queda y finalmente multipl´quese ı α11 α12 α13 α14 ⎜ α21 α22 α23 α24 ⎟ por el signo de la regla del tablero de ajedrez. Si i ∈ N entonces tenemos la partici´ n del grupo sim´ trico en el o e recuadro a la derecha donde Si→j = {σ ∈ SN | σ (i) = j} . la definici´ n de estos es sencilla necesitamos encontrar una biyecci´ n simple de N\i o o en N\j que facilite los c´ lculos cuando N est´ ordenado o sea N = {1. t´ chese la columna j. los complementos algebraicos tienen una interpretaci´ n gr´ fi­ o a a ca muy sencilla. ı a Si bien. Luego. . La expansi´ n de Laplace en forma gr´ fica o a El Teorema de expansi´ n de Laplace es la primera herramienta (aparte de la definici´ n) o o de que disponemos para calcular determinantes.. ρ ∈ Si→i = SN\i ... en el recuadro a la izquierda se muestra una matriz de orden cuatro en la cual estamos calculando el α41 α42 α43 α44 complemento algebraico de α23 . X X Y N X αij sgn ω sgn ρ αnω − 1 (ρn ) = αij α∗ det αNN = ij j∈N ρ∈ SN \ i n∈N\i j∈N ´ donde la ultima igualdad se obtiene por la definici´ n de α∗ . En este caso la biyec­ 1 3 4 5 6 7 8 . Observese el parecido con el tablero. Luego.. Con estas permutaciones. n ci´ n natural de N\2 en N\7 es la que se muestra en el o ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ recuadro a la izquierda y la llamaremos ϕ.. n definir ϕ (2) = 7 para completar una permutaci´ n de N. Tenemos ρ (i) = i o sea. ⎞ Como todo ciclo de longitud par tiene signo negativo y todo de ⎛ + − + − i+j longitud impar tiene signo positivo obtenemos sgn ϕ = (−1) lo ⎜ − + − + ⎟ ⎟ que es muy sencillo ya que es la “regla del tablero de ajedrez”.. Si se quiere sacar el complemento algebraico de αij entonces t´ chese el rengl´ n i. Tenemos que 1 2 3 4 5 6 8 . Es especialmente util cuando hay renglones (o a n columnas) con muchos ceros. As´ por ı ⎟ − det ⎜ ⎝ α31 α32 α33 α34 ⎠ ejemplo. o Sabemos que ϕ transforma 7 7→ 6 7→ 5 7→ 4 7→ 3 7→ 2 7→ 7 y que deja fijos a todos los dem´ s elementos de N.

Sea E un espacio vectorial sobre el campo K. El public´ la demostraci´ n ı o o del Teorema de Expansi´ n de Laplace (4. Ejercicio 75 T´ mese una matriz de orden cuatro y calcule su determinante usando el teo­ o rema de descomposici´ n de Laplace por alg´ n rengl´ n. Sin embargo. Ejercicio 76 Demuestre que el determinante de la ma­ triz en el recuadro a la derecha es igual a Y f (x1 . y) 7→ f (x. . y) y f (λa. basta ver un ejem­ µ 0 0 ¶ plo. que ∀y ∈ E se cumple que f (a + b. ecuacio­ a nes diferenciales y teor´a de las probabilidades. Pasemos a considerar una funci´ n f con valor en K de dos o 2 variables x. Considerar el determinante de Vandermonde y la funci´ n o o f como polinomios en la variable xn . 1 1 x1 x2 x2 x2 1 2 ··· ··· xn−1 xn−1 1 2 ··· 1 · · · xn · · · x2 n ··· ··· · · · xn−1 n . An´ logamente.5. y) = λf (a.104 Cap´tulo 4. En este art´culo. A las TL de E en K se le llama funcio­ nales lineales del espacio E. ¿Ser´ el determinante una TL? ¿Se cumplir´ que det (A + B) = a a 1 0 A= det A+det B? La respuesta es NO. o u o columna. y que toman sus valores en E o sea. y) ∈ K.17) en 1772 en un art´culo donde o ı ´ estudiaba las orbitas de los planetas interiores del sistema solar. y) + f (b. Tenemos 0 0 det A + det B = 0 6= 1 = det (A + B). En esta terminolog´a vemos que la propiedad det (A + B) 6= ı det A + det B lo que quiere decir es que el determinante NO es un funcional lineal del es­ pacio vectorial de las matrices. Como ı E2 es un espacio vectorial sobre K entonces podr´a suceder que f sea un funcional lineal. f : E 3 (x. o o Sugerencia: Usar inducci´ n en n. Sin embargo. . En otras palabras. . Si f es lineal en las dos variables entonces. Determinantes ı Al matem´ tico y f´sico Pierre­Simon Laplace (Francia 1749­1827) se le a ı conoce fundamentalmente por sus trabajos en mec´ nica celeste. x2 . Para probar que no. se define la a propiedad de que f sea lineal en la segunda variable. hay una propiedad un poco m´ s sutil que podr´a cumplir la funci´ n f y es a ı o que sea lineal en la primera variable. . y). Consideremos las matrices A y B definidas a la izquierda. se dice que f es un funcional bilineal (el “bi” es porque son dos variables). xn ) = (xj − xi ) Repita este ejercicio por alguna ⎛ ⎞ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ 1≤i<j≤n ⎜ ⎟ ⎠ A este determinante se le conoce como determinante de ⎝ Vandermonde. Laplace analiz´ el problema de soluci´ n de sistemas de ecuacio­ ı o o nes lineales mediante el uso de determinantes. Probar que ambos polinomios tienen las mismas raices y el mismo coeficiente principal. y) = f (a. los determinantes B= 0 1 cumplen una propiedad bastante parecida. El lector debe notar que ya nos encontra­ mos con la funci´ n f en la prueba de la proposici´ n 4. Multinearidad de los determinantes El determinante se puede ver como una funci´ n del espacio de matrices en el cam­ o µ ¶ po.

(Si el lector no entiende o porqu´ entonces. Un isomorfismo de estos es el que a cada matriz le hace corresponder la N­ada de sus renglones. o a . podemos pensar el determinante como un funcional cuyas variables son los renglones y que toma valores en el campo. Sea i ∈ N una variable.3 o Expansi´ n de Laplace o 105 Evidentemente todo esto se puede hacer cuando tenemos muchas variables en cuyo caso nos referiremos a los funcionales multilineales. o e Ejercicio 77 Sean A y B dos matrices con dos renglones y columnas. e Ahora queremos ver que los determinantes son funcionales multilineales. Diremos que f es un funcional multilineal si f es lineal en todas sus variables. Observese que f no es multilineal y que g no es lineal. Podemos pensar o a f como una funci´ n de dos variables f : EN\i ⊕ E → K. z) 7→ xyz ∈ R es un funcional multilineal porque (x + x ) yz = xyz + x yz y tambi´ n para las otras variables. Usando la descomposici´ n de Laplace por el e o o ∗ ∗ rengl´ n i obtenemos det αNN = αiN αiN = λxN αiN = λ det B. Tenemos que probar que det A = det B + det C. Sea A = αNN una matriz tal que su i­´ simo rengl´ n es la suma de dos N­adas xN y yN . x) ∈ K es un funcional lineal entonces. La funci´ n o o 3 0 0 g : R 3 (x. y. debe regresar al principio de esta secci´ n y volver a pensar la definici´ n de e o o funcional multilineal y el porqu´ el determinante es un funcional de los renglones. Luego. Sea B la misma matriz que A e o excepto que su i­´ simo rengl´ n es xN .Secci´ n 4. Demuestre que det (A + B) = det A + det B + det C + det D. la funci´ n f : R3 3 (x. z) 7→ x+y+z ∈ R es un funcional lineal. o Por transposici´ n el determinante es tambi´ n un funcional multilineal de las columnas. Por ejemplo.) Usando e la descomposici´ n de Laplace por el rengl´ n i obtenemos o o ∗ det αNN = αiN αiN = (xN + yN ) α∗ = xN α∗ + yN α∗ = det B + det C iN iN iN ´ donde la ultima igualdad se cumple porque los cofactores de las matrices B y C de las entradas del rengl´ n i son los mismos que los de la matriz αNN . Sea D la matriz cuya primera columna es la primera de B y su segunda columna es la segunda de A. Sea B la misma matriz e o que A excepto que su i­´ simo rengl´ n es xN . M´ s rigurosamente. diremos que f es lineal en la variable i. El determinante es un funcional multilineal de los renglones. Para probar que un funcional es multilineal hay que probar que es lineal en cada variable. Sea i ∈ N arbitrario pero fijo en toda esta prueba. o Sea ahora A = αNN una matriz tal que su i­´ simo rengl´ n es λxN . Si ∀y ∈ EN\i la funci´ n o o E 3 x 7→ f (y. y. El espacio de ¡ ¢N matrices KNN es isomorfo a KN . Prueba. Sea C la matriz cuya primera columna es la primera de A y su segunda columna es la segunda de B. Sea C la misma matriz que A excepto que su i­´ simo e o e rengl´ n es yN . Los determinantes son los unicos funcionales multilineales de los renglones que son iguales a 1 en ´ la matriz identidad y que cambian por un factor de sgn θ cuando se permutan los renglones con la permutaci´ n θ. Dejaremos la prueba de este hecho para mucho m´ s adelante. sea f : EN → K una a funci´ n donde N es un conjunto de variables.

dada una matriz αMN decimos que βNM = α−1 es la matriz inversa MN de αMN si se cumple que αMN α−1 = IMM y α−1 αMN = INN . Aqu´. Por definici´ n de matriz inversa tenemos 1 = det I = det AA−1 = det A det A−1 o y por lo tanto det A 6= 0 y det A−1 = (det A)−1 . A−1 = A∗T det A Prueba. Si una matriz tiene inversa entonces ella es no singular. a a La siguiente proposici´ n nos dice que para probar que una matriz es inversa de otra es o suficiente comprobar una de las dos igualdades involucradas en la definici´ n. cualquier cambio de ´ndices ı ı apropiado reduce el c´ lculo de matrices inversas al caso en que el conjunto de columnas a coincide con el conjunto de renglones. lo que haremos es ı o e construir la matriz inversa en el caso de que el determinante sea diferente de cero. De 3. a ¡ ¢ Prueba. Mediante el isomorfismo de las matrices con las TLs concluimos que f ◦ g = Id. Determinantes ı Recordemos que. Tenemos βMj = (det A)−1 α∗ y de la definici´ n de pro­ o jM ducto de matrices obtenemos que la entrada ij de la matriz AB es igual a αiM βMj = (det A)−1 αiM α∗ . o . O sea. o Si AB = I entonces. nos olvidaremos un poco de los ´ndices para ı poder enunciar m´ s f´ cilmente nuestros resultados. Mediante el isomorfismo MN MN de las matrices con las TLs concluimos que αMN y α−1 son la matrices de dos TLs una MN la inversa de otra y por lo tanto estas TLs son isomorfismos. si αMN tiene inversa entonces. Por esto. Sea f. Luego. BA = I. g : KM → KM las TLs de las matrices A y B respectivamente. la clave o ı es que las matrices son finitas y cuadradas lo que significa que sus TLs son entre espacios de la misma dimensi´ n finita. Sea αMM = A o y B = βMM = (det A)−1 A∗T . Sea ϕ : N → M cualquier biyecci´ n. su inversa es la transpuesta de la matriz de sus cofactores dividida por el determinante de A. Para probar que el rec´proco de esta afirmaci´ n tambi´ n es cierto. Es f´ cil ver usando la definici´ n de cambio de o a o −1 −1 ´ndices que βNM = αMN si y solo si βϕ(N)M = αMϕ(N) .28 (p´ gina 88) a obtenemos que g ◦ f = Id y por lo tanto BA = I.106 La inversa de una matriz Cap´tulo 4. Si A es una matriz no singular entonces. ella es cuadrada. Para hacer la demostraci´ n lo que hay que hacer es multiplicar. Si i = j entonces αiM α∗ es la expansi´ n de Laplace del det A por o jM jM el rengl´ n i de lo que obtenemos que αiM βMj = 1. Adem´ s. Prueba. det A−1 = (det A)−1 .

Por la f´ rmula del cambio de bases para matrices (3. este de­ terminante est´ definido solo salvo signo. Podr´amos definir det f = det A. Prueba. Si escogemos una base de E entonces en esta base el OL f tiene por coordenadas una matriz A. Claro. Tenemos ¡ ¢ det βNN = det γNM αMM γ−1 = det γNM det αMM det γ−1 = det αMM NM NM −1 ya que por 4. De los signos no nos preocuparemos ahora sino a solo m´ s adelante. ı Luego. En estas notaciones. 4. o Si A y B son las matrices de f ∈ End E en dos bases entonces. ahora si nos tenemos que preocupar por los signos. denotemos por ∆IJ = det αI0 J0 el determinante de la matriz a cuyas columnas son las que no est´ n en J y cuyos renglones son los que no est´ n en I (no nos a a preocupemos por los signos). Por otro lado. su determinante es cero y necesariamente αiM α∗ = 0. Sean φ1 : J → I y φ2 : J → I dos biyecciones. denotemos I0 = N\I y J0 = N\J. Nos gustar´a tener ı un teorema de expansi´ n donde los subconjuntos sean de un cardinal fijo pero arbitrario. Para ahorrarnos mucha escritu­ ra. Sea αNN a o una matriz y I. φ (x) = φ2 (x) si x ∈ L o Denotemos φ = φ1 ∪ φ2 la permutaci´ n de N definida en el recuadro a la derecha. Sin embargo. vemos que esta jM es la expansi´ n de Laplace por el rengl´ n j del determinante de la matriz C obtenida de la o o matriz A substituyendo el rengl´ n j por el rengl´ n i.20 la igualdad det γNM (det γNM ) = 1 es cierta e independiente del cambio de ´ndices que se utilize para definir el determinante de γNM .Secci´ n 4. no nos queda ı claro si esta definici´ n depende o no de como hallamos escogido la base. denotemos por ∇IJ = det αIJ el determinante a de la matriz cuyas columnas son las de J y cuyos renglones son los de I. jM El determinante de un operador lineal Sea f ∈ End E un OL. Sean A = αMM y B = βNN las matrices de f en las bases M y N respectivamente. el determinante del OL f es por definici´ n del determinante de su matriz en o alguna base y esto no depende de la base escogida. o Para esto. Si nos fijamos atentamente.4 La expansi´ n generalizada de Laplace o Ahora generalizaremos dram´ ticamente el teorema de expansi´ n de Laplace. Adem´ s. Como la matriz C tiene dos renglones o o iguales entonces. un sumando del Teorema de expansi´ n de o Laplace es de la forma ∇IJ ∆IJ donde I y J son subconjuntos de cardinal 1.4 o La expansi´ n generalizada de Laplace o 107 Solo queda probar que αiM α∗ = 0 si i 6= j. .22) tenemos B = γNM Aγ−1 donde o NM γNM es la matriz de cambio de la base M a la base N. det A = det B. J subconjuntos de N de la misma cardinalidad. la siguiente ¯ proposici´ n nos dice que esto realmente no es un proble­ o φ1 (x) si x ∈ J 0 0 ma. Sin embargo.

Sean ¢ 1 y ϕ2 otras dos biyecciones y ϕ = ϕ1 ∪ϕ2 . Luego ρ se puede descomponer en la composici´ n de o dos permutaciones θ ◦ ω donde θ ∈ SI y ω ∈ SI0 . o . tenemos la partici´ n del grupo sim´ trico o e I→J a la derecha donde SN = {σ ∈ SN | σ (I) = J}. Determinantes ı La expresi´ n sgn φ det αIφ 1 (J) det αI0 φ 2 (J0 ) o no depende de las biyecciones φ1 y φ2 . θ2 = φ2 ◦ ϕ−1 y θ = φ ◦ ϕ−1 . e Como ya es costumbre tediosa.15 tenemos det αIφ 1 (J) = ϕ ¡ ¡ ¢ sgn φ1 ◦ ϕ−1 det αIϕ 1 (J) y det αI0 φ 2 (J0 ) = sgn φ2 ◦ ϕ−1 det αI0 ϕ 2 (J0 ) . J subconjuntos de N definamos ∇IJ y ∆IJ con ∇ = det α IJ Iφ(J) las f´ rmulas de la derecha donde φ denota una permutaci´ n (ar­ ∆ = sgn φ det α 0 0 o o IJ I φ(J ) bitraria pero la misma para las dos definiciones) tal que φ (J) = I (y en consecuencia φ (J0 ) = I0 ). Prueba. Hagamos el cambio de variable ρ = φ ◦ σ. Ahora. hagamos la observaci´ n de que tambi´ n es v´ lida la o e a Expansi´ n Generalizada de Laplace cuando la hacemos por un conjunto de columnas. Por 4. θ ∈ SN y los conjuntos I. θ = θ1 ◦ θ2 = θ2 ◦ θ1 y esto implica la igualdad de los signos que necesitabamos. Esta definici´ n no es correcta en el sentido de que ambos o ∇IJ y ∆IJ dependen de φ. Lo contenido en el segundo e par´ ntesis es det αI0 φ(J0 ) y este determinante multiplicado por sgn φ es ∆IJ .108 Cap´tulo 4. denotemos θ1 = φ1 ◦ ϕ−1 . De las definiciones es 1 2 inmediato que θ (y) = θ1 (y) si y ∈ I y θ (y) = θ2 (y) si y ∈ I0 . det αNN = sgn φ sgn ρ αiφ − 1 (ρn ) 0 |J|=p 0 I→ ρ∈ SN I Prueba. Sin embargo ∇IJ ∆IJ no depende de φ y esto es lo importante. Como θ1 ∈ SI . Expansi´ n Generalizada de Laplace o Si I un conjunto de p renglones de la matriz αNN en­ P tonces. Si I ⊆ N y |I| = p entonces. θ2 ∈ SI0 . para I. ρ (I ) = I . I0 son complementarios en N entonces. 2 Para esto. Aplicando la definici´ n de o X X Y determinante obtenemos det αNN = sgn σ αnσ n |J|=p σ∈ SI → J N |J|=p [ SI→J N n∈N n∈N Como ρ (I) = I entonces. Substituyendo ρ por θ ◦ ω la suma se convierte en suma doble y si sacamos factores comunes⎛ obtendremos: ⎞ ! Ã X X Y Y X det αNN = sgn φ sgn θ αiφ − 1 (θn ) ⎝ sgn ω αiφ − 1 (ω n ) ⎠ |J|=p θ∈ SI n∈I ω∈ SI 0 n∈I0 Lo contenido en el primer par´ ntesis es det αIφ(J) = ∇IJ . Multiplicando estas 1 2 dos igualdades vemos que solo nos¢ queda probar que ¡ ¡ ¢ ¡ ¢ −1 sgn φ1 ◦ ϕ1 sgn φ2 ◦ ϕ−1 = sgn φ ◦ ϕ−1 . det αNN = ∇IJ ∆IJ donde la suma recorre to­ dos los subconjuntos de columnas J de cardinalidad p. det αNN = X ∇IJ ∆IJ |J|=p Sea φ una permutaci´ n de N tal que φ (J) = I. o X X Y Entonces.

Denotemos I = {a. Entonces decimos que αMM es diagonal por bloques. ¿Cual es el aspecto de αMM en forma gr´ fica? [131] a La expansi´ n generalizada de Laplace en forma gr´ fica o a Ahora. 2}. ∀i ∈ I = M1 se tiene que αij = 0. en αIJ hay una columna j ∈ M1 y por lo tanto j ∈ Mq con 1 < q.4 o La expansi´ n generalizada de Laplace o 109 El la p´ gina 98 vimos que nuestra demostraci´ n de 4. En este caso. por definici´ n de matriz triangular. toda matriz diagonal es triangular. . decimos que αMM es triangular por bloques. Ahora ya podemos dar una demostraci´ n general. Si cada Mi tiene un solo ´ndice entonces decimos que αMM es triangular. . En particular. Supongamos que la matriz αN N tiene los o renglones a y b iguales. M2 = {3} y M3 = {4. det αMM = ∇II ∆II = det αM 1 M 1 det αM 0 M 0 . Si cada Mi contiene un solo ´ndice entonces decimos que αMM es diagonal. Si J 6= I entonces. . . i=1 Prueba. Aplicando la expansi´ n generalizada de Laplace o o P al conjunto de renglones I = M1 obtenemos det αMM = |J|=|I| ∇IJ ∆IJ . / Luego. ı Supongamos ahora que. Es ı claro de las definiciones que toda matriz diagonal por bloques es triangular por bloques. 5}.Secci´ n 4. Los ∇IJ son determinantes de dos renglones y columnas y en cada caso sus dos renglones son iguales. Matrices diagonales y triangulares por bloques o Sea αMM una matriz. Denotemos M = M\M1 . O sea.12 no es v´ lida para campos de caracter´stica a o a ı 2. Por la f´ rmula para calcular los determinantes de o matrices orden dos. Hagamos la expansi´ n generalizada de Laplace o P por estos dos renglones obteniendo det αN N = ∇IJ ∆IJ . Si αMM es una matriz triangular por bloques entonces. Como esto es u a a ⎞ a 0 0 a 1 1 a 1 1 A =⎝ 1 b 0 ⎠B =⎝ 0 b 1 ⎠C =⎝ 0 b 0 ⎠ 1 1 c 0 0 c 0 1 c [131] . para la partici´ n M1 ∪ · · · ∪ Mt = M se cumple que si i ∈ Mp . Para t = 1 la propo­ o u 0 sici´ n es trivial. 5} y αMM una matriz triangular por los bloques M1 = {1. obtenemos ∇IJ = 0 y por lo tanto det αN N = 0. Q det αMM = t det αM i M i . o j ∈ Mq y p < q entonces αij = 0. Haremos la prueba por inducci´ n en el n´ mero de bloques t. precisaremos los signos de las biyecciones en la expansi´ n generalizada de La­ o ´ til solo para calcular el place cuando la matriz est´ dada en forma gr´ fica. Luego. i=2 Ejercicio 78 ¿Cuales de las siguentes matrices son triangulares? ⎛ ⎞ ⎛ ⎞ ⎛ Ejercicio 79 Sean M = {1. b}. Supongamos que existe una partici´ n M1 ∪ · · · ∪ Mt = M y que αij = 0 si i y j pertenecen a bloques diferentes. la o columna j es cero en αIJ e independientemente de la biyecci´ n que se escoja para calcu­ o lar el deteminante tenemos ∇IJ = 0. La matriz M0Q triangular por bloques con un bloque menos y por hip´ tesis de inducci´ n es o o det αM 0 M 0 = t det αM i M i .

. n} entonces. i + 1. Tambi´ n se puede hacer. `s }< y definamos φ2 : K 3 kp 7→ `p ∈ L. Tam­ o bi´ n. . que la biyecci´ n φ1 es la natural de renglones a columnas que se obtiene si o en una matriz αNN tachamos todos los renglones con ´ndices en K y todas las columnas con ı ´ndices en L. . o sea φJ (I) = J y φJ (N\I) = N\J. . . Ahora. . . . o Si N = {1. t} se tiene que ip−1 < ip . · · · . Luego. . jt }< entonces. . . Para esto sean K = e o N\I = {k1 . . Para esto. I i1 1 ¡ ¢−1 J\j Prueba. ı Iterando este resultado obtenemos sgn φJ = sgn φj1 sgn φj2 · · · sgn φjt . entre dos cualesquiera subconjuntos I. . Sea θ = φJ ◦ φI\i1 . Calculemos el determinante de una matriz αNN del recuadro 4 5 1 1 ⎜ 1 2 3 2 ⎟ a la izquierda haciendo la expansi´ n generalizada de Laplace por el con­ o ⎜ ⎟ ⎝ 4 5 2 3 ⎠ junto I del segundo y cuarto renglones. I I Observese. . . tenemos a n que {k1 . . q − 1. . Para I 1 esto. . ı ı Calculemos el signo de φJ . . i − 1. . . . e ⎛ ⎞ Ejemplo. j + 1. J ⊆ N del mismo cardinal la permutaci´ n φJ = φ1 ∪ φ2 o I cumple lo necesario para calcular el signo de un sumando de la expansi´ n generalizada de o Laplace. ks }< y L = N\J = {`1 . Luego. . i) si j < i sgn φj = (−1)i+j (la regla del “tablero de ajedrez”). i) si j > i el ciclo que se muestra a la derecha y por lo tanto (j. . J ⊆ N del mismo cardinal hay una biyecci´ n natural que conserva el orden. . . tenemos una biyecci´ n natural entre los complementos de I y J. θ es siempre un ciclo de longitud Id si p = q |p − q| + 1 y por lo tanto sgn θ = (−1)p+q . ks }< y L = N\J = {`1 . . . J\j . . recomiendo omitir en una primera lectura lo que resta de esta secci´ n. . Determinantes ı determinante de matrices concretas y hacerlo as´ es por lo general extremadamente inefi­ ı ciente y complicado. j − 1. Al estudiar la expansi´ n (normal) de Laplace en forma gr´ fica o a I j J vimos que si I = {i} y J = {j} entonces. . . recordemos que K = N\I = {k1 . kp+1 . De la misma manera φ2 es la biyecci´ n de renglones a columnas si tachamos ı o todos los renglones con ´ndices en I y todas las columnas con ´ndices en J. Usando la definici´ n de θ calculamos o (kp . . i1 ) si p > q izquierda. `q−1 . i1 ) si p < q que esta permutaci´ n es igual a la del recuadro a la o (kp−1 . φI = φi es (j. `s }< . para hallar sgn φJ lo I que hay que hacer es multiplicar los signos de la regla del tablero de ajedrez de los elementos P P en la diagonal de αIJ . . kq−1 . kq .110 Cap´tulo 4. . la biyecci´ n es φ1 : I 3 ip 7→ jp ∈ J. Observese que I i1 i2 it αir jr son las entradas en la diagonal de la submatriz αIJ de αNM . Sea p el menor ´ndice tal que i1 < kp y sea q el menor ´ndice tal que j1 < `q (es admisible que p = s+1 y/o ı ı q = s + 1). introduscamos la nota­ o ci´ n {m1 . . calculando la paridad de i∈I i + j∈J j. kp−2 . . . . · · · . p = i1 y q = j1 . . para cualesquiera subconjuntos I. . Tenemos que demostrar que sgn θ = (−1)i1 +j1 . . mt }< para se˜ alar que ∀p ∈ {2. m2 . Tenemos que recorrer todos los 1 2 3 4 subconjuntos J de dos columnas. Luego. . . Como i1 y j1 son los elementos m´ s peque˜ os de I y J respectivamente entonces. · · · . i1 }< = {1. . . q} y de aqu´ finalmente. . . . p} y {`1 . . kp−1 . . . · · · . it }< y J = {j1 . j1 }< = {1. i sgn φJ = sgn φj1 sgn φI\i1 . p − 1. si o n I = {i1 .

A tiene inversa. 4. An´ logamente se define el espacio a de columnas de una matriz.Secci´ n 4. 3. diremos que un conjunto de renglones es LI si ellos son distintos dos a dos y es LI en el espacio de renglones de la matriz. A es no singular. por la expansi´ n generalizada de Laplace el o determinante de nuestra matriz es igual a ¯ ¯¯ ¯ ¯ ¯¯ ¯ ¯ 2 2 ¯¯ 4 1 ¯ ¯ 1 2 ¯¯ 5 1 ¯ ¯ ¯¯ ¯ ¯ ¯¯ ¯ ¯ 2 4 ¯¯ 4 2 ¯ − ¯ 1 4 ¯¯ 5 2 ¯ = 4 × 4 − 2 × 5 = 6 donde usamos las barras verticales para ahorrar espacio al denotar los determinantes. . los conjuntos de columnas LI y las bases de las columnas. 4} J = {2. 2. el fundamento de los diversos ı m´ todos de c´ lculo del conjunto de soluciones de un sistema de ecuaciones lineales. 4} cuando J = {1. Para ellos podemos µ − + ¶ µ + + ¶ extraer del tablero de ajedrez las submatrices del recuadro a − + + + la derecha y multiplicando los signos en las diagonales obte­ {1. Por esto. Este a resultado es central en la teor´a de matrices y es por ejemplo.5 o El rango de una matriz 111 Observese.4} {2. Matrices no singulares Antes que nada recoleccionaremos en un solo resultado todo lo que hemos probado para las matrices no singulares.4} nemos sgn φI = −1 y sgn φI = 1. que si la columna 4 no est´ en J entonces la matriz αIJ tiene dos renglones a iguales por lo que todos los sumandos correspondientes en la expansi´ n ser´ n cero. o a a para J = {3. 4} la matriz αN\I N\J tiene dos renglones iguales por lo que tambi´ n el corres­ e pondiente sumando es cero. Aqu´ tenemos un peque˜ o problema: es posible que halla renglones ı n iguales y los conjuntos no distinguen elementos iguales.5 El rango de una matriz En esta secci´ n introduciremos las bases de una matriz como las submatrices m´ s grandes o a con determinante diferente de cero. Adem´ s. las columnas de A son LI. 4} y cuando J = {2. 4. e a Espacios de columnas y renglones Al subespacio de KN generado por los renglones de la matriz αMN se le llama espacio de renglones de la matriz. Un conjunto de renglones distintos dos a dos que es una base del espacio de renglones lo llamaremos base de los renglones de αMN . Demostraremos que las bases de una matriz definen y est´ n definidas por las bases de los espacios de columnas y renglones de la matriz. Solo nos quedan dos sumandos J = {1. Caracterizaci´ n de Matrices No Singulares o Para cualquier matriz cuadrada A las siguientes afirmaciones son equivalentes: 1. 4}. los renglones de A son LI. Luego.

a Dos bases cualesquiera de una matriz tienen el mismo orden. 2⇔4 y como los determinantes no ı cambian por transposici´ n obtenemos 2⇔3. Determinantes ı Prueba. Sean Bin los cofactores de las αIJ αIn ´ entradas de la ultima columna en la matriz Bn . Sea r el orden m´ s grande de sus bases. Al absurdo. Luego. o Lema de aumento de matrices no singulares El siguiente resultado es la parte m´ s importante de las demostraciones de los que le a siguen. Si n ∈ J entonces. Entonces.. Este resultado es en cierta manera an´ logo o a a al lema de aumento de conjuntos LI que vimos en el Cap´tulo 2. La implicaci´ n 1⇒2 es el resultado 4.20. Denotemos Bn = αI∪m J∪n . La implicaci´ n 2⇒1 es el resultado o o 4. Como βm = det αIJ 6= 0 esto a significa que los renglones de αMN est´ n en una combinaci´ n lineal nula con coeficientes no a o todos nulos. supongamos que ∀n ∈ N\J se cumple que det Bn = 0. Esto contradice la hip´ tesis de que los renglones son LI. existe n ∈ N tal que la matriz αI∪m J∪n es no singular. Sea αMN una matriz. a Prueba.21. denotemos por Bn la matriz αI∪m J a la que artifi­ cialmente le agregamos otra columna n. Prueba. De la ´ expansi´ n de Laplace por la ultima columna en la matriz Bn obtenemos: o X X 0 = det Bn = αin Bin = αin βi . De aqu´. Entre las submatrices no singulares de αMN tenemos la relaci´ n de contenci´ n o o (αI0 J0 ⊆ αIJ ) ⇔ (I0 ⊆ I y J0 ⊆ J) Una base de αMN es una submatriz no singular maximal por contenci´ n. Observemos que Bn = αmJ αmn en la definici´ n de los Bin no est´ n involucradas las entradas de o a ´ la ultima columna. podemos pensar la matriz Bn gr´ ficamente e a ¶ µ como se muestra en el recuadro.20. Para las bases de o una matriz se cumple una propiedad an´ loga a la de las bases de los espacios vectoriales. ı Lema de Aumento de Submatrices No Singulares Sea αIJ una submatriz cuadrada no singular de αMN . Sea αKL una base i∈M i∈M . Como esto es v´ lido ∀n ∈ N concluimos que βM αMN = 0N . Sea m ∈ M\I tal que el conjunto de renglones indexado por I ∪ m es LI. Sea αMN una matriz. Su demostraci´ n es cl´ sica e ingeniosa. Para cualquier n. La equivalencia 1⇔4 es el resultado 3. Bin no depende de n y podemos denotar Bin = βi ∈ K. En este caso Bn tiene dos columnas iguales y por lo tanto tambi´ n det Bn = 0. o Bases de una matriz Ya estamos listos para definir las bases y el rango de una matriz.112 Cap´tulo 4.

Sea αIJ una base de αMN y denotemos por A = {αiN | i ∈ I} el conjunto de renglones indexado por I. o Sea αIJ una base cualquiera. Por 4. existe m ∈ I tal que o / el conjunto de renglones indexado por I ∪ m en αMN es LI. o Teorema del Rango de una Matriz El rango de una matriz es igual a la dimensi´ n de su espacio de renglones. Prueba. A es LI. la dimensi´ n del espacio de renglones de αMN es al menos r. Teorema del rango El siguiente resultado es una de las implicaciones de la Caracterizaci´ n de las Bases o de una Matriz (4. Si A no fuera LI existir´a una combinaci´ n lineal βI αIN = 0N con βI 6= 0I y por lo tanto ı o βI αIJ = 0J lo que contradecir´a que por ?? el conjunto de renglones indexado por J en la ı matriz αIJ es LI. Sea r el rango de αMN . Al orden com´ n de todas las bases de una matriz se le llama rango de la matriz.Secci´ n 4.31) es que las dimensiones de los espacios de columnas y renglones de cual­ .28) existe una columna n tal que det αI∪m J∪n 6= 0 y esto contradice que αIJ es una base de αMN . El lector no debe olvidar que por a transposici´ n este resultado y el que le sigue tambi´ n son v´ lidos para las columnas. Como la dimensi´ n del espacio de renglones de αMN es al menos r entonces. Necesitamos probar que A es LI maximal. Luego. Si esto no fuera cierto entonces. el conjunto de renglones indexado por I es una base del espacio de renglones de αMN . por el Lema de Aumento de Submatrices No Singulares (4. Por el Lema de Aumento de Submatrices No Singulares (4.5 o El rango de una matriz 113 de orden r. Para ver que A es una base de los renglones observese primero que |A| = |I| ya que si este no fuera el caso la matriz αIJ tendr´a dos renglones iguales y esto ı no puede ser ya que det αIJ 6= 0. Existe una base αIJ de αMN tal que |I| = r. Supongamos |I| < r. De aqu´.30 el conjunto {αiN | i ∈ I} es una base de los renglones que tiene r vectores.28) encontrar´amos ı ı una columna n tal que det αI∪m J∪n 6= 0 y esto es un absurdo ya que las bases de una matriz son maximales por contenci´ n. Debemos probar que |I| = r. o e a Si αIJ es una base de αMN entonces. existir´a m ∈ M\I tal que el conjunto de renglones indexado por I ∪ m es ı LI. En otras u a palabras. el rango de αMN es el m´ ximo natural r tal que αMN tiene una submatriz cuadrada de orden r y de determinante no nulo. o Prueba. Si el conjunto de renglones indexado por K en la matriz αMN fuera LD entonces existir´a una combinaci´ n lineal βK αKN = 0N con βK 6= 0K y por lo tanto βK αKL = 0L lo ı o que contradecir´a que por ?? el conjunto de renglones indexado por K en la matriz αKL es ı LI. Una primera (pero importante y asombrosa) consecuencia del Teorema del Rango de una Matriz (4.32) que demostraremos m´ s adelante. Luego.

Supongamos que A es una matriz fija. Por 4. los espacios de columnas y de renglones de una matriz no tienen nada que ver uno con el otro. 4. si conocemos x entonces como sabemos multiplicar matrices hallamos b = Ax. El producto X de estas matrices es nuevamente una columna αNM xM1 = bN1 = bN . ¡Oh.31) el rango de las matrices αMN . Ya probamos (4. los renglones de αIN y las columnas de αMJ son bases. A primera vista. αIN y αMJ es igual a r = |I| = |J|.6 Sistemas de ecuaciones lineales Sea A = αNM una matriz y xM = xM1 una columna. Si hacemos a N variar x en K entonces esta igualdad la podemos pensar como una TL de KM en KN . Determinantes ı quier matriz coinciden. como los o renglones de αIN son una base entonces. De la Caracterizaci´ n de Matrices No Singula­ o res (4. ¿como hallar x tal que Ax = b? a ı A una igualdad de la forma Ax = b donde A y b son conocidos y x es inc´ gnita o se le llama sistema de ecuaciones lineales. Si el lector no se asombra lo debe pensar mejor. o M´ s dif´cil es el problema inverso. Cuando sobre la faz de la Tierra a´ n no viv´an las o u ı . si se conoce b entonces. Por otro lado. supongamos que ı los renglones de αIN y las columnas de αMJ son bases. Luego. Prueba. Rec´procamente. los renglones de αIJ son o un generador del espacio de renglones de αMJ y como este espacio tiene dimensi´ n r = |I| o concluimos que los renglones de αIJ son LI.30) que si αIJ es una base entonces. Caracterizaci´ n de las bases de una matriz o Ya estamos listos para demostrar el resultado que resume toda esta secci´ n. La respuesta a estas preguntas no es e a gran misterio.27) obtenemos que det αIJ 6= 0 o sea. αIJ es una matriz no singular de orden igual al rango y por lo tanto es una base de αMN . para cada m ∈ M\I el rengl´ n αmN es una com­ o binaci´ n lineal αmN = βI αIN de los renglones de αIN y por lo tanto cada subrengl´ n αmJ o o es combinaci´ n lineal αmJ = βI αIJ de los renglones de αIJ . o Caracterizaci´ n de las Bases de una Matriz o Una submatriz αIJ es una base de una matriz si y solo si el con­ junto de renglones indexado por I es una base de los renglones y el conjunto de columnas indexado por J es una base de las columnas. gran confusi´ n! ¿porqu´ sistema? ¿por­ o e qu´ ecuaciones en plural si nada m´ s tenemos UNA?.30 el espacio de renglones de αMJ tiene dimensi´ n r. Sea αIJ una submatriz de αMN . Si αij xj = bi desarrollamos este producto por la definici´ n de producto de matrices en­ j∈M o tonces obtenemos para cada i ∈ N la igualdad en el recuadro a la derecha. Por el Teorema del Rango de una Matriz (4. es un problema hist´ rico. Como es l´ gico. Como ya es usual podemos interpretar la columna xM como un vector x en el espacio vectorial KM y a bN como un vector b en el espacio KN y en estas notaciones la igualdad se escribe en una forma m´ s simple Ax = b.114 Cap´tulo 4.

o Regla de Cramer Si la matriz A es no singular entonces. Luego. Ya observamos que en este caso necesariamente x = α−1 b.21 tenemos que βjN = α∗ / det αNM y de aqu´ xj det αNM = bN α∗ . Esto no significa que ya sepamos resolver a todos los sistemas de ecuaciones lineales ya que para que una matriz sea no singular se necesita primero que sea cuadrada y que adem´ s el determinante sea diferente de cero.b = 6 8 ¶ 7 3 8 6 Prueba. los humanos necesitaban encontrar unos numeritos xj tales que para P cualquier i ∈ N se cumpla que j∈M αij xj = bi . Denotaremos por A (j) la matriz obtenida de la A = 4 µ matriz del sistema substituyendo la j­´ sima columna por el e vector de coeficientes libres. ı o Para el caso |N| > 1 los numeritos xj deber´an de cumplir todas y cada una de las ecuacio­ ı nes (para cada i ∈ N) y entonces. Por NM NM ı 4. A la matriz A se µ sistema y al vector b lo llamaremos vector de coeficien­ 1 tes libres. Sin embargo. Para terminar la Nj Nj demostraci´ n basta observar que la expresi´ n a la derecha de la igualdad es la expansi´ n de o o o Laplace de A (j) por la columna j. se dec´a que se necesitaba resolver un sistema (conjunto. De hecho. la elegancia de la segunda forma hace que nuestra manera de pensarlo sea mucho m´ s simple y sistem´ tica (a costo de aprender a a sobre matrices y vectores). ¨ Tenemos que encontrar un vector x ∈ KM tal que Ax = b. la j­´ sima e coordenada xj del vector x es igual al determi­ nante de A (j) dividido entre el determinante de A. Denotemos por βij las entradas de α−1 entonces. xj = det A (j) det A le llama matriz del 2 5 1 4 ¶ µ ¶ 3 7 . Por ejemplo. Obs´ rvese que se necesitan encontrar |M| e numeritos.Secci´ n 4. a Regla de Cramer Sea Ax = b un sistema de ecuaciones lineales. debemos substituir en todo lo dicho los “se dec´a” por “se a ı dice” en presente. . ı colecci´ n. hay dos formas de ver los sistemas de ecuaciones lineales: ¨ Tenemos que encontrar |M| elementos del campo xj tales que P para cualquier i. se cumple la igualdad j∈M αij xj = bi . En el caso de que |N| = 1 se dec´a que tenemos que resolver una ecuaci´ n lineal. Ambas formas son en esencia la misma ya que encontrar un vector x es lo mismo que encontrar todas sus coordenadas xj . Un ejemplo de esta substitu­ A (2) = ci´ n es el de la derecha.6 o Sistemas de ecuaciones lineales 115 matrices y los vectores. si ocurre que la matriz A es no singular entonces multiplicando por A−1 a la izquierda obtenemos Ax = b ⇒ A−1 Ax = A−1 b ⇒ x = A−1 b y como ya sabemos encontrar la matriz inversa y sabemos multiplicar matrices la soluci´ n o del sistema de ecuaciones lineales est´ a la mano. cualquier cosa que signifique que hay muchas) de ecuaciones lineales. Sea αNM es una matriz no singular. o para acercarnos m´ s a la verdad. tenemos xj = βjN bN .

” Cramer contin´ a explicando como se calculan estos t´ rminos como productos de ciertos u e coeficientes de las ecuaciones y como se determina el signo. Determinantes ı Gabriel Cramer (Suiza 1704­1752) public´ su famosa regla en el art´cu­ o ı lo “Introducci´ n al an´ lisis de las curvas algebraicas” (1750). Es curioso (y educativo) ver con o que palabras Cramer formula su regla: “Uno encuentra el valor de cada indeterminada formando n fracciones el com´ n denominador de las cuales tiene tantos t´ rminos u e como las permutaciones de n cosas. El tambi´ n se˜ ala como los e n numeradores de las fracciones se pueden encontrar substituyendo ciertos coeficientes de los denominadores por los coeficientes libres del sistema. Es necesario recalcar que esta regla solo funciona para el caso de que la matriz es no singular. Si A y B son dos matrices con los mismos conjuntos de ´ndices de ı A las columnas entonces denotaremos como en el recuadro de la izquierda a la matriz B cuyos renglones son los de A y los de B. Existencia de soluciones Cuando se tiene un sistema de ecuaciones se deben contestar tres preguntas: ¨ ¿Existe una soluci´ n? o ¨ ¿Como encontrar una soluci´ n en el caso de que exista? o ¨ ¿Como encontrar TODAS las soluciones? La Regla de Cramer da la respuesta a las tres preguntas para cuando A es una matriz no ´ singular: la soluci´ n existe. Pero primero. La matriz [A|B] la podemos pensar como el resultado de la operaci´ n que a la matriz A se le agregan las columnas de B. introduciremos unas notaciones que utilizaremos en toda esta secci´ n. Las “n fracciones” son det A (j) / det A y el “com´ n deno­ a a u minador” es det A (que tiene tantos sumandos como las permutaciones de n cosas). es unica y se halla por la Regla de Cramer. o o Por otro lado. Ahora responderemos o definitivamente y para todos los casos la primera pregunta. Esta sur­ o a gi´ del deseo de Cramer de encontrar la ecuaci´ n de una curva plana que o o pasa por un conjunto de puntos dado. Para nosotros. La Regla de Cramer (4. con m´ s de dos siglos a de ventaja. cuando en el sistema se tienen tantas incognitas como ecuaciones y el determinante de la matriz del sistema no es nulo. es mucho m´ s f´ cil. .33) tiene fundamentalmente un inter´ s hist´ rico por ser uno de los or´genes del e o ı concepto de determinante. El escribe su regla en un ap´ ndice e del art´culo y no da prueba alguna para ella. o Si A y B son dos matrices con los mismos conjuntos de ´ndices de los ren­ ı glones entonces denotaremos como en el recuadro de la derecha a la matriz cuyas A B columnas son las de A y las de B. Este es uno de los or´genes ı ı hist´ ricos del concepto de determinante.116 Cap´tulo 4. (A las operaciones de este o tipo se les llama “concatenaci´ n” en las ciencias de la computaci´ n). O sea.

35) nos garantiza que esta operaci´ n no altera el o o conjunto de soluciones.31) a que b sea combinaci´ n lineal o de las columnas de A. a Prueba. El nucleo y la imagen de una matriz Sea αMN una MN­matriz. El rengl´ n [αmN |bm ] es com­ ı o binaci´ n lineal de los indexados por I. Por definici´ n de rango siempre se tiene que rank A ≤ rank [A|b] . Entonces. obtenemos o una matriz ampliada con renglones LI. Otra manera. demos una definici´ n. debemos eliminar la ecuaci´ n correspondiente a este rengl´ n. Por definici´ n de imagen tenemos Im αMN = {βM | ∃xN αMN xN = βM }. Prueba. Como αMN xN = bM tiene m´ s ecuaciones que αIN xN = bI entonces cada solu­ ci´ n de αMN xN = bM es soluci´ n de αIN xN = bI . Repitiendo esta operaci´ n una cierta cantidad de veces. Luego existen escalares λi tales que o αmN = λI αIN se cumplen las igualdades a la derecha. n Teorema de Existencia de Soluciones El sistema Ax = b tiene una soluci´ n si y solo si el rango de la o matriz del sistema coincide con el rango de la matriz ampliada. Si Ax = b es un sistema de ecuaciones lineales entonces la o matriz ampliada del sistema (denotada por [A|b]) es la matriz que se obtiene de la matriz del sistema a˜ adiendo el vector columna de coeficientes libres b. Ella es la matriz de la TL f : KN 3 xN 7→ αMN xN ∈ KM . El que b sea combinaci´ n lineal de las columnas de A es equivalente o a la existencia de escalares xj tales que xN αiN = bi o sea a que Ax = b tenga soluci´ n. m´ s algor´tmica. podemos definir la imagen de la matriz αMN como Im αMN = Im f y el nucleo de o la matriz αMN como Ker αMN = Ker f.6 o Sistemas de ecuaciones lineales 117 Ahora. o o Rec´procamente. de ver este lema es que si tenemos un sistema de ecua­ a ı ciones αMN xN = bM y un rengl´ n de este sistema es combinaci´ n lineal de los dem´ s o o a entonces. Multiplicando la primera igualdad bm = λI bI por xN y usando la definici´ n de xN obtenemos αmN xN = λI αIN xN = o λI bI = bm y por lo tanto xN satisface todas las ecuaciones del sistema αMN xN . El Lema de Eli­ o o minaci´ n de Ecuaciones Dependientes (4. sea xN tal que αIN xN = bI y m ∈ M\I. Im αMN es el conjunto .Secci´ n 4. Pasemos ahora a analizar la imagen. o Eliminaci´ n de ecuaciones dependientes o Lema de Eliminaci´ n de Ecuaciones Dependientes o Sea I el conjunto de ´ndices de una base de renglones de la ma­ ı triz ampliada [αMN |bM ]. O sea. Luego. Que coincidan o es equivalente por el Teorema del Rango de una Matriz (4. el conjunto de soluciones de αMN xN = bM es exactamente el mismo que el de αIN xN = bI .

nuestra tarea es encontrar una N­ada soluci´ n y encontrar Ker αMN dando una base de este subespacio. o Sea αIJ una base de la matriz del sistema αMN . o o Luego. Esto α−1 bI IJ o quiere decir que la N­ada γN del recuadro a la izquierda es una soluci´ n de 0K nuestro sistema original de ecuaciones αMN xN = bM . Tenemos αMN xN = i∈N αMi xi que es una combinaci´ n lineal de las columnas. Por la Caracterizaci´ n de las Bases de o una Matriz (4. Para encontrar una base del Ker αMN podemos substituir xK por los vecto­ res de la base can´ nica de KK en la ecuaci´ n αIJ xJ +αIK xK = 0I y despejar xJ . ¨ El subespacio Im αMN es el generado por las columnas de αMN . podemos o suponer que αIJ es una base de la matriz ampliada.35) nuestro sistema de ecuaciones tiene las o mismas soluciones que el sistema αIN xN = bI . Despejando e obtenemos xJ = −α−1 αIK δKk = −α−1 αIk . −α−1 αIk o o IJ Las K­adas de la base can´ nica son las columnas de la matriz identidad IKK . Resumamos todo lo dicho en ı 4. Determinantes ı de vectores βM tales que el sistema de ecuaciones lineales αMN xN = βM tiene al menos una P soluci´ n. Este sistema de ecuaciones es equivalente al del recuadro a la α x + α x = b IJ J IK K I izquierda donde K = N\J. Im αMN es el subespacio generado por las columnas de la matriz αMN .21 la matriz ı αIJ tiene inversa y por lo tanto podemos despejar xJ . Luego los vectores en el recuadro −α−1 αIK IJ IJ IJ de arriba a la derecha.36 las soluciones del sistema αMN xN = bM es un subespacio af´n de KN . a . Si αIJ no es una base de la matriz ampliada [αMN |bM ] entonces. ¨ El subespacio Ker αMN es el conjunto de soluciones de αMN xN = 0M . Para encontrar una soluci´ n de este o −1 nuevo sistema pongamos xK = 0K y despejando obtenemos xJ = αIJ bI . ¨ Si γN es una soluci´ n de αMN xN = βM entonces. o Sea αMN xN = bM un sistema de ecuaciones. 3. por el Teorema de Existencia de Soluciones (4. est´ n en el nucleo de la matriz αMN . Luego. el conjunto de todas o sus soluciones es el subespacio af´n γN + Ker αMN .36 para referencias futuras.118 Cap´tulo 4. si a γN es una soluci´ n de αMN xN = βM entonces. Luego.34) el sistema de ecuaciones no tiene soluci´ n y en este caso no hay nada que hacer. La ventaja aqu´. que son precisamente las columnas de la matriz ΓNK IKK del recuadro a la izquierda. Adem´ s.32) el conjunto {αiN | i ∈ I} es una base de los renglones y de aqu´ por el Lema ı de Eliminaci´ n de Ecuaciones Dependientes (4. Este subespacio es γN +Ker αMN donde γN es una soluci´ n ı o del sistema y Ker αMN es el subespacio de soluciones de αMN xN = 0M . es que por 4. De 4. o δKk Denotemos la k­´ sima columna de IKK por δKk . ı Bases del subespacio af´n de soluciones ı Ahora nos disponemos a dar la soluci´ n general de los sistemas de ecuaciones lineales.29 (p´ gina 89) nos dice que el conjunto o a de todas sus soluciones es el subespacio af´n γN + Ker αMN .

Como la imagen y el nucleo tienen dimensiones complementarias (3. o a Como las combinaciones lineales de las columnas de una matriz se obtienen multipli­ cando por vectores a la derecha. cada vez m´ s los m´ to­ a a e dos de c´ lculo se hacen importantes solo para los especialistas en desarrollo de software y a para los investigadores que pretenden mejorarlos y/o adaptarlos a nuevos problemas. En un mundo con calculadoras. En particular. Sabemos que |K| + |J| = |N| y de 4. Evidentemente las columnas son LI. el ı subespacio generado por las columnas de ΓNK est´ contenido en el Ker αMN y tiene la misma a dimensi´ n que Ker αMN . estudiaremos brevemente este m´ todo.36 obtenemos |J| = dim Im αMN . Prueba. |K| = dim Ker αMN .17 (p´ gina 52) estos espacios coinciden. el rango. Sucede algo parecido con el m´ todo de c´ lculo de las raices cuadradas de los n´ meros e a u que se estudia en la ense˜ ansa media. u ı e Hace diez a˜ os (1995) hubiera sido inconcebible impartir un curso general de Algebra n Lineal sin desarrollar con todo detalle la eliminaci´ n de Gauss. Este es el m´ todo m´ s universal y eficiente (al menos e a manualmente) para calcular los determinantes.25) entonces. Ya observamos que cada columna de ΓNK est´ en el subespacio Ker αMN . El rango de a ΓNK es |K| ya que IKK es una base de ella y evidentemente sus columnas son LI. la fracci´ n de la n o poblaci´ n humana interesada en dominar este m´ todo es realmente muy peque˜ a. en la suposici´ n de αMN xN tiene al menos una soluci´ n. As´. con el creciente o desarrollo de las computadoras personales y el software matem´ tico. u 4.7 o M´ todo de eliminaci´ n de Gauss e o 119 Las columnas de la matriz ΓNK son una base del subespacio Ker αMN . Es mucho o e n . Sin embargo. las matrices inversas y otras cosas que a´ n no hemos estudiado. la nulidad (la dimensi´ n del nucleo) de cualquier matriz es igual a su o n´ mero de columnas menos su rango. Aqu´. el nucleo.7 M´ todo de eliminaci´ n de Gauss e o La idea del m´ todo de eliminaci´ n de Gauss es realizar ciertas transformaciones de las e o matrices que no cambian lo que se pretende calcular y que convierte a las matrices en otras con muchas entradas iguales a cero. Necesitamos probar que las columnas son un generador de Ker αMN .Secci´ n 4. o o podemos resumir todo lo expuesto en el siguiente resultado: Soluci´ n General de un Sistema de Ecuaciones Lineales o El conjunto de soluciones de αMN xN = bM es igual al subespacio af´n ı ¸ ° ¯∙ −1 ∙ −1 ¸ −αIJ αIK α bI λK + IJ λK ∈ KK ⊆ KN IKK 0K donde αIJ es una base de αMN y K = N\J. Por 2. El rango de ΓNK es |K| ya que IKK es una base de ella.

det βMM = det αMM . podemos obtener una matriz βMN tal que en la columna βMj todas las entradas excepto βij son iguales a cero. C´ lculo de determinantes a Las transformaciones elementales no cambian los determinantes. Si k ∈ M\i entonces. βMM y γMM matrices que se diferencian solo en el rengl´ n indexado o por j para el cual se tiene que βjM = λαiM + αjM y γjM = αiM . no es necesario realizar la transformaci´ n correspondiente al rengl´ n k. Como el determinante es un funcional lineal de los renglones tenemos det βMM = λ det γMM + det αMM y como la matriz γMM tiene dos renglones iguales entonces. Despu´ s de diagonalizar una columna (un rengl´ n). αjN dos renglones de αMN y λ ∈ K un escalar. De forma an´ loga. A la operaci´ n que dados αMN . la diferencia principal es que en este caso o o usamos transformaciones elementales de las columnas. Otra manera util de pensar las transformacio­ o nes elementales de los renglones es que en la matriz αMN al rengl´ n αjN le sumamos el o rengl´ n αiN multiplicado por λ. i. An´ logamente se define la diagonali­ o a zaci´ n del rengl´ n αiN mediante la entrada αij . Determinantes ı m´ s importante saber que es la ra´z cuadrada que saber como calcularla. a ı Transformaciones elementales Sea αMN una matriz. Deno­ temos βjN = λαiN + αjN y sea βMN la matriz obtenida de αMN reemplazando el rengl´ n o αjN por la N­ada βjN . Sean αiN . j y λ obtenemos βMN se le llama o ´ transformaci´ n elemental de los renglones. o o A la operaci´ n descrita en la prueba de la proposici´ n anterior la llamaremos diagona­ o o lizaci´ n de la columna αMj mediante la entrada αij . hacemos la transformaci´ n ele­ o −αkj mental de los renglones del recuadro a la derecha. que es un determinante de una matriz de orden menor en a . De que |M\i| = |M| − 1 se concluye la prueba. El “a lo m´ s” ij de nuestra tesis es porque si αkj es a priori igual a cero entonces. Prueba. o Sea αMN una matriz y αij una entrada. De 4. Una transformaci´ n elemental es de renglones o de columnas. Sean αMM . se definen las transformaciones ele­ o a mentales de las columnas. haciendo a lo m´ s |M| − 1 transformaciones elementales de a los renglones. Prueba. Si αij 6= 0 entonces. usamos la expansion e o de Laplace por esa columna (ese rengl´ n) y reducimos el c´ lculo de nuestro determinante o a al c´ lculo de un solo cofactor.40 vemos que las diagonalizaciones de renglones y columnas tampoco cambian los determinantes. En la colum­ βkN = α αiN + αkN ij ´ na βMj de la nueva matriz la unica entrada que se modific´ es o a βkj = −αkj α−1 αij + αkj = 0.120 Cap´tulo 4.

ı Ahora pasemos a describir como calcular la base. Encontramos αij 6= 0 tal que i ∈ I y j ∈ J. o Las transformaciones elementales de los renglones de la matriz ampliada no cambian el subespacio af´n soluci´ n de un sistema de ecuaciones lineales. Si γN es una o soluci´ n del segundo sistema entonces. Sea αMN xN = bM un sistema de ecuaciones lineales. De este proposici´ n se deduce inmediatamente que la diagonalizaci´ n de columnas de la o o matriz ampliada no cambia el subespacio af´n de soluciones. las trasformaciones elementales de las columnas cambian los nucleos y el subespacio af´n soluci´ n de un sistema de ecuaciones lineales. Despu´ s de terminar este algoritmo obtenemos varias cosas: Primero.Secci´ n 4. el rango. Sea [αMN |bM ] la matriz ampliada de un sistema o o de ecuaciones lineales. Diagonalizamos la columna αMj mediante la entrada αij . Tercero. Si no existe terminamos. Segundo. u a Ejercicio 80 Demuestre que el n´ mero de operaciones en el campo usadas para calcular el u determinante de una matriz de orden n por el m´ todo de eliminaci´ n de Gauss es: e o sumas productos divisiones ¡ ¢ (n + 1) n (n − 1) /3 (n − 1) n + n2 + 3 /3 n (n − 1) /2 Bases. 3. Agregamos i a la “caja” I y j al la “caja” J. Sea βMN xN = cM otro sistema que se diferencia solo en la ecuaci´ n j para la cual se tiene βjN = λαiN + αjN y o cj = λbi + bj . cada elemento de I y J tienen un n´ mero que indica en que iteraci´ n del algoritmo fueron incluidos en ellos. Sin em­ bargo. rango. Los conjuntos I y J los pensaremos como “cajas” a las que le agregaremos ´ndices de los renglones y las columnas mediante el siguiente algoritmo: ı / / 1. dos conjuntos I ⊆ M y J ⊆ N. u o [131] . Si γN es una soluci´ n del primer sistema entonces.7 o M´ todo de eliminaci´ n de Gauss e o 121 uno. Observese que el n´ mero total de transformaciones usadas es a lo m´ s 1 + 2 + · · · + (n − 1) = n (n − 1) /2. βjN γN = λαiN γN + o αjN γN = λbi + bj = cj por lo que γN es una soluci´ n del segundo sistema. Solo hay que tener cuidado de usar los signos del tablero de ajedrez. una nueva matriz e ampliada [βMN |dM ]. αjN γN = βjN γN − λαiN γN = cj − λbi = bj por lo o o que γN es una soluci´ n del primer sistema. nucleos y sistemas de ecuaciones lineales Las bases y el rango de una matriz dependen exclusivamente de los determinantes de sus submatrices y por lo tanto no son afectados por las transformaciones elementales. 2. Regresamos al paso 1. el rango o el nucleo de una matriz entonces podemos ignorar la columna bM . ı o Prueba. Sin embargo para las transformaciones ı o elementales de los renglones la situaci´ n es diferente. el nucleo o el subespacio af´n ı soluci´ n mediante la eliminaci´ n de Gauss. Pongamos I = J = ∅. Si lo que se pretende es hallar la base.

si M = N entonces. usando el Lema de Eliminaci´ n de Ecuaciones o Dependientes (4.122 Cap´tulo 4. entonces necesitamos que βIJ sea tambi´ n base de la e matriz ampliada y esto es equivalente a dK = 0K .41 las soluciones que hemos hallado son tambi´ n soluciones de nuestro e sistema original de ecuaciones lineales. el sistema no cambia sus soluciones y o β0JJ se convierte en la matriz identidad. Esta ecuaci´ n matricial tiene la matriz o ampliada [αMN |bML ] y podemos aplicarle a esta matriz la eliminaci´ n de Gauss para resolver o todos nuestros sistemas al mismo tiempo. podemos denotar L = {1. Por 4. αMN xN` = bM` todos con la misma matriz del sistema αMN entonces. Sexto. . .35) obtenemos el sistema equivalente βIJ xJ +βIL xL = dI con las ecuaciones indexadas por I. O sea. . as´ que no nos importa cuantas columnas halla despu´ s de la barra vertical. Esta es la forma en que con el m´ todo de ı e eliminaci´ n de Gauss se calculan las matrices inversas. Determinantes ı esto no es m´ s que una biyecci´ n φ : I → J tal que βij 6= 0 si y solo si φ (i) = j . Soluci´ n de ecuaciones matriciales. Quinto. ı e ´ En particular. Adem´ s. cualquier submatriz de βMN que a contenga a βIJ tiene un rengl´ n cero y por lo tanto tiene determinante cero. por 4. . .40. o µ ¶ La nueva matriz ampliada [βMN |dM ] la podemos visualizar gr´ fica­ a βIJ βIL dI mente como en el recuadro a la izquierda. para cada j ∈ J multiplicaremos por el escalar 1/β0jj a la ecuaci´ n β0jJ xJ +β0jL xL = d0j . Primero. el que se cumpliera βkn 6= 0 contradecir´a el criterio de parada de nuestro ı algoritmo. a o ´ Como las unicas transformaciones elementales que hemos aplicado son de los renglo­ nes entonces. matriz inversa o Si tenemos varios sistemas de ecuaciones lineales αMN xN1 = bM1 . la unica soluci´ n posible (si existe) a la ecuaci´ n o o −1 matricial αMM xMM = IMM ser´a xMM = αMM . el sistema no tiene soluciones y si dK = 0K entonces. Segundo. αIJ es una u base de la matriz αMN y el rango de αMN es |I| y con esto terminan nuestros problemas si lo que queremos es hallar el rango o una base de una matriz. Esto lo podremos hacer porque en la eliminaci´ n o de Gauss no se reordenar columnas y solo se aplican transformaciones elementales a los renglones. . . a o Cuarto. o . `} y escribirlos todos en la forma αMN xNL = bML . finalmente obtenemos un nuevo sistema xJ + γJL xL = hJ cuyas u ı soluciones son las N­adas xN cuyas coordenadas en L son arbitrarias y sus coordenadas en J est´ n determinadas por la f´ rmula xJ = hJ − γJL xL . β0JL se convierte en alguna matriz γJL y d0J se convier­ te en alg´ na J­ada hJ . βkn se hizo cero al diagonalizar la columna αMn y si si n ∈ L entonces. la submatriz βIJ es una base de βMN ya que su determinante es igual Q (salvo signo) a i∈I βiφ(i) y es distinto de cero. denotemos K = M\I y L = N\J. Esto no afecta las soluciones y obtenemos un sistema equivalente β0JJ xJ + β0JL xL = d0J don­ de la nueva matriz β0JJ es diagonal. . Si queremos resolver el sistema. Haciendo esto. para cualquier k ∈ K el rengl´ n βkN o es nulo ya que si n ∈ J entonces. ´ Ahora haremos dos cosas m´ s. La submatriz βIJ es una 0KJ 0KL dK base de βMN y el n´ mero |I| es el rango de βMN . reordenaremos las ecuaciones de este ultimo sis­ a tema mediante la biyecci´ n φ : I → J y de esta manera las ecuaciones estar´ n indexadas por o a J. As´. si dK 6= 0K entonces.

Secci´ n 4.7 o M´ todo de eliminaci´ n de Gauss e o 123 Ejercicio 81 Si el lector desea aprender el m´ todo de eliminaci´ n de Gauss entonces. Es necesario plantearse sistemas de ecuaciones lineales y resol­ o verlos siguiendo los pasos antes expuestos. . no e o basta con leer esta secci´ n.

124 .

f (1) ≤ 0 y o f (m) ≥ 0 esto necesariamente tiene que ocurrir. (l´mi→∞ ai )b = l´mi→∞ ab y finalmente si c = l´m ai ı ı ı i i→∞ √ entonces bc = l´mi→∞ bai . Lo mismo ocurre con la divisi´ n.1 p´ gina 2) La f´ rmula (a + b) (x + y) se expresa en notaci´ n sufija o a o o como ab + xy + ×.1 p´ gina 2) La suma y el producto est´ n bien definidas en N. R y C.Ejercicio 1 (Secci´ n 1. El resto de las operaciones si son asociativas. Q. R y C. Las operaciones m´ ximo com´ n divisor y m´nimo com´ n m´ ltiplo est´ n a u ı u u a definidas para los naturales (y polinomios). De esta manera la operaci´ n o x 7→ −x es una operaci´ n unaria. Por ejemplo para cada entero x hay otro entero −x. o La operaci´ n de exponenciaci´ n no tiene elemento neutro ya que e1 = 1 ⇒ e = 1 pero o o . No es dif´cil ver. Esto ultimo es equivalente a ver n que la funci´ n f (x) = x − m alcanza el valor cero. Como f (x) es continua. la exponencia­ / / / ci´ n si esta bien definida en √+ (los mayores que cero). 2 = 2 ∈ Q y (−1) = i ∈ R . Observemos que 4 = 4 − (2 − 2) 6= (4 − 2) − 2 = 0 por lo que la resta no es asociativa.1 p´ gina 2) Una operaci´ n unaria en el conjunto A es una funci´ n o a o o de A en A. La exponenciaci´ n es m´ s o o a complicada ya que aunque est´ bien ´ ³ en N no est´ ´ a definida a bien definida en Z. Ejercicio 5 (Secci´ n 1. el m´ ximo com´ n divisor el m´ni­ o a a u ı mo com´ n m´ ltiplo y el m´ ximo son operaciones conmutativas. La resta en Z. Otros ejemplos comunes son el hallar el complemento de o un conjunto o el hallar el complejo conjugado de un n´ mero complejo. el producto. b y c existe un tri´ ngulo con lados de esas o a longitudes. que la funci´ n y = ax ı o es estrictamente creciente en la variable x por lo que esta tiene una funci´ n inversa log a y o definida en R+ . Z. Ejercicio 2 (Secci´ n 1. ap/q = q ap . Para ver esto.1 p´ gina 4) La resta no tiene elemento neutro ya que de a − e = a o a se sigue que e = 0 pero por otro lado 0 − a = −a 6= a. Tampoco o es asociativa el logaritmo. u Ejercicio 3 (Secci´ n 1. usamos las f´ rmulas o R o (p/q)a = pa /qa . Por otro lado. Ejercicio 7 (Secci´ n 1. Q y R ya ¡ −1 1 ¢ ³ 1/2 √ 1/2 que 2 = 2 ∈ Z . b y c no es una opera­ o a a ci´ n ternaria en R ya que no para cualesquiera a.1 p´ gina 3) La suma. Con ellas reducimos la prueba a demostrar que n m es un re­ ı ´ al para cualesquiera (diferentes de cero) naturales n y m.1 p´ gina 2) El area del tri´ ngulo con lados a. La divisi´ n en Q.1 p´ gina 3) Ya vimos en el texto que la exponenciaci´ n no es asocia­ o a o tiva. o a a Q. Ejercicio 4 (Secci´ n 1. R y C. Tenemos 4 = 4/ (2/2) 6= (4/2) /2 = 1 y por lo tanto la divisi´ n no es asociativa. Las dem´ s no lo son. u u a a Ejercicio 6 (Secci´ n 1.

.2 p´ gina 9) Supongamos que n es un√ o a racional. u n = p2n 1 p2n2 . √ √ Ejercicio 15 (Secci´ n 1. si f (x) = f (y) entonces. Lo mismo ocurre con el logaritmo. Si f (a) = o a f ¡ ¢ −1 0 y a no fuera el cero de A entonces tendr´amos 1 = f (1) = f aa ı = f (a) f a−1 = ¡ ¢ 0f a−1 = 0 lo que no puede ser. .1 p´ gina 5) Fij´ monos en un conjunto U y en el conjunto de todos o a e a los subconjuntos de U que denotaremos por 2U .. pnt para t 1 2 ciertos naturales primos p1 p2 . Cada medici´ n nos da un n´ mero racional. . . o sea si f (a) = 0 entonces a = 0. n2 . El 1 tambi´ n es el neutro para el m´nimo com´ n m´ ltiplo. nt . . Ejercicio 23 (Secci´ n 1.2 p´ gina 9) Siempre podemos medir un segmento de recta con o a cada vez m´ s precisi´ n (al menos te´ ricamente).4 sabemos que f (0)¡= 0 y ¢ (1) = 1. necesitamos un neutro multiplicativo. ı Ejercicio 20 (Secci´ n 1. En 2U est´ n bien definidas las operaciones de uni´ n e intersecci´ n de conjuntos. no es racional. a o o o u Luego. f (x − y) = 0 y por lo tanto x = y. La operaci´ n e ı u u o de m´ ximo com´ n divisor no tiene neutro.. El neutro de la suma es el cero. p2nt y por √ tanto ∀i ∈ {1. .1 p´ gina 5) Es importante se˜ alar que el inverso tiene sentido solo o a n 1 si hay neutro. o a Por el ejercicio anterior.126 Soluciones de ejercicios selectos 12 = 1 6= 2. Decomponiendo su numerador y denominador en factores primos obtenemos que n = pn 1 pn2 . . El inverso de a para la suma es −a. . Luego. Ejercicio 16 (Secci´ n 1. u u o Ejercicio 9 (Secci´ n 1.. esta operaci´ n no tiene inversos. . pt y ciertos n´ meros enteros n1 .1. . Aunque el m´nimo ı com´ n m´ ltiplo tiene neutro 1. Estas operaciones cumplen las propiedades requeridas o o como se puede observar en los dos siguientes diagramas de Venn. el neutro del producto es el uno.3 p´ gina 12) Por 1. t} 2ni ≥ 0. Por otro lado Z2 es un campo con dos elementos .2 p´ gina 9) Tenemos 1 < 2 < 2 y por lo tanto 2 no es natural. ya o a ı u que al menos se necesita un neutro para la suma 0 y como el campo sin el cero es un grupo para el producto. la longitud del segmento es un l´mite de racionales por lo que es un real. A B C A ∩ (B ∪ C) = = (A ∩ B) ∪ (A ∩ C) C A ∪ (B ∩ C) = = (A ∪ B) ∩ (A ∪ C) A B √ Ejercicio 14 (Secci´ n 1. para el producto es a .4 p´ gina 16) El m´nimo n´ mero de elementos en un campo es 2. Pero entonces. a u Ejercicio 8 (Secci´ n 1. todos los ni son lo t 1 2 naturales lo que significa que n es natural. . Luego.

Si / hxi∪y1 hxi = Z∗ entonces 2n = p−1 y terminamos. el orden de xy es el m´nimo com´ n m´ ltiplo de n y m. .4 p´ gina 16) o a La tabla de multiplicar en Z5 es la derecha. Sea qn1 . Efectivamente. a u 2. En algun momento. tenemos que terminar ya que Z∗ es finito y obtener que hxi∪y1 hxi∪· · ·∪yt hxi = Z∗ p p y por lo tanto tn = p − 1. por (3) y (8) el orden ı u u del producto b1 · · · bt es p − 1 con lo que se comprueba la existencia de un elemento de orden p − 1. el elemento inverso de 3 es 2 y el elemento inverso de 4 es 4. lo que hay que probar es que en Z∗ existe un elemento de p orden p − 1. x. Tenemos br1 = ap−1 = 1 y 8. 3. . . . y1 x tiene n elementos y es disjunto con hxi. Si suponemos que b1 1 = 1 donde 1 m < n1 entonces. qn t la descomposici´ n en factores primos de p − 1 y denotemos ri = qn i . p o 6. . Si no. Veamos que el orden de b1 es r1 . un conjunto o con una operaci´ n binaria asociativa y con elemento neutro es un o grupo si y solo si su tabla de multiplicar cumple esta propiedad. Esto es una propiedad de las operaci´ nes binarias de los grupos. Para cualquier x ∈ Zp el orden n de x es un divisor de p − 1. 5. En particular. . De (2) y (4) obtenemos que. si hxi = Z∗ entonces. entonces existe y2 ∈ hxi∪ p ∗ y1 hxi y el conjunto hxi ∪ y1 hxi ∪ y2 hxi puede ser o no igual Zp . Efectivamente: 1. t 1 i 7. para cualquier x ∈ Z∗ se cumple que xp−1 = 1. Sea b1 = a1 1 1 qm por (2) el orden de b1 es un divisor de r1 = qn1 . o para k = qn 1 −1 tenemos 1 = bk = a1 1 1 9.4 p´ gina 16) Sea p primo. n = p − 1 y terminamos.Soluciones de ejercicios selectos Ejercicio 24 (Secci´ n 1. . . x2 . entonces existe y1 ∈ hxi y el / p © ª n−1 conjunto y1 hxi = y1 . Luego. u 1 1 (p−1)/q 1 lo que contradice la definici´ n de a1 . rt es p − 1 entonces. De hecho. . . Observemos que el n´ mero de elementos de orden n no puede ser mayor que n ya que u n el polinomio x − 1 no puede tener m´ s de n raices. Observese que en la tabla de multiplicar de Z5 \0 en cada columna y en cada rengl´ n nos en­ o contramos con todos los elementos posibles. En este caso todos los elementos a n = © de hxi = 1. Luego. +) es o un isomorfismo de grupos. existe a1 tal que a1 6= 1. Si x ∈ Z∗ = Zp \0 entonces al natural o a p n m´ s peque˜ o tal que xn ª 1 lo llamaremos orden de x. (p−1)/r 1 . el elemento inverso de 2 es 3. •) 3 xi 7→ i ∈ (Zn . por (2) cualquier m´ ltiplo k de qm es tal que bk = 1. De (1) obtenemos que el n´ mero de elementos de orden (p − 1) /q1 es cuando m´ s u a (p−1)/q 1 (p − 1) /q1 < p − 1. ı u u ∗ 4. xn−1 son diferentes y la funci´ n f : (hxi . Como el m´nimo com´ n m´ ltiplo de r1 . Luego el elemento in­ verso de 1 es 1. . Efectivamente si m = kn + r con r < n entonces xm = (xn )k xr = xr ∈ hxi y por lo tanto (xm = 1) ⇔ (r = 0). . 127 • 0 1 2 3 4 0 0 0 0 0 0 1 0 1 2 3 4 2 0 2 4 1 3 3 0 3 1 4 2 4 0 4 3 2 1 Ejercicio 25 (Secci´ n 1. y1 x. Un caso particular de (2) es que si x y y son elementos de orden n y m respectivamente entonces. Veamos que si n es el orden de x entonces xm = 1 si y solo si m es un m´ ltiplo de n. Si no.

. o a t es un n´ mero natural. . 1 + 1 = 0 y por lo tanto ı a = −a para cualquier elemento del campo.8 p´ gina 28) Las raices del polinomio zn − 1 son xk = cos k 2π + o a n 2π i sin k n para k ∈ {0.8 p´ gina 29) Sean a. u Ejercicio 28 (Secci´ n 1. Por simetr´a o a a ı solo tenemos que probar que |a − b| ≤ c. b y c tres lados de un tri´ ngulo.128 Soluciones de ejercicios selectos Ejercicio 27 (Secci´ n 1.7 p´ gina 24) Idea: todo lo demostrado para polinomios se traduce o a ´ tal cual para los enteros. Ejercicio 29 (Secci´ n 1. Si la caracter´stica del campo es diferente de 2 entonces. Para la o a o propiedad 2 vemos (a + bi) + (c + di) = (a + c) + (b + d) i = = (a + c) − (b + d) i = (a − bi) + (c − di) = (a + bi) + (c + di) Finalmente. hay un solo sumando en el cual i = j = k y este sumando es uno. a ı °¡ ° ¡ ¢ ¢ Ejercicio 34 (Secci´ n 1.5 p´ gina 18) No. Si por el contrario b ≥ a entonces por la a ı desigualdad del tri´ ngulo a + c ≥ b y de aqu´ c ≥ b − a. Haciendo los cambios de variables t = j − k y n = i − k obtenemos µ ¶µ ¶ X µ ¶ µ ¶ n i n X (n + k) ! j i n+k X j−k t t n = = (−1) (−1) (−1) k j t k!t! (t − n) ! k j=k t=0 t=0 ¡n¢ Pn ´ y esta ultima expresi´ n es cero ya que t=0 (−1)t t es el binomio de Newton de (x − 1)n o evaluado en x = 1. porque t no es un elemento del campo al contrario.9 p´ gina 32) La propiedad 1 es inmediata de la definici´ n. . o a Ejercicio 35 (Secci´ n 1. Ejercicio 33 (Secci´ n 1. 1 + 1 6= 0 por lo que la afirmaci´ n del ı o ejercicio es cierta. t veces. Tenemos µ ¶ µ ¶ 2π 2π 2π 2π xk xm = cos (k + m) + i sin ` = x` + i sin (k + m) = cos ` n n n n donde ` = (k + m) mod n. Si i = k entonces. Para el producto. Supongamos i > k. Lo que quiere decir tx es x + · · · + x . para probar la propiedad 3 vemos que (a + bi) (c + di) = (ac − bd) + (ad + bc) i = = (ac − bd) − (ad + bc) i = (a − bi) (c − di) = (a + bi) (c + di) .5 p´ gina 18) De que a = −a obtenemos que o a 0 = a + a = 1a + 1a = (1 + 1) a Como todo campo es dominio de integridad obtenemos que a = 0 o 1 + 1 = 0.7 p´ gina 26) Si i < k entonces la suma es vac´a y por lo tanto es o a ı cero.8 p´ gina 31) Para usar ° 1 − tk p (z0 )° = 1 − tk kp (z0 )k. La unica diferencia es que en lugar de usar el concepto de grado de un polinomio hay que usar el concepto de valor absoluto de un entero. n − 1}. Ejercicio 32 (Secci´ n 1. Si la caracter´stica del campo es 2 entonces. Ejercicio 30 (Secci´ n 1. estas raices forman un grupo isomorfo a Zn . Supongamos que a ≥ b entonces por la desigual­ dad del tri´ ngulo b + c ≥ a y de aqu´ c ≥ a − b. .

existe una combinaci´ n lineal x = αy y + i∈N αi i. b) por lo que la relaci´ n es sim´ trica. 3. d) entonces (c. En la expresi´ n (αβ) a se utilizan dos operaciones o o diferentes primero la del producto de escalares y despu´ s la de un escalar por un vector. b) ∼ (c.2 p´ gina 39) El m´nimo n´ mero de elementos en un espacio vecto­ o a ı u rial es 1 ya que al menos necesita tener el neutro para la suma de vectores. Pero si es una operaci´ n binaria o o en el sentido de que tiene dos argumentos.4 p´ gina 50) 1. Este campo tiene evidentemente un n´ mero infinito de elementos. Ejercicio 47 (Secci´ n 2. Si ad = bc y o e cf = de entonces adcf = bcde por lo que af = be.3 p´ gina 47) P o a Supongamos que x ∈ hN ∪ yi \ hNi. Y efectivamente un conjunto formado por un solo elemento es un espacio vectorial sobre cualquier campo definiendo α0 = 0 para cualquier α en el campo.1 p´ gina 38) o a El tri´ ngulo abc es semejante al tri´ ngulo uvw de hecho son con­ a a gruentes porque ac = uw (lados opuestos de un paralelogramo tie­ nen la misma longitud). f) por lo que la relaci´ n es transitiva. o a Ejercicio 39 (Secci´ n 2.1 p´ gina 38) En la expresi´ n α (βa) se utiliza un solo tipo de o a o operaci´ n (la de un escalar por un vector).Soluciones de ejercicios selectos 129 Ejercicio 36 (Secci´ n 1. La prueba para la otra au aw a coordenada es igual. d) y (c. o Ejercicio 37 (Secci´ n 1. despejando y obtenemos que y ∈ hN ∪ xi. Esto significa que si (a. b) ∼ (c. Luego existe N tal que ∅ ⊆ N ⊆ E que es base. o / Luego.­ Si L es generador entonces existe una base N tal que .10 p´ gina 34) Tenemos ab = ba por lo que (a.10 p´ gina 36) El campo de fracciones Z2 (x) contiene a Z2 y por lo o a tanto es de caracter´stica 2. d) ∼ (a. b) lo que o a significa que la relaci´ n es reexiva. Entonces. e Ejercicio 43 (Secci´ n 2. o a Ejercicio 48 (Secci´ n 2.10 p´ gina 36) El campo de fracciones de un campo es el mismo. Esto significa que o si (a. De ad = bc obtenemos cb = da. b) ∼ (e. Luego bc = wv y por lo tanto la coordenada → → en x del vector − es igual a la de − m´ s bc.­ Si M es LI entonces existe una base N tal que M ⊆ N ⊆ E.1 p´ gina 38) T´ cnicamente hablando no ya que en el Cap´tulo 1 o a e ı definimos una operaci´ n binaria como una funci´ n A × A → A y la multiplicaci´ n de un o o o escalar por un vector es una funci´ n del tipo B × A → A. 2. ı u Ejercicio 38 (Secci´ n 1. Tenemos que αy 6= 0 (ya que x ∈ hNi).4 p´ gina 48) Solo en la prueba de que 2⇒4 al despejar a. f) entonces (a. d) ∼ (e. Ejercicio 41 (Secci´ n 2.2 p´ gina 39) Si α 6= 0 entonces tiene inverso y por lo tanto o a αa = 0 ⇒ a = α−1 αa = α−1 0 = 0 Ejercicio 44 (Secci´ n 2. Ejercicio 46 (Secci´ n 2.­ El conjunto vac´o es LI y todo el espacio E es o a ı generador. u b a c w v Ejercicio 40 (Secci´ n 2. b) ∼ (a.

0) por lo que (xy) z 6= x (yz) .­ El isomorfismo can´ ni­ o o co es ((a.4 p´ gina 52) Sea A una base de E.6 p´ gina 61) 1. Tenemos o a que f (g (x + y)) = f (g (x) + g (y)) = f (g (x)) + f (g (y)) y f (g (λx)) = f (λg (x)) = λf (g (x)) y esto era todo lo que se quer´a probar.5 p´ gina 54) Sean E → F → G transformaciones lineales. b) 7→ o a a o (b. 0) 1 = (1. Luego E ∩ F = {0} y por lo tanto S = E ⊕ F. Esta prueba es v´ lida independientemente ı a de si los cardinales de A y B son finitos o no. Soluciones de ejercicios selectos Ejercicio 49 (Secci´ n 2.4 p´ gina 79) T´ mese x = (1. 2. o Ejercicio 57 (Secci´ n 2.4 p´ gina 81) o a sin α cos α Ejercicio 70 (Secci´ n 3.­ Conmutatividad. Para cada pareja i. 0) 7→ a ∈ E o es un isomorfismo can´ nico. 0) . 1) y z = (1.20) alrededor del punto x0 . Supongamos que a 6= 0 ∈ E ∩ F entonces 0 = 0 + 0 = a − a lo que contradice que la descomposici´ n o ´ de 0 es unica.­ Es f´ cil probar que la aplicaci´ n E⊕F 3 (a.4 p´ gina 82) Para cualesquiera n ∈ N y k ∈ K tenemos o a (αnM βML ) γLk = X αnm X l∈L f g X l∈L (αnM · βMl ) γlk = X XX αnm βml γlk = l∈L m∈M βml γlk = m∈M m∈M αnm (βmL · γLk ) = αnM (βML γLk ) . 4. o a Ejercicio 53 (Secci´ n 2. Tenemos o a o (xy) z = 0 (1. 0) y x (yz) = (1. Luego. Por esto podemos considerar que E ⊕ {0} = E.14) existe una base B de F que contiene a A. µ ¶ cos α − sin α Ejercicio 69 (Secci´ n 3. Ejercicio 66 (Secci´ n 3. c)) 7→ (a.4 p´ gina 52) El conjunto de todos los polinomios ai xi tales que o a a0 = 0 es un subespacio de K [x] de la misma dimensi´ n que K [x]. Como cada vector o a se expresa como a + b con a ∈ E y b ∈ F tenemos S = E + F. Como F es generador y A ⊆ F es o a LI entonces por el Teorema de Existencia de Bases (2. o Ejercicio 51 (Secci´ n 2.130 ∅ ⊆ N ⊆ L. y = (0.­ Si. el espacio de las NM­matrices tiene dimensi´ n |N × M| = |N| |M|.4 p´ gina 53) Es consecuencia directa del Desarrollo de Taylor o a (1. 1) . c) 7→ (a. 1) = (0. Ejercicio 52 (Secci´ n 2. De aqu´ tenemos dim E = |A| ≤ |B| = dim F. (b. b. P Ejercicio 50 (Secci´ n 2. b) . 3. c).4 p´ gina 53) La diferencia entre el espacio de las (N × M)­adas o a y las NM­matrices es solo en las notaciones. la aplicaci´ n E ⊕ {0} 3 (a. j con i ∈ N y j ∈ M hay una matriz eij o en la base can´ nica la cual tiene su entrada ij igual a 1 y todas las dem´ s igual a cero. a) ∈ F ⊕ E es un isomorfismo can´ nico. ı Ejercicio 56 (Secci´ n 2.6 p´ gina 61) Denotemos por S a todo el espacio.

o a M2 = {2} y M3 = {3}. g y f ◦ g tienen que cumplir: o a ¶ ¶µ ¶ µ µ cos β − sin β cos α − sin α cos (α + β) − sin (α + β) = = sin β cos β sin α cos α sin (α + β) cos (α + β) µ ¶ cos α cos β − sin α sin β − cos α sin β − sin α cos β = cos α sin β + sin α cos β cos α cos β − sin α sin β y por lo tanto cos (α + β) = cos α cos β − sin α sin β sin (α + β) = cos α sin β + sin α cos β 131 Ejercicio 74 (Secci´ n 4. o u i=2 P el n´ mero de sumas es n i (i −¡1) = (n − 1) n (n + 1) /3 y el n´ mero de productos es u u i=2 ¢ Pn 2 n − 1 + i=2 i (i − 1) = (n − 1) n + n + 3 /3. Para la matriz A los bloques son M1 = {1} .Soluciones de ejercicios selectos Ejercicio 71 (Secci´ n 3. El de­ terminante de una matriz de este tipo es igual al producto de los determinantes de sus tres celdas diagonales. Adem´ s.3 p´ gina 101) Denotemos γMM = αω(L)M y ηMM = βMθ(N) . Ejercicio 78 (Secci´ n 4. Ejercicio 79 (Secci´ n 4. .4 p´ gina 109) o a El aspecto es el del recuadro a la derecha. Aqu´ hemos denotado ı por ∗ las entradas que pueden ser diferentes de cero. En cada diagonalizaci´ n de una columna en una matriz de orden i se utilizan i − 1 transformaciones o elementales. Las entradas con 0 son las que obligatoriamente tienen que ser cero. a hemos dividido con lineas los tres bloques de la matriz. . En cada transformaci´ n elemental de una matriz P orden i se utiliza una divi­ o de si´ n. Los determinantes de las tres matrices son iguales a abc. .4 p´ gina 83) Las matrices de f.7 p´ gina 121) Tenemos que diagonalizar una columna en una ma­ o a triz de orden i para i ∈ {n. ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ 0 0 ∗ ∗ ∗ 0 0 0 ∗ ∗ 0 0 0 ∗ ∗ Ejercicio 80 (Secci´ n 4.4 p´ gina 109) Las tres. M2 = {2} y M3 = {3}. 2} y al final multiplicar n elementos del campo. el n´ mero de divisiones es n (i − 1) = n (n − 1) /2. o a Sabemos que det (γMM ηMM ) = det (γMM ) det (ηMM ) y esto es todo lo que se necesitaba probar. Para la matriz C los bloques son M1 = {2} . i productos e i sumas. M2 = {3} y M3 = {1} ya que α23 = α21 = α31 = 0. . . Para la matriz B los bloques son M1 = {3} . Luego.

132 .

. . . . . . . 111 Base de una matriz. Entre las fracciones de un dominio de integridad se define la suma y el producto exactamen­ te de la misma manera que se definen estas operaciones en Q. . 81. Subconjunto de un conjunto ordenado que est´ totalmente ordenado. . . . 7. . Conjunto LI maximal . . 14. . . . 52. . . . 13. . . 82. ı Biyecci´ n mediante la cual los ´ndices de o ı una N­ada (o columnas. Todas las bases de una matriz tienen el o mismo orden . . . . . 66 a Cambio de ´ndices. . . . . 7. . 10. . . . . 22. Conjunto de vectores que es generador y LI. . . . . . . . . . Campo en el cual todo polinomio de gra­ do al menos uno tiene una ra´z. . Endomorfismo biyectivo . . . . . . . 39 Automorfismo. Conjunto de columnas diferentes que son una base del espacio de columnas . . . . . . . . . . . . 21. o renglones) obtie­ nen nuevos nombres. . . . . . . Los elementos mayores . . . . Para estas operaciones el conjunto de fracciones es un campo . . . . . 82 o Asociatividad del producto por escalares. 74. . . 56 Campo de fracciones. . 66. . . Espacio vectorial con un producto de vectores asociativo. . 76. 74 Anillo. 27 Asociatividad. . . . Campo el ı cual los polinomios irreducibles son todos de grado uno . . . 111 Base de los renglones. . 35 Campo ordenado. 58.´ Algebra. . . . 100 ı Campo. . . . . . . . . Anillo en el cual el producto es conmutativo . . 54. . 33. . . . . . El conjunto de N­adas {ei | i ∈ N} donde la j­´ sima coordenada de ei es el delta de Kro­ e necker δij . . . . Conjunto con dos operaciones binarias denotadas por + y • que es grupo abeliano para la suma. *. 22. 111 o Base can´ nica. . . . . . . 26 o Cadena. . . . . . . F´ rmula para expandir (x + y)n . 15. . . Conjunto de renglones diferentes que son una base del espacio de renglones . . . . . . 50. . . b y c del conjunto en el cual est´ definida la opera­ a ci´ n . 19. . . . . . . 96 ´ ´ Algebra conmutativa. . . . . . . Propiedad de algunas operaciones binarias que consiste en que a ◦ (b ◦ c) = (a ◦ b) ◦ c para cualesquiera elementos a. . . . . Axioma de espacio vectorial: (βa) = (αβ) a . . . Campo con una relaci´ n o de orden en el cual todo elemento es com­ parable con el cero. 20. . . . . . . . . 120. 74 Anillo conmutativo. . 118. Algebra en la cual el producto de vectores es conmutativo . . . . . . . . distributivo. . . . . . . . . 121 Binomio de Newton. . . . con ele­ mento neutro y que conmuta con el producto por escalares. 3. . . 8. . Es la operaci´ n en que o una biyecci´ n ω : N → L se le aplica a las o columnas de una matriz αMN para obtener la matriz βML = αMω(N) que cumple que βij = αiω − 1 (j) . . 85 Base de las columnas. . . . . . . . Submatriz no singular maximal por conten­ ci´ n. . . . . 12. . . . . An´ logamente se definen a los cambios de ´ndices de los renglones . . . . 34 Argumento de un complejo. . . 13 Base. . . . . . . . que el producto es asociativo con elemento neutro y distributivo respecto a la suma . . . . . Anillo conmutativo en el cual todo elemento diferente de cero tiene inverso . . . . . 27. .112. . 73. . . . . . . → − ´ El angulo que forma el vector 0z con el eje real del plano complejo . . . . . 83. 16 Campo algebraicamente cerrado. . . . . Conjunto generador minimal. .

66 a o Conjunto totalmente ordenado. . . 63. . . . . Propiedad de algunas que cero se les llama positivos y los menores que cero negativos. * Conjunto generador. . . . C no se puede or­ ı a denar. . . . . . . 103. . . . . oP Los vectores de u la forma i∈N αi i (donde solo un n´ mero finito de los ai es diferente de cero) . . . . . Conjunto ordenado en el cual dos elementos cualesquiera son comparables . . . (v´ ase polinomio) . . . . . Permutaci´ n o σ del grupo sim´ trico de N que cambia un e u conjunto {x0 . . . . . . . . *. . 22 Codominio de una funci´ n. . las o clases de equivalencia son los subconjuntos de A para los cuales a ≈ b si y solo si a y b est´ n en la misma clase . . . 102 Composici´ n de funciones. 109 Cerradura lineal. . Al efectuar la divisi´ n con resto de o un elemento p de un anillo conmutativo (Z. . . . . . . . . . . . . . . . . . . 48. . . . . . . . 55. . . . . . . . . . . . . . . . *. . . . . 86 o Coeficiente principal. . 48 Conjunto LI. 18. .134 cam – con potencia m´ s grande de la variable . . . . . Al conjunto B se le o llama codominio de la funci´ n f . . . . De la entrada αij es el escalar sgn ω det αN\i ω(N\j) donde ω es cualquier permutaci´ n de N tal o que ω (j) = i . . Los axiomas que debe cumplir la relaci´ n de orden son: o 1. . . . Conjunto de vectores A tal que ∀a ∈ A se cumple que hA\ai 6= hAi. . El coeficiente diferente de cero de un polinomio que multiplica a la . . 81. . . . . . . . . . . 13. 92 Clases de equivalencia. . Los campos R y Q est´ n ordenados. *. . . . . . . 111 Conjunto ordenado. * Conmutatividad. . . . . . . . 36. . 58 Ciclo. . los elementos de N var´an) se le llama j­´ sima ı e columna de la matriz αNM . 3. . . Acr´ nimo de conjunto o linealmente dependiente . . . . . . 101. . . Dada una matriz a αNM y j ∈ M a la N­ada αNj (j est´ fijo. . . o Operaci´ n entre dos funciones que consiste o en aplicar primero una funci´ n y despu´ s la o e otra . . 66 Conjunto LD. . . El producto de positivos es positivo. . 58 Complemento algebraico. . 102 Columna de una matriz. . Al elemento c se le llama co­ ciente de la division de p entre q . . El conjun­ to de todas las combinaciones lineales de un conjunto de vectores . . . . . . . . . . . . . . 73. . . . . . . . . . . . Campo cuyo unico subcampo ´ es el mismo . 21 e Cofactor. . . *. . . Es igual al n´ mero primo p u si el campo contiene como subcampo a Zp . . . Conjunto de vectores que no es LI . 91 Conjunto acotado inferiormente. . xn−1 } ⊆ N seg´ n la regla a σ (xi ) = xi+1 mod n y deja todos los dem´ s elementos de N fijos . . . El opuesto de un positivo es negativo. . . . . . Conjunto de vectores cuya cerradura lineal es todo el espacio . . . . . . . . . . . . . . . . . . . . . Conjunto en el cual est´ definida una relaci´ n de orden . . . . . Si ≈ es una relaci´ n de equivalencia en A entonces. . . . . . Adem´ s. . 48 Conjunto linealmente dependiente. 92. . ı Es cero si el campo contiene como sub­ campo a Q. 11. . 21 a Coeficientes de un polinomio. . . . . Ciclos tales que los conjuntos de elementos que ellos no dejan fijos no se intersectan . Cual­ a quier campo ordenado tiene que ser de ca­ racter´stica cero. . . . . . . . . . . 47. . . . . . 97. . . . 98. . . . Acr´ nimo de conjunto o linealmente independiente . . . 17 Caracter´stica de un campo. 46. . . . . . . . . . 45. . . . . . . . . . . 101 Campo primo. . . . Conjunto que tiene una cota inferior. 43. . . . . . 48 Conjunto linealmente independiente. . . 2. . . . 110 Ciclos disjuntos. . . . 79 Combinaci´ n lineal. . 67 a Cociente. . La suma de positivos es positiva. . . . . . K [x]) entre otro q obtenemos la igualdad p = cq + r. . 94. Conjunto ordenado no vac´o dentro del cual ı cada cadena tiene cota superior . . 9. . . Conjunto que tiene una cota superior . . . . o Sea f : A → B una funci´ n. . . . 54 Conjunto inductivamente ordenado. . . . . . . . . . 4. . . . . 54. . . . 31 Conjunto acotado superiormente. El opuesto de un negativo es positivo. . . . Cofactor . . . . . . . . .

. . . . . . . 66 Delta de Kronecker. . 70 Dimensi´ n. 31 Determinante. . . . . 85 Diagrama conmutativo. . *. . . . o Ecuaci´ n αN xN = βN o donde las N­adas αN y βN son conocidos y el vector xN es inc´ gnito . . 83 Cota inferior. . Una cota superior de un sub­ conjunto A de un conjunto ordenado B es un elemento b de B tal que cualquier elemento de A es menor o igual que B . . . . . . . . . . 86 o Ecuaci´ n lineal. . . . . . . . . 114 o . . . . . . . . . . . . 3 a o Contracci´ n. . . . . 26. . . a2 . . . De la n­ada (a1 . . . . . . . . o ı Si E es una traslaci´ n del subespacio E entonces la o dimensi´ n de E es la dimensi´ n de E . . . . . . 31 Cota superior. . . . . . . 73. . . . . . . . . . . . . 64 o o Distributividad. . . . . . Relaci´ n de una operaci´ n o o binaria ¦ con respecto a otra ◦ que consiste en que las igualdades a ¦ (b ◦ c) = (a ¦ b) ¦ (a ¦ c) (b ◦ c) ¦ a = (b ¦ a) ◦ (c ¦ a) se cumplen para cualesquiera elementos a. . . . . . . . . es el isomorfismo P F 3 i∈N αi i 7→ αN ∈ K{N} . Al conjunto A se le llama dominio o de la funci´ n f . . . . . . . . . . . . Diagrama en el cual cualesquiera dos caminos dirigidos (que si­ guen el orden de las echas) de un conjunto a otro representan dos descomposiciones de la misma funci´ n como composici´ n de las o o funciones de las echas de los caminos . . . . Axioma de espacio vectorial: α (a + b) = αa + αb y (α + β) a =αa+βa . . . 120 Diagonalizaci´ n de una columna. . . . . . . . . . . o Dada una base N de F. 82. . . . 22 Dominio de integridad. 87 Dimensi´ n de un subespacio af´n. 59. . . . . . . . . . . . . . b y c del conjunto en el cual est´ definida la a operaci´ n . . . . . o El cardinal de cualquier base 51. . . . . . 39 Coordinatizaci´ n. . . . . . . . . . 96 Desarrollo de Taylor. . . . . . . . . . . . . . . . 70 Coordenada. . . . . 55. . . . . . Homotecia cuyo escalar es un real o mayor que 1 . . . . . QEl determinante de αNN es P σ∈ SN sgn σ i∈N αiσ i . . Para dos elementos p y q de un anillo con divisi´ n se dice que q es o un divisor de p si el resto de la divisi´ n de p o entre q es cero. Expresi´ n de una P on como serie de po­ o funci´ tencias f (x) = ai (x − x0 )i . . . . . . . . . . . . . Sea f : A → B una o funci´ n. . . . . . . . . . . . . . . . . . . 20. . . El coefi­ e ciente de la serie ai es la i­´ sima derivada de f evaluada en el punto x0 . . . . . . . . . Funci´ n δij de dos variables que toma valor o 1 si i = j y toma valor 0 si i 6= j . . . . . . *. 19. . . 120 Diagrama. Reperesentaci´ n o gr´ fica de una familia de conjuntos y de fun­ a ciones entre ellos mediante la utilizaci´ n de o echas . . . . Anillo conmutativo en el cual el producto de elementos diferentes de cero es diferente de cero . . . . . . . . . .. . . . . . . . . . . . 82 o Distributividad del producto por escalares. . . . . .95. . . . . . . . . . . .. Una cota inferior de un subconjunto A de un conjunto ordenado B es un elemento b de B tal que cualquier elemento de A es mayor o igual que B . De la N­ada aN es alguno de los ai para i ∈ N . . . . . . . . . . . . Determinante de su matriz en una base. . . . . an ) es alguno de los ai . .. 64. . . . . 18. . 107 Diagonalizaci´ n de un rengl´ n. . . . . . . 35 Dominio de una funci´ n. . . . . . . . . . . . . . . . . . . 120 Determinante de un OL. . . . . 26. . . . . No depende de la base escogida . . 5. .con – ecu operaciones binarias que consiste en que a◦b=b◦a ∀ elementos a y b del conjunto en el cual est´ definida la operaci´ n . . 11. . . 15. . . o Homotecia cuyo escalar es un real mayor que 0 y menor que 1 . . . 85 Dilataci´ n. . . o o Transformaci´ n de una matriz que consiste o en lograr que en un rengl´ n todos las entra­ o das excepto una se hagan cero mediante una serie de transformaciones elementales de las columnas . . . . o Transformaci´ n de una matriz que consis­ o te en lograr que en una columna todos las entradas excepto una se hagan cero median­ 135 te una serie de transformaciones elementales de los renglones . . . . . . . . . . . . . . . 39 Divisor. . .

. . . . . . . *. . . . Divisor de grado al menos 1 de un polinomio . . . . Elemento del cam­ po (¡la escala!) sobre el cual est´ definido el a espacio vectorial . . . Grupo abeliano con un producto por escalares distributivo. . o o De un polinomio p (x) es la funci´ n: o p : K 3 b 7→ p (b) ∈ K. . . . 34. . 54 Funci´ n inyectiva. . . . . . . . . . . 111 Espacio vectorial. . . . . . . . . . . . . . 111 Espacio de renglones. . . . Elemento tal que cualquier otro no es menor que el. . o Funci´ n inyectiva. *. o La que a todo elemento le corresponde el mismo . . . . 13 Escalar. . . . . . . . . . . . . 70 Funci´ n racional. . . . . . . . * Funci´ n antipodal. . 112 Elemento minimal. . . . . . 49. . . . . 49 Elementos comparables. . . . . Extensi´ n o o o que es transformaci´ n lineal. . . 62. . . . . 100 Funci´ n continua. . . Formalmente. . o Ecuaci´ n AX = B o donde la matrices A y B son conocidas y la matriz X es inc´ gnita. . 75 o Factor de un polinomio. . . 50 Endomorfismo. . 56. . . . . . . . . 43 Epimorfismo. . . . . 70 Funci´ n inversa. . . . . . . . . . 8 Funci´ n. 25 o Forma polar de un complejo. . . . . . . . . . . . . . . . . una o funci´ n f : A → B es un subconjunto del o producto cartesiano f ⊆ A × B que cumple ´ que para cualquier a ∈ A existe una unica pareja (a. o La fun­ ci´ n f es continua en z0 si ∀ε > 0 ∃δ tal que o kz − z0 k < δ ⇒ kf (z) − f (z0 )k < ε . . . . . . 91. . . . . . . . . . o Informalmente es una regla o procedimiento mediante el cual para cada elemento de un conjunto a podemos obtener ´ (calcular) otro unico elemento f (a) de otro conjunto y que llamamos la imagen de a mediante la funci´ n f. . . . . . Elemento tal que cualquier otro no es mayor que el . o La que a todo elemento le corresponde el cero . . . . . . . el espa­ cio cociente F/E es el conjunto de todos los subespacios afines paralelos a E dotado con la suma de subespacios afines y el producto de subespacios afines por escalares . . . . . . . . . . . . . . . E es un subespacio de F entonces. . . . . . . . . . . . . . . . . . asociativo y con neutro. . . . . . . . . . . Funci´ n continua en todos o o los puntos de su dominio. . . 87 ´ Funci´ n nula. . . . . . . . . . . 73 Extensi´ n de una funci´ n. . o Fracci´ n de dos polinomios . . . . 13 Entensi´ n lineal de una funci´ n. . . . . . 39. . . .136 ecu – fun Es la expresi´ n r (cos ϕ + i sin ϕ) donde r o es el m´ dulo de z y ϕ es el argumento de o z . . . . 66. 38 Si Espacio cociente. . . . . . . . . . . La funci´ n x 7→ −x . . . . . . . . . . . . . . *. . . 27 F´ rmula multinomial. . . . . . . El espacio generado por las columnas de una matriz . . . . . . . El espacio generado por los renglones de una matriz . . Coordenada de una NM­ada . . o Una funci´ n tiene inversa si y solo si esta es o biyectiva . . . . . . . . . o Cada elemento de la imagen tiene una unica preimagen. . . 70 o o Funci´ n biyectiva. . . . . . . . . . 88 Espacio de columnas. o F´ rmu­ o la para expandir la n­sima potencia de una suma . . . . . . . 20 Fracci´ n. . . . . 28 Funci´ n continua en un punto. . . . . . . . . . . . . . . . . . . . Dos fracciones a/b y c/d se consideran iguales si ad = bc . . . . . Dos elementos a y b de un conjunto ordenado para los cuales o a ¹ b o b ¹ a o los dos . . . . . . o o Si f es una restricci´ n de g entonces g es o una extensi´ n de f . . . 122 o Elemento maximal. . . . . . *. . . 37. . . . . . . . . o La inversa de una funci´ n f : A → B es una o funci´ n g tal que f ◦ g = IdB y g ◦ f = IdA . . . . . . . . Pareja de elementos de un dominio o de integridad (por ejemplo K (x) o Z) que se denota por a/b. Si la funci´ n o o tiene como dominio una base. . . . Morfismo sobreyectivo . . . . . . . . . 28 Funci´ n de evaluaci´ n. . . . . . . . b) ∈ f. . . Factor m´ nico diferente al polinomio . . . . 76 o Entrada de una matriz. . . . . . . 36 o Ecuaci´ n matricial. . *. . 23 Funci´ n identidad. . 22 Factor propio. . . . . . . . . 65. Morfismo cuyo dominio y codominio coinciden . y o sobreyectiva . . . . . . . . . . . . . . . . . . . . . . . . . entonces la ´ extensi´ n lineal existe y es unica . . 65. . . . . *. .

. . (v´ ase: Funci´ n). . . . . . . . un complementario. . . . . . 91 Grupo abeliano. . 45 ı o Matriz. . . Transformaci´ n lineal biyectiva . Ideal formado por todos los m´ ltiplos de un polinomio . . . . . . . . o Funci´ n tal que su o imagen coincide con su codominio . . . . . . 70 Ideal. . . . . . . . . . . . . . . . Transformaci´ n o lineal que consiste en la multiplicaci´ n por o un escalar . . No est´ definido el a grado del polinomio cero . . . . . 16. ∀p ∈ I ∀r ∈ A rp ∈ I . . . . Conjunto con una ope­ raci´ n binaria asociativa que tiene elemento o neutro y en el cual todo elemento tiene in­ verso . La inversa de cualquier isomorfismo es tambi´ n un isomorfismo . . . . 94 Grupo general lineal. 60. . . . . . . . 54 L´mite de una sucesi´ n. . 23 Ideal principal. 12. . . . . etc. * e o Imagen de una funci´ n. . 104 Funcional lineal en una variable. . 7. . . . . . . . . 60 e Isomorfismo can´ nico. . . . . . . 21 Grupo. . . . . . . . . . 86 Inverso. . ı Subespacio af´n de dimensi´ n uno. 54. . . . 75 Grupo sim´ trico. . . . . . . . El grupo de auto­ morfismos de un espacio vectorial. . El n´ mero m´ ximo x tal que x ≤ a para u a cualquier a ∈ A. . . . 2. . . 77 o Isomorfismo lineal. . 88 Funcional. . . . 24 u 137 Idempotencia. . . . Para el ´nfimo x de A ı siempre existe una sucesi´ n {ak } de elemen­ o tos de A cuyo l´mite es x. . . . . . 32 ı Inmersi´ n. . . La imagen de su transformaci´ n lineal. . . . . . Morfismo biyec­ tivo. . . . Funcional lineal en todas sus variables . . . . . . . . . . . . . . Funcional lineal en sus dos variables . El m´ ximo de las cotas superiores . . . . . *. . . . . 46 Igualdad de Moivre. . Funci´ n de muchas variables con imagenes o en un campo que para cualesquiera valores fijos de las dem´ s variables determina un a funcional lineal de la variable que se tra­ ta. q ∈ I p + q ∈ I. . Propiedad de una funci´ n que o consiste en que f ◦ f = f2 = f . o Isomorfismo cu­ ya construcci´ n no depende de escoger algo o (una base. . . . . . . . . . . . Funcional que es una TL . . . La potencia ma­ yor de la variable con coeficiente diferente de cero. . . . . . . . .) . Si el grado es cero el polinomio es un elemento del campo. . . . . . . . . . . . 5 Isomorfismo. . . . . . . . Isomorfismo de espacios vectoriales . ı o ı La sucesi´ n {zk } tiene l´mite z si ∀ε > 0 ∃N o tal que ∀k > N kzk − zk < ε. . . . . . Subconjunto I de un anillo A tal que 1. . . . e El grupo de todas las permutaciones con la operaci´ n de composici´ n . . o Restricci´ n de la funci´ n o o identidad a un subconjunto . o El conjunto de los elementos del codominio que tienen alguna preimagen. . . . El subgrupo (del grupo sim´ trico) de todas e las permutaciones pares . o Su espacio de columnas . . . 91 o o Homotecia. . Es una NM­ada o sea un conjunto . . . . . . . . . . . . . . 104 Funcional bilineal. . . . . .fun – mat Funci´ n sobreyectiva. . . . . . Funci´ n de un espacio vectorial o en su campo . . . . . . 71. . . . . 31 a ´ Infimo de un conjunto de reales. . . . . . . . . Se denota por Im f . . . . 28 Imagen de un elemento. . . . . . . . . . . ∀p. . . . . . . . . . 104 Funcional lineal. . . . 118 ´ Infimo. . . 64. . . . De un elemento a para la operaci´ n o binaria ◦ es un elemento b que cumple que a ◦ b = b ◦ a = e para cualquier elemen­ to a del conjunto en el cual est´ definida la a operaci´ n. 11. . 7 o Grupo alternante. 65 Isomorfismo de espacios vectoriales. 13. 75. . . . . . . . . . . . . . . 104 Grado de un polinomio. . . . . . . . 66. Grupo en el cual la operaci´ n es conmutativa . 104 Funcional multilineal. . . . . . . . . . . . . . . 30 L´nea. . . . F´ rmula para calcular o la n­esima potencia de un n´ mero complejo u en forma polar . *. *. . . . . . . . . . . . . . . 86 Imagen de una matriz. . . . . . . . . . . . El grupo de operadores lineales no singulares . . . . En los anillos y campos es el inverso para el producto . . . . Si un elemento tiene inverso en­ o ´ tonces este es unico. . . . . . . . . . .

. . . . . . . . . 109 Matriz diagonal por bloques. 101. . . 109 Matriz triangular por bloques. . . . . . . 117 Matriz cuadrada. 84 Matriz del sistema. . . . . Si ´ existe entonces. . . . . . . . . o O sea. . . 46 Morfismo. . . . . . m} y tal que en su representaci´ n gr´ fica todas las entradas por o a debajo de la diagonal son cero . . . el m´ ximo es unico . . 99 Matriz de una transformaci´ n lineal. . . . m} y tal que en su representaci´ n gr´ fica todas las entradas por o a encima de la diagonal son cero . . . o La matriz que se obtiene al permutar las columnas o los renglones de la matriz identidad. . . . . . . . . . . . . . La matriz INN cuyas entradas son el delta de Kronecker: unos en la diagonal y ceros en el resto de las entradas. . . *. .82. . . . . . . 106. . . . . . . . La matriz A del sistema de ecuaciones lineales Ax = b . o La longitud del → − vector 0z en el plano complejo . . . . . 83 Matriz de cambio de base. . . . Matriz cuadrada con determinante igual a cero . La matriz cuadrada αMN es la inversa de βNM si βNM αMN = INN . . . . . . 115 Matriz diagonal. . Si ambos N y M son finitos entonces. . . . . . . para cualquier j ∈ N se cumple que P f (j) = i∈M αij i . . . . . . . . . . . . . . . . . . . Matriz αMM en la cual hay una partici´ n del conjunto de o ´ndices M1 ∪ · · · ∪ Mt = M y que αij = 0 ı si i y j pertenecen a bloques diferentes . . ı El m´nimo de ı un subconjunto A de un conjunto ordenado B es una cota inferior que pertenece a A. 111. . . . . . . . . . . .138 mat – mor y αMN βNM = IMM . . . . Matriz αMM en la cual hay una partici´ n del conjunto de o ´ndices M1 ∪ · · · ∪ Mt = M y que αij = 0 ı si i ∈ Mp . . . . . . . . . . 96 o Matriz inversa. . . . Matriz con la misma cantidad de columnas y renglones . 27 Monomorfismo. . . . . Matriz αMM en la cual si i 6= j entonces. . . Si βV son las coordenadas de un vector en la base V entonces αNV βV son las coordenadas del mismo vector en la base N . 82. . . 43 Matriz ampliada. . . 111. . . . Funci´ n entre dos anillos que es morfismo o para la suma y para el producto . . Matriz triangular por bloques en la cual cada bloque es de cardinalidad 1 . . . 31 ı M´ dulo de un complejo. . . . . . . . Del sistema Ax = b es la matriz [A|b] . 115 Matriz triangular. . 84 Matriz de permutaci´ n. . 10. el m´nimo es unico . . 78. . . Matriz que tiene exactamente un 1 en cada rengl´ n o y columna y todas las dem´ s entradas son a cero . . . Una matriz cuadrada tiene inversa si y solo si su determinante es dife­ rente de cero. . . . . . 109 Matriz triangular superior. . Si ´ existe entonces. 13 Monoton´a. . . . . 12 Morfismo de campos. . . 122 Matriz singular. . . . . . . . . . . . ı Propiedad de una funci´ n de un conjunto ordenado a otro que o consiste en que x ≤ y ⇒ f (x) ≤ f (y) . . . 109 Matriz identidad. Es una funci´ n f : A → B que o cumple que f (x ◦ y) = f (x) • f (y) donde ◦ es una operaci´ n definida en A y • es una o operaci´ n definida en B . . Matriz αMM en la cual M = {1. o O sea. 109 M´ ximo. . . . 118. basta comprobar una de las dos igualdades. . . . para cualquier v ∈ V se cumple que P v = i∈N αiv i. . . . a El m´ ximo de a un subconjunto A de un conjunto ordenado B es una cota superior que pertenece a A. . Escogidas dos bases V y N de un espacio vectorial la matriz αNV cuyas columnas son los coeficientes de las expresiones de la ba­ se V como combinaci´ n lineal de la base N. . o Escogidas una base N en el dominio y otra M en el codominio de una TL f la matriz αMN cuyas columnas son los coeficientes de las expresiones de las imagenes de la ba­ se N como combinaci´ n lineal de la base M. . 101. . . . . . . . αij = 0 . Matriz αMM en la cual M = {1. . j ∈ Mq y p < q . . . . . 81. . Morfismo inyectivo . . . indexado por dos conjuntos . . . . La matriz de la transformaci´ n lineal identidad . . 109 Matriz triangular inferior. . . . . . 53 o Morfismo de anillos. * a M´nimo.

. . 25 . . . . . . . . Nucleo igual a {0} . . . . . 87 Nulidad de una matriz. 23 u ´ Multiplo. . o Permutaci´ n o que se descompone en la composici´ n de un o n´ mero par de transposiciones . . . . . . . . . . . . . Para ani­ llos y espacios vectoriales la preimagen del cero . . . . 118 Neutro. . . .11. . 74 Operador singular. . . an ) del producto cartesiano An . . . . . El n´ mero de elementos u que un ciclo no deja fijos. . . La preimagen del cero 86 Nucleo trivial. . . . . . o Polinomio cuyo coeficiente principal es 1 . . . . . . . . . . . . . . . . 139 La dimensi´ n de su nucleo . . αN : N 3 i → αi ∈ A. . 75 Opuesto. . . . . De una operaci´ n binaria ◦ es un elemento e o que cumple que a ◦ e = e ◦ a = a para cual­ quier a del conjunto en el cual est´ definida a la operaci´ n. . . . . . . . . . . . . . Funci´ n f de un espacio vectorial a otro so­ o bre el mismo campo que es un morfismo de los grupos abelianos de vectores y que cum­ ple f (αa) = αf (a) para cualquier vector a y cualquier escalar α . . . . . . . . . . . 4 Nucleo de un morfismo. . . 39 N­ada. . . Biyecci´ n de un conjunto finito o o en si mismo . . . . . . . . . . . . . .mor – pol Funci´ n entre dos campos que es morfismo o para la suma y para el producto . El inverso de un elemento de un anillo o campo respecto a la suma . . . . . . . . . . . . . . . . . . . 91. . . . . . . . 97 Permutaci´ n de los renglones . . . . . Cada ra´z apare­ o ı ce tantas veces como su multiplicidad . . . . . . . 7 Orden de un ciclo. 23 Nucleo de una matriz. . . . . . . . . . . . . . . 94 u Permutaci´ n par. . . . . . . o Es la operaci´ n en que una permutaci´ n ω se o o le aplica a las columnas de una matriz αMN para obtener la matriz βMN = αMω(N) que cumple que βij = αiω − 1 (j) . . . . . . . . 45 ı o Polinomio. 64. . . . . . . 119 o OL. . . . . . . . Morfismo cuyo dominio y codominios son grupos . . . . Elemento (a1 . 12 Morfismo de espacios vectoriales. . . . . . . . . 118. . Para dos elementos p y q de un anillo con divisi´ n se dice que p es o un m´ ltiplo de q si ∃c tal que p = cq . . . A N se le llama el conjunto de ´ndices y a las αi se le ı llaman coordenadas . . . . . . . . 97 Permutaci´ n impar. . 54 Morfismo de grupos. . . . . 80. . . . . . . . . . 74 o Operaci´ n binaria. . . El n´ mero de renglones y columnas de una u matriz cuadrada . . . . . . . . . . . . . o Es la operaci´ n en que una permutaci´ n ω se o o le aplica a los renglones de una matriz αMN para obtener la matriz βMN = αω(M)N que cumple que βij = αω − 1 (i)j . . . 100 Multiplicidad de una ra´z. . El el caso de grupos la preimagen del neutro. . . . . . . . . . . . . . Subespacio af´n de dimensi´ n dos . . . . . . . . . Si una operaci´ n tiene neutro o o ´ entonces este es unico . . . . Polinomio m´ nico de o grado al menos 1 sin factores propios . . . o Funci´ n mediante la cual para cualesquiera o dos elementos a y b de un conjunto A po­ demos encontrar otro elemento de A que es el resultado de la operaci´ n . . . . . . .. . . . . Transformaci´ n lineal de un o espacio en si mismo . . . . . o Permutaci´ n o que se descompone en la composici´ n de un o n´ mero impar de transposiciones . 2 o Operador lineal. . . . . . . . Acr´ nimo de operador lineal . . . .. . . . . . . . . . . . a2 . . . . . . . 25 Polinomio m´ nico. OL no biyectivo . . . . . .. . . 94 u Plano. . 99 Permutaci´ n de las columnas. 86 Nucleo de un polinomio. . . . . . . . . .P Expresi´ n o formal n ai xi donde los coeficientes ai i=0 son elementos de un campo . . . . 91. . . 21 Polinomio irreducible. . 121 Nucleo de una TL. La colecci´ n de sus raices. . . . . . . . . . . . . . . . . . . . . . . 92 Orden de una matriz. . Funci´ n en una notaci´ n o o diferente. . 22 u n­ada. . . . . . . . . . . . El conjunto soluci´ n o o de un sistema de ecuaciones con vector de coeficientes libres igual a cero . . ı El elemento del campo α es una ra´z de multiplicidad n del ı polinomio p si n es el mayor natural tal que p es un m´ ltiplo de (x − α)n . . . 101 Permutaci´ n.41. . El nucleo de su transformaci´ n lineal. .

. . . 72 o Producto de un vector por una matriz. . . reexiva y transitiva. Regla mediante la cual se hallan los signos de los cofactores . o La dimensi´ n de su imagen . . . . . . . . (a ≈ b) ⇒ (b ≈ a) . . . . . De una funci´ n f es o Preimagen de un elemento. . . . . . . . . . 80 Producto de una matriz por un vector. 79 Proyecci´ n. 121 o Regla del tablero de ajedrez. . En par­ o ticular. . o Funci´ n que a cada permutaci´ n le hace co­ o o rresponder 1 si esta es par y −1 si esta es impar. . . . En este caso las proyecciones son TLs . . ı Elemento del campo en el cual la funci´ n de evaluaci´ n o o del polinomio toma valor cero . . . A los elementos del campo i=0 ai se le llaman coeficientes de la serie. . . *. . . * Relaci´ n reexiva. a = b . o Subconjunto del producto cartesiano A × A = A2 . . . Es la combinaci´ n lineal de las columnas de la o matriz cuyos coeficientes son las coordena­ das del vector. . K [x]) entre otro q obtenemos la igual­ dad p = cq + r. . . . Al elemento r se le llama resto de la division de p entre q . . El orden de sus bases. b) 7→ a se le llama o proyecci´ n de C a A a lo largo de B. Es la combinaci´ n lineal de los renglones de la o matriz cuyos coeficientes son las coordena­ das del vector. . 71. 114. la funci´ n f : c = (a. . . . El signo es un morfismo del grupo sim´ trico en el grupo multiplicativo {1.L es la matriz cuyas en­ tradas son los productos escalares can´ nicos o γij = αiN βNj de los renglones de αMN por las columnas de βNL . . 63 e Relaci´ n de orden. . . o e Si a ≈ b y b ≈ a entonces. . *. . . . . . . o Si C = A × B entonces. . . Producto bilineal de dos vectores cuyo resultado es un escalar . . . . . . . . . . * Relaci´ n sim´ trica. . . . . . . . 112 Relaci´ n en un conjunto. . . . . . . . . . . . . . o La dimensi´ n de su espacio de renglones. . . . . . . . . o Si en el codominio de f est´ definido un pro­ a ducto por escalares entonces λf es la fun­ ci´ n tal que (λf) (a) = f (λa) . o e reexiva y transitiva . . . . . . . . . . . 66. . . . . . . . . . . . . . 79. . 75 Serie. . . . . o Relaci´ n o sim´ trica. o Relaci´ n antisim´ trica. *. Si αMN y βNL son dos matrices entonces γML = αMN βN. . . . . 98 Producto de un escalar por una funci´ n. 23 Rango de una matriz.140 pre – sop de una matriz en forma gr´ fica. 89 o Soporte. . . . . . . 80 Producto escalar. . . . . . . . . . . . . . Sea b un elemento del codominio de f. . . . 40 Signo de una permutaci´ n. Al efectuar la divisi´ n con resto o de un elemento p de un anillo conmutativo (Z. . . . o Si a ≈ b y b ≈ c entonces. . . . . . . Subespacio af´n de dimensi´ n cero 64 ı o Ra´z de un polinomio. 79 Producto escalar can´ nico. . . . . . . . . . . . * o e Relaci´ n transitiva. o Dada una matriz a αNM e i ∈ N a la M­ada αiM (i est´ fi­ jo. . . . . 86 Producto de matrices. . b ≈ a . El nucleo del signo es el grupo alternante si el campo es de carac­ ter´stica diferente de dos . . . . . 43. La dimensi´ n de su espacio de columnas. . . . . . . . . 113. . . . . . . . . . . . . . . . . . . . 103 Relaci´ n antisim´ trica. . . . . . . . * Relaci´ n de equivalencia. . Ecuaci´ n Ax = b donde la matriz A y o el vector b son conocidos y el vector x es inc´ gnito . . . . . . . . . . . . . . . . o o Una funci´ n f : A0 → B se le llama restric­ o ci´ n de g : A → B si A0 ⊆ A y para cual­ o quier a ∈ A0 se cumple f (a) = g (a) . . La preimagen de b es el conjunto de todos x en dominio tales que f (x) = b. . . . nosotros la usamos en el caso de que E = F ⊕ G (¡la suma directa es un producto cartesiano!). . . . . . P Expresi´ n formal del o tipo ∞ ai xi . . . . . . . . . . . . o Producto escalar definido en K{N} como: P αN βN = i∈N αi βi . . . . . 79 e o Resto. . . . . 14 Restricci´ n de una funci´ n. . . . . . . . . 22. . . . . . . El signo del a cofactor de αij es (−1)i+j . * Rengl´ n de una matriz. −1} e de cualquier campo. . . o Para todo a se tiene a ≈ a . 86 Punto. . los elementos de M var´an) se le llama ı i­´ simo rengl´ n de la matriz αNM . . . . 94 ı Sistema de ecuaciones lineales. .

. . . . . . . . . an . 69 o o Transformaci´ n elemental. . . 43. . . . 16. . . . . . . . 61. . . a1 . . . . . . . . . . . . 16 o a Submatriz. . Un conjunto indexado por n conjuntos de ´ndices . . . . 120 Transformaci´ n lineal.) del conjunto AN de funciones f : N → A . . . . 86 Subgrupo. . . . . . . 86 Subespacio af´n. . 43 ı TL. . . . . De una combinaci´ n o lineal es el conjunto de sumandos con coefi­ ciente diferente de cero . . El produc­ to cartesiano de los subespacios con la suma definida por coordenadas y tambi´ n el pro­ e ducto por escalares. . Una transformaci´ n elemental de los o renglones consiste el sumarle a un regl´ n o otro multiplicado por un escalar. . . 38 Vector columna. . . . . . .. . . . . El m´nimo de las cotas inferiores * ı Tensor de exponente n. Matriz con una sola columna . . . . . . . . Subconjunto de un grupo que es un grupo para la misma operaci´ n del grupo m´ s grande . . . . . Dos subespacios cuya suma es todo el espacio y cuya intersecci´ n es el ori­ o gen. . . . . . . . . . 97 Traslaci´ n de un conjunto de vectores. . . . . . . 80 Vector de coeficientes libres. . . . o Ciclo de orden dos . 63 o Subespacios complementarios. . . . . 37. . . . . . . . .sub – vec el conjunto de elementos del dominio cuya imagen es diferente de cero. . Transformaci´ n o o de una matriz que es la base del m´ todo de e Gauss. Dos subespacios afines son paralelos si uno es traslaci´ n del otro . . . . . .. . . . 65. . . . . . . . De una N­ada es el conjunto de ´ndices cuyas coordenadas ı son diferentes de cero. . . . . . . 63. . . . o Matriz con un solo rengl´ n . . . 16 a Subcampo. 45. . 72. . . . . . . . 59 Supremo. 54. Si la intersecci´ n de dos o subespacios tiene dimensi´ n cero entonces. . . . . . . . . . 89. 92 Transpuesta. . . . . . . o la suma directa de ellos es can´ nicamente o isomorfa a la suma . . . . . . . . . . . o Elemento (a0 . . . Cerradura lineal . . . An´ loga­ a mente se definen las transformaciones ele­ mentales de las columnas . . . . . . . . . . . 42 a Subespacio. 44. . 72 Suma directa de espacios. . . Subconjunto de un anillo que es un anillo para las mismas operaciones del anillo m´ s grande . . . 112 Sucesi´ n. Dada una matriz αNM a cualquier matriz αN 0 M 0 tal que N0 ⊆ N y M0 ⊆ M se le llama submatriz de αNM . . . . . . . .. . . . 46 Subespacios afines paralelos. 80 Transposici´ n. Elemento de un espacio vectorial. o La sucesi´ n {zk } es acotada si existe un real o M tal que ∀k kzk k ≤ M . . . Subconjunto de un espacio vectorial que es a su vez es­ pacio vectorial para las mismas operaciones que las de todo el espacio . . o sea si A = αNM y AT = B = βMN entonces αij = βji . . . . . Acr´ nimo de transformaci´ n lineal . . . . . . 57. o Morfismo de espacios vectoriales . . Si en el codominio mutuo de f y g est´ defi­ a 141 nida una suma entonces f + g es la funci´ n o tal que (λ + g) (a) = f (a) + g (a) . . . 30 o ı Suma de conjuntos. . . . . . . En Rn son los segmentos dirigidos del origen a un punto del espacio . . . . Si A y B son conjuntos y entre sus elemen­ tos hay una operaci´ n de suma entonces: o A + B = {a + b | a ∈ A y b ∈ B} . . . . . 61. . . . . . . . 69. .. . . . . . . . . . . . . . . ı Traslaci´ n de un subespacio . . . . . El vector b del sistema de ecuaciones lineales Ax = b.. . . . . . 71. . . . . 41. . . . . . . . Subconjunto de un campo que es un campo para las mismas operaciones del campo m´ s grande . . . . . 40 Sucesi´ n acotada. . . . . . . . . . . . . 80 o . . 76 Transformaci´ n lineal de una matriz. . . . . 58 Suma de funciones. . . . . . 63. . Matriz que se obtiene de otra intercambiando los sub´ndices de sus entra­ ı das. . o o Dada la matriz αMN es la funci´ n: KN 3 βN → αMN βN ∈ KM . . . . . . . o Una sucesi´ n que tiene l´mite . . 56 Subanillo. . . . . . . . . . . . . . o Si A es un conjunto de vectores y x otro vec­ tor entonces A + x es la traslaci´ n de A con o el vector x . 118 o Subespacio generado. . . . 115 Vector rengl´ n. 30 Sucesi´ n convergente. . . . . . 63 Vector. . . . . . .

142 vec – vec .

Menos uno es el opuesto de 1 en un anillo o campo. B contiene a b. . . b∈B B3b A⊆B A⊇B AÃB . El conjunto de todos las n­adas (a1 . . ´ El algebra de series en la variable x con coeficientes en K. . Cero es elemento neutro para la suma de un anillo o campo. P es necesario para Q. El anillo de restos m´ dulo n. El grupo sim´ trico de N. A×B El producto cartesiano de dos con­ juntos. b) con a ∈ A y b ∈ B. ´ Existe y es unico. O sea. El conjunto de los naturales. A ⊆ B y A 6= B. A 2 El conjunto de todos los subcon­ juntos del conjunto A. ´ El algebra de polinomios en la va­ riable x con coeficientes en K. P y Q son equivalentes. A ! B A es sobreconjunto propio de B. AN El conjunto de todas las funciones f : N → A. Matriz identidad. P es suficiente para Q. A∪B La uni´ n de A y B. e El grupo alternante de N. P ⇐ Q P solo si Q. El campo de los reales. El campo de los complejos. El campo de funciones racionales en x con coeficientes en K. El espacio de las N­adas. El conjunto de todas las funciones f : A → {0. El vector cero. 0 0 1 −1 INN IdN ℵ0 K Kn KN K [x] K [[x]] K (x) N Z Zn Q R C SN AN b pertenece a B. El anillo de los enteros. o A∩B La intersecci´ n de A y B. El origen de coor­ denadas. . . P ⇔ Q P si y solo si Q. o A\B La resta de conjuntos.∀ ∃ ∃! P⇒Q Para todo. P implica Q. n} entonces AN = An . El espacio de las n­adas. A es sobreconjunto de B. La funci´ n identidad. La permuta­ o ci´ n identidad o El cardinal de N. Si N = {1. . Si P entonces Q. Un campo arbitrario. Uno es el elemento neutro para el producto de un anillo o campo. El conjunto de todas las pa­ rejas (a. 1}. A es subconjunto propio de B. Existe. o Para n primo Zn es un campo. . El campo de los racionales. El conjunto de los elementos de A que no per­ tenecen a B. n A El producto cartesiano de A con­ sigo mismo n veces. El conjunto de todos las N­adas aN donde ∀i ∈ N el elemento ai pertenece a A. P es necesario y suficiente para Q. A ⊇ B y A 6= B. an ) a donde todos los ai est´ n en A. A es subconjunto de B. O sea.

es la o matriz cuyas columnas est´ n inde­ a xadas por L mediante el cambio de ´ndices ω. El conjunto de vectores A trasla­ dado mediante el vector x. La matriz cuyas columnas son las de A y las de B. La matriz cuyos renglones son los de A y los de B. o u hNi La cerradura lineal de N. f:A→B Una funci´ n que tiene dominio A o y codominio B. ı La suma directa de dos espacios. l´m zk ı dim E sgn π det A Im f Ker f A+B λA El l´mite de la sucesi´ n {zk }. La j­´ sima columna de la matriz e αNM . o en los n´ meros enteros y en los u polinomios con coeficientes en un campo.144 A− N Notaciones Las permutaciones impares de N. La im´ gen de la funci´ n f. Por ejemplo. n! El factorial del natural n. Puede ser finito o infinito. kzk El m´ dulo del n´ mero complejo z. El con­ junto de todas las combinaciones lineales de N. El producto de un escalar por un E⊕F αMN αij αiN αMj αMω(N) αω(M)N α∗ ij A∗ AT [A|B] £A ¤ B . p mod q El resto de la divisi´ n de p entre o q. ı Lo mismo que el anterior pero pa­ ra los renglones El cofactor de la entrada αij de una matriz cuadrada. o es la matriz αMN cuyas columnas est´ n permutadas mediante ω. es un sub­ espacio af´n. |A| El cardinal del conjunto A. o El determinante de la matriz A. a o El nucleo del morfismo f. La matriz transpuesta de A. Est´ bien definido en cualquier a anillo con divisi´ n. f : R 3 a 7→ a2 ∈ R+ es la funci´ n con dominio R y co­ o dominio R+ que a cada real le hace corresponder su cuadrado. A+x conjunto de vectores. Si a ω : N → L es una biyecci´ n. f : A 3 a 7→ f (a) ∈ B Usada para denotar funciones con­ cretas por ejemplo. Si ω es una permutaci´ n de N. La suma de dos conjuntos de vec­ tores. o El signo de la permutaci´ n π. Si A es un subespacio entonces. Se define como n! = 1 × 2 × · · · × n. Si E y F son subespacios que se intersectan solo en el origen enton­ ces es can´ nicamente isomorfa a la o suma de E y F. El i­´ simo rengl´ n de la matriz e o αNM . a La entrada αij de una matriz αMN . La matriz de cofactores de A. ı o La dimensi´ n de E. Una matriz cuyos renglones est´ n a indexados por M y cuyas colum­ nas est´ n indexadas por N.

Notaciones 145 Alfabeto g´ tico o A B C D E F G H I J K L M A B C D E F G H I J K L M N O P Q R S T U V W X Y Z N O P Q R S T U V W X Y Z a b c d e f g h i j k l m a b c d e f g h i j k l m n o p q r s t u v w x y z n o p q r s t u v w x y z Alfabeto caligr´ fico a A B C D E F A B C D E F G H I J K L M G H I J K L M U V W X Y Z U V W X Y Z N O P Q R S T N O P Q R S T Alfabeto griego A B Γ ∆ E Z H Θ I α β γ δ ²ε ζ η θϑ ι ´ alfa beta gamma delta epsilon zeta eta zita iota K Λ M N Ξ O Π P Σ κκ λ µ ν ξ o π ρ σ ´ kappa lamda mu nu xi omicron pi ro sigma T Υ Φ X Ψ Ω τ υ φϕ χ ψ ω ´ tau upsilon fi chi psi omega .

146 .

•) es un anillo conmutativo. ¿Que es una NM­matriz? ¿Que es una en­ trada. 12. ¿Que es una n­ada? ¿Que es una N­ada? ¿Cual es su conjunto de ´ndices? ¿ Que son ı sus coordenadas? 3. 10. u 18. Defina los siguientes conceptos: • Operaci´ n binaria. 12. 15. 6. ı • idempotencia.Cap´tulo 1 ı 1. El conjunto de todas las combinaciones li­ neales de un conjunto de vectores es un su­ bespacio. Definici´ n de espacio vectorial. 11. • Campo. Todo sobreconjunto de un conjunto genera­ dor es generador. Los siguientes tres conjuntos de vectores co­ inciden: • El conjunto de todas las combinaciones lineales de A. Los morfismos preservan la distributividad. Defina la suma y el producto en Zn . En cualquier campo 0x = 0. columna? o 4. o Cap´tulo 2 ı 1. Los subespacios son los conjuntos cerrados para la suma y el producto por escalares. 16. . 4. Propiedades b´ sicas de la cerradura lineal: a • incremento. Defina los morfismos. 13. 9. La inversa de un isomorfismo es un isomor­ fismo. • Elemento neutro. +. Defina la caracter´stica de un campo. 19. 10. o 2. Demuestre la f´ rmula del binomio de New­ o ton en base a la f´ rmula multinomial. Todo dominio de integridad finito es un campo. 7. Definici´ n de combinaci´ n lineal y sus co­ o o eficientes. • Elemento inverso. 8. • La intersecci´ n de todos los subespacios o que contienen a A. Todo campo es un dominio de integridad. 14. Los morfismos preservan la asociatividad. Definici´ n de subespacio. ı 20. (Zn . 3. rengl´ n. 8. o 5. Los morfismos preservan el neutro. • monoton´a. 7. Los morfismos preservan el inverso. Un campo cualquiera no puede contener dos subcampos primos diferentes. 9. • Propiedad distributiva. 17. o • Propiedad conmutativa. 11. Los morfismos preservan las operaciones bi­ narias. 2. Los morfismos preservan la conmutatividad. 21. Defina los siguientes conceptos: • Grupo y grupo abeliano. 6. La uni´ n de subespacios no es un subespa­ o cio. • Propiedad asociativa. Un campo primo o es Q o es Zp para cierto n´ mero primo p. En un campo de caracter´stica t para cual­ ı quier elemento x se cumple que tx = 0 . 5. • El subespacio m´ s peque˜ o que contiene a n a A. • Anillo y anillo conmutativo. Zn es un dominio de integridad si y solo si n es primo. La intersecci´ n de subespacios es un subes­ o pacio.

Propiedades de la composici´ n de TLs: aso­ o ciatividad. 33. Defina los subespacios afines. Dos diferentes subespacios afines paralelos no se intersectan 37. distributividad y conmutatividad con el producto por escalares. ¿Que es el paralelismo de subespacios afi­ nes? 35. De tres ejemplos de o ´ algebras. b ∈ F} 28. ¿Cual es la matriz de una TL? 17. La inversa de un isomorfismo lineal es un isomorfismo lineal. ´ 9. o 14. Teorema de caracterizaci´ n de bases. 21. o 25. hE ∪ Fi = {a + b | a ∈ E. Las TLs est´ n predeterminadas por sus va­ a lores en una base. Lema de aumento de un conjunto LI. 7. o 14. Si E y F son dos subespacios complemen­ tarios entonces cada vector x se expresa de ´ forma unica como x = a + b donde a ∈ E y b ∈ F. 16. Describa el isomorfismo de coordinatiza­ ci´ n en una base. Describa las bases can´ nicas de los espacios o vectoriales K{N} y K [x]. 4. 30. Definici´ n de Algebra. 22. Las extensiones lineales son TLs. Cualquier subespacio complementario a E intersecta al subespacio af´n (E + x) en un ı solo punto. 15. 19. Demues­ o tre que E ⊕ F y F ⊕ E son can´ nicamente o isomorfos. Si E y F son subespacios tales que E ∩ F = {0} entonces la funci´ n o E ⊕ F 3 (a. o 26. Todo subespacio tiene complementario. Toda TL transforma subespacios en subes­ pacios. 18. Todo espacio vectorial finito dimensional es isomorfo a Kn . la funci´ n o que a cada TL h ∈ Hom (E. Toda TL de un espacio de dimensi´ n 1 es o una homotecia. Propiedades del producto escalar can´ nico o de N­adas conmutatividad. Si E es un subespacio de F y dim E = dim F < ∞ entonces. La matriz de la composici´ n de dos TLs es o igual al producto de las matrices de las TLs. Un isomorfismo transforma conjuntos LI en conjuntos LI. Propiedad del cambio de las bases. 3. 20. ¿Que es el grupo general lineal? 10. La suma de dos TLs es una TL. F) le hace co­ rresponder su restricci´ n hN ∈ FN es un o isomorfismo de espacios vectoriales. o 17. 5. Una TL es un isomorfismo si y solo si su res­ tricci´ n a una base es inyectiva y la imagen o de esta restricci´ n es una base.148 Gu´a de estudio ı 36. Definici´ n del producto de matrices. 15. 31. o 16. Teorema de existencia de bases. Toda proyecci´ n o o o es una TL. 6. Teorema de caracterizaci´ n de conjuntos LI. 13. El producto de un escalar por una TL es una TL. Definici´ n de transformaci´ n lineal. La composici´ n de TLs es una TL. 23. 27. Todo subconjunto de un conjunto LI es LI. ¿Cual es la TL definida por una matriz?. Dos bases cualesquiera de un espacio vecto­ rial tienen el mismo cardinal. b) 7→ a + b ∈ E + F es un isomorfismo de espacios vectoriales. 34. Que es un isomorfismo can´ nico. . o o 2. 12. E = F. conjuntos generadores en con­ juntos generadores y bases en bases. 13. 24. 32. ¿Que es el espacio cociente? ¿Cuales son sus operaciones? 38. distributividad y conmutatividad con el producto por escala­ res. Definici´ n de proyecci´ n. 11. La igualdad modular (incluye la demostra­ ci´ n del lema). o 8. Si N es una base de E entonces. o 29. Todo subespacio af´n es paralelo a un solo ı subespacio. Cap´tulo 3 ı 1. Dos espacios vectoriales sobre un mismo campo son isomorfos si y solo si tienen la misma dimensi´ n.

Teorema del rango de una matriz. Sean B y C matrices de cambio de base en E y F respectivamen­ te. 16. Pruebe que sgn (π ◦ ρ) = sgn π sgn ρ y que sgn π−1 = sgn π. 4. Describa el procedimiento general de solu­ ci´ n de los sistemas de ecuaciones linenea­ o les. 19. Definici´ n de determinante de una matriz. su determinante es cero. 19. la restricci´ n de f a K es un o isomorfismo. El n´ mero de permutaciones de un conjunto u con n elementos es n!. 29. 21. El determinante no se altera al transponer una matriz. La N­ada de las coordenadas de un vector en la base nueva se obtiene multiplicando la matriz de cambio de base por la V­ada de las coordenadas del vector en la base vieja. el con­ junto de los renglones indexados por I es una base del espacio de renglones de αMN . Dos bases cualesquiera de una matriz tienen el mismo orden. Sean E y F dos espacios tales que dim E = dim F < ∞. o 17. Si K es un subespacio complementario a Ker f entonces. o 149 Cap´tulo 4 ı 1. El determinante de una matriz triangular por bloques es igual al producto de los determi­ nantes de sus bloques. 8. 20. Definici´ n de nucleo e im´ gen de una TL. El determinante de la matriz identidad es 1. 28. 7. Regla de Cramer. 11. Los subespacios afines paralelos a Ker f son precisamente los conjuntos de vectores en que la funci´ n f es constante. o 6. 27. 12. o a 22. 3. 22. Una TL de E a F es inyectiva si y solo si es sobreyectiva. Teorema de existencia de soluciones. Si una matriz tiene dos columnas iguales en­ tonces. 10. Una TL es injectiva si y solo si su nucleo es trivial. su determinante es cero. o Regla del tri´ ngulo para los determinantes a de orden 3. La im´ gen y el nucleo son subespacios. a 23. Lema de aumento de submatrices no singu­ lares. det A−1 = (det A)−1 . se cumple la ¢ igualdad: ¡ det αMφ(N) = sgn φ ◦ ϕ−1 det αMϕ(N) . Si A es la matriz de f en las bases viejas entonces CAB−1 es la matriz de f en las ba­ ses nuevas. los grupos sim´ tri­ e cos SM y SN son isomorfos. 31. 13. 14. 5. 25. Definici´ n del signo. Si |M| = |N| entonces. 32. Definici´ n de matriz no singular. 30. 20. Si αIJ es una base de αMN entonces. 24. Sea f : E → F una TL. Definici´ n de permutaciones pares e impa­ o res. Pruebe que los cofactores no de­ penden del cambio de ´ndices usado para ı calcular el determinante. Si una matriz tiene una columna o un ren­ gl´ n nulo entonces. o 15. 2. 26.Gu´a de estudio ı 18. Enuncie la caracterizaci´ n de matrices no o singulares. El determinante es un funcional multilineal de los renglones. 25. El determinante de un OL no depende de la base que se use para calcularlo. Toda permutaci´ n es composici´ n de ciclos o o disjuntos. Enuncie la expansi´ n generalizada de La­ o place 23. o 9. 26. A−1 = A∗T / det A. 21. Si φ y ϕ son dos cambios de ´ndices de N ı en M entonces. Teorema de expansi´ n de Laplace. Defina las matrices de cambio de base. . Definici´ n de funcional multilineal o 18. Toda permutaci´ n es composici´ n de trans­ o o posiciones. Definici´ n de cofactores de una entrada de o una matriz. 24. Lema de eliminaci´ n de ecuaciones depen­ o dientes. Al permutar las columnas o los renglones de una matriz con la permutaci´ n ω el determi­ o nante se altera por un factor igual a sgn ω.

Las transformaciones elementales de los renglones de la matriz ampliada no cambian . 37. ¿Como se halla la matriz inversa usando el m´ todo de eliminaci´ n de Gauss? e o 33. Definici´ n de transformaci´ n elemental. o o Definici´ n de diagonalizaci´ n de una co­ o o lumna. Describa el m´ todo de eliminaci´ n de Gauss e o para resolver un sistema de ecuaciones li­ neales. 35. Las transformaciones elementales no cam­ bian los determinantes.150 Gu´a de estudio ı el subespacio af´n soluci´ n de un sistema de ı o ecuaciones lineales. 34. 36.

Sign up to vote on this title
UsefulNot useful