You are on page 1of 289

Algebra Lineal

Jorge Luis Arocha


versi on compilada el 30 de enero de 2013

Jorge Luis Arocha P erez Instituto de Matem aticas Universidad Nacional Aut onoma de M exico M exico D.F. 04510

BibTeX: @textbook{ArochaLA AUTHOR = {Arocha, Jorge L.} TITLE = {\Algebra Lineal} YEAR = {2011} NOTE = {Available at combinatoria.matem.unam.mx} }

Mathematics Subject Classication 2000: 0001, 1201, 1501

c 2011 Jorge Luis Arocha P erez Permitida la reproducci on para uso individual y no comercial. Todos los dem as derechos est an reservados.

Introducci on
Este libro lo escrib como texto b asico para el curso de Algebra Lineal para estudiantes de Licenciatura que he impartido por muchos a nos en la Facultad de Ciencias de la Universidad Nacional Aut onoma de M exico. Se presupone que los estudiantes hayan cursado ya las materias de Algebra superior y Geometr a Anal tica o sea tengan ciertos conocimientos sobre matrices, vectores, polinomios, n umeros complejos, etc. El objetivo es desarrollar el algebra lineal sobre campos arbitrarios pero se hace enfasis en los reales, los complejos y los residuos m odulo un n umero primo. Despu es de una introducci on corta a la teor a de campos se estudian los espacios vectoriales, las transformaciones lineales, los determinantes y nalmente los teoremas de descomposici on de operadores. Por ahora, este libro no contiene pr acticamente nada de transformaciones bilineales, productos escalares, espacios duales, ortogonalidad, tensores etc. En mis planes est a escribir una segunda parte o aumentar este libro con cap tulos sobre estos temas. El material que comprende este libro es demasiado para un semestre y usualmente yo imparto en un semestre de los cap tulos IIV aquellas secciones que no est an marcadas como avanzadas. Un segundo semestre podr a comenzar con las secciones de polinomios sobre campos, continuar con la descomposici on de operadores lineales y terminar con aquellos temas que ya se nal e, faltan aqu . Otras secciones las escrib porque me parecieron un buen material de lectura complementaria para los alumnos curiosos. Este libro es inusualmente colorido y visualmente agresivo. La raz on de esto es que cuando estaba en el papel de alumno yo prefer a estudiar por las libretas de notas de mis compa neras de clase. Se me hac a muy f acil memorizar la imagen completa de una p agina llena de rayas, ores, corazones etc. y dentro de todo esto, las matem aticas. La idea es que cada p agina luzca visualmente diferente. He tratado dentro de lo posible, lograr esto. Los caracteres de matem aticas est an en un color diferente. El texto y las secciones avanzadas est an marcados con un birrete. Uso unos lentes para marcar aquello que el lector no debe dejar pasar. Errores comunes que cometen los que no est an familiarizados con el material est an marcados con calaveras. Los teoremas est an resaltados visualmente, etc. Se incluyen m as de un centenar de ejercicios. Los ejercicios m as notables consisten en material adicional que un estudiante de matem aticas o f sica debe conocer tarde o temprano. Las soluciones de los ejercicios no rutinarios se dan al nal del libro. He compilado un glosario de t erminos que es a la vez un ndice del libro y un diccionario de los conceptos introducidos y/o usados. Finalmente, incluyo una gu a de estudio. De esta gu a yo escojo las preguntas para los ex amenes. Esto representa una ventaja enorme para los estudiantes ya que una de las dicultades m as importantes de ser estudiante es comprender que es lo que se espera de ellos. Jorge L. Arocha M exico D.F. Diciembre de 2010

IV

Cap tulo 1 Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 Operaciones binarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


Conmutatividad (3). Asociatividad (3). Elementos neutros (4). Elementos inversos (4). Distributividad (5). El algebra abstracta(5).

1 1 6 10 14 17 19

1.2 N umeros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Naturales (6). Enteros (6). Grupos (7). Anillos (7). Racionales (8). Reales (8). Complejos (9).

1.3 Morsmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Morsmos de grupos (10). Morsmos de anillos (11). Isomorsmos (12). Composici on de morsmos (13).

1.4 Campos de restos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


El anillo de los enteros m odulo n (14). Dominios de integridad (15). El campo de los enteros m odulo p (16).

1.5 Campos primos. Caracter stica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


Campos primos (17). Caracter stica (19).

1.6 Aritm etica de campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


M ultiplos y exponentes enteros (19). Asociatividad general (20). Distributividad general (20). F ormula multinomial (20). La expansi on de ij (22).

*1.7 Anillos con divisi on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


Quaterniones (23). Caso nito (24).

22 27 27 28

Cap tulo 2 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 El plano cartesiano. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Denici on y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
El espacio de n-adas Kn (29). El espacio de polinomios K [x] (30). El espacio de sucesiones KN (30). El espacio de series K [[x]] (30). El espacio de funciones KN (30). El espacio de N-adas KN (31). El espacio de N-adas nitas K{ N } (31). Subcampos (32). El espacio de N-adas de vectores EN (32). El espacio de NM-matrices KN M (32). El espacio de tensores (33).

2.3 Subespacios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Uni on e intersecci on de subespacios (34). Combinaciones lineales (35). Cerradura lineal (36).

34 37 44 48

2.4 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Conjuntos generadores (38). Conjuntos linealmente independientes (38). Bases (39). Dimensi on (41). Bases can onicas (43).

2.5 Clasicaci on de espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


Isomorsmos lineales (44). Coordinatizaci on (45). Clasicaci on (46). Campos de Galois (46). Como pensar en espacios vectoriales (47).

2.6 Suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

VI

Contenido
Subespacios de Rn (48). Suma de conjuntos y subespacios (49). La igualdad modular (49). Suma directa (50). Isomorsmo can onico entre la suma y la suma directa. (51). Subespacios complementarios (52). Espacios vectoriales versus conjuntos (53).

2.7 Espacios cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


Subespacios anes (54). El espacio cociente (56). El isomorsmo con los complementarios (56).

54

*2.8 El espacio af n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
La regla del paralelogramo (58). Cerradura af n (58). Generadores e independencia (59). Bases anes (59).

57 60

*2.9 El caso de dimensi on innita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


El Lema de Zorn (61). Existencia de bases (61). Cardinales (62). Equicardinalidad de las bases (62).

Cap tulo 3 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Denici on y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


Im agenes de subespacios (65). Homotecias (66). Inmersiones (67). Proyecciones (67).

65 65 68

3.2 Operaciones entre transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . .


El espacio vectorial de las transformaciones lineales (68). Composici on de transformaciones lineales (69). El algebra de operadores lineales (70). El grupo general lineal (71).

3.3 Extensiones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


Extensiones y restricciones (71). El isomorsmo entre F criterio de isomorsmo (73).
N

71 74

y Mor (E, F) (72). Un

3.4 Coordinatizaci on de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . .


El producto escalar can onico (75). El producto de matrices (75). Productos de matrices y vectores (76). La transformaci on lineal de una matriz (77). La matriz de una transformaci on lineal (77). Composici on de TLs y producto de matrices (77). Matrices inversas (78).

3.5 Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


Cambios de base en un espacio vectorial (79). Cambios de base en el espacio de transformaciones lineales (80). Cambios de base en el espacio de operadores lineales (81).

79

3.6 El n ucleo y la imagen de una TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


Deniciones (82). Transformaciones lineales con n ucleo trivial (83). Descomposici on de transformaciones lineales (83). Un criterio de isomorsmo (84). Descomposici on can onica de transformaciones lineales (84).

82

*3.7 Trasformaciones semilineales y coalineaciones . . . . . . . . . . . . . . . . . . . . . .


Trasformaciones semilineales reales (86). Propiedades de las transformaciones semilineales (87). Automorsmos semilineales. (87). Coalineaciones (88). Estructura de las coalineaciones (89).

86

Cap tulo 4 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1 Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


El grupo sim etrico (93). Ciclos y orbitas (94). El grupo alternante (95). El signo de una permutaci on (97).

93 93

Contenido
4.2 Determinantes. Propiedades b asicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Denici on de los determinantes (98). Determinantes de matrices peque nas (98). El determinante de la identidad (99). Matrices con las nulas (100). El determinante de la transpuesta (100). El determinante del producto (100). Matrices con las iguales (101). Matrices de permutaciones (102). Permutaciones de columnas y renglones (103).

VII

97

4.3 Expansi on de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


Cambios de ndices (104). Complementos algebraicos (106). La expansi on de un determinante por sus renglones (106). La expansi on de Laplace en forma gr aca (107). Multinearidad de los determinantes (108). La inversa de una matriz (110). El determinante de un operador lineal (111).

104

*4.4 La expansi on generalizada de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


Matrices diagonales y triangulares por bloques (113). La expansi on generalizada de Laplace en forma gr aca (114).

112

4.5 El rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


Matrices no singulares (116). Espacios de columnas y renglones (116). Lema de aumento de matrices no singulares (118). Bases de una matriz (118).

116

4.6 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


Regla de Cramer (120). Existencia de soluciones (122). Eliminaci on de ecuaciones dependientes (122). El n ucleo y la imagen de una matriz (123). Bases del subespacio af n de soluciones (123).

119

4.7 M etodo de eliminaci on de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


Transformaciones elementales (124). Ejemplo (125). El caso general (126). Soluci on de ecuaciones matriciales, matriz inversa (127).

124

Cap tulo 5 Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 5.1 Polinomios sobre campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129


Suma y producto de polinomios (129). La funci on de evaluaci on (130). Divisi on de polinomios (131). Divisibilidad (131). Factores y raices (132). Ideales de polinomios (133). Unicidad de la factorizaci on en irreducibles. (135). El conjunto ordenado de polinomios m onicos (136). Desarrollo de Taylor (137).

5.2 Polinomios complejos. Teorema de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . .


Forma polar. Igualdad de Moivre (138). Continuidad (140). L mite de sucesiones complejas (141). Teorema de Gauss (142).

138

5.3 Factorizaci on de polinomios complejos y reales . . . . . . . . . . . . . . . . . . . . .


Caso Complejo (144). Caso real (144).

143 145 148

5.4 Campos de fracciones. Funciones racionales . . . . . . . . . . . . . . . . . . . . . . . .


Campos de fracciones (146). Funciones racionales (147).

5.5 Formas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Polinomios de muchas variables (148). La evaluaci on de un polinomio (149). Formas lineales (149). Formas cuadr aticas (150). Formas bilineales (150). Formas multilineales (150).

Cap tulo 6 Descomposici on de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . 153 6.1 Suma directa de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153

VIII

Contenido
Subespacios invariantes, componentes irreducibles (154). Ejemplos en dimensi on 2 (156). Las matrices y los subespacios invariantes (156).

6.2 Polinomios de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


El morsmo de K [x] en End (E) (157). La sub algebra K [h] (159). El polinomio m nimo (159). El per odo de un vector (160). Anuladores (161). Propiedades del per odo. (161).

157

6.3 Subespacios radicales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


N ucleos de polinomios de operadores lineales (162). Operadores lineales radicales (163). Componentes radicales (164). Existencia de un vector de per odo m aximo (165).

162

6.4 Subespacios c clicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


h-combinaciones (166). Conjuntos h-generadores (166). Subespacios c clicos (167). Conjuntos h-independientes (168). h-bases (169).

166 170

6.5 Descomposici on en subespacios c clicos radicales. . . . . . . . . . . . . . . . . . .


El espacio cociente por un subespacio invariante (170). Polinomios y el espacio cociente (171). El per odo en el espacio cociente (172). Existencia de h-bases (173). Unicidad de la descomposici on (175). Estructura de los operadores c clicoradicales (177).

6.6 Polinomio caracter stico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


Rectas invariantes (178). El polinomio caracter stico de un operador lineal (179). El polinomio caracter stico y el polinomio m nimo (180).

178 183

6.7 Formas normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


Forma normal de Jord an (183). Forma normal real (184). Forma normal can onica (186).

Cap tulo 7 Funcionales y formas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 7.1 El espacio dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189


Funcionales lineales (189). El isomorsmo de un espacio con su dual (189). La base dual (190). La transformaci on lineal dual (193). La TL dual en coordenadas (193). Covariancia y contravariancia (193). Propiedades de la TL dual (194).

7.2 Funcionales bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


La notaci on (195). Los funcionales bilineales en coordenadas (196). Las TLs acompa nantes (196). N ucleos de los funcionales bilineales (198). N ucleos de los funcionales bilineales en dimensi on nita (198). El doble dual (199). Dualidad de las TL acompa nantes (200). Los isomorsmos entre E y E# (200). Anuladores (201). Propiedades de los anuladores (201). El anulador del anulador (202).

194

7.3 Productos escalares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


Perpendicularidad (204). Simetr a e isotrop a (205). Productos sim etricos y alternantes (205). Suma perpendicular (207). Espacios irreducibles (208). Espacios ortogonales y simpl ecticos (209). Funcionales cuadr aticos (212). Complementos y proyecciones ortogonales (GramSchmidt) (213). Metodo de Lagrange (216).

204

7.4 Isomorsmos de espacios con producto bilineal . . . . . . . . . . . . . . . . . . . . .


Clasicaci on de productos bilineales. Caso simpl ectico. (219). Clasicaci on de espacios ortogonales de dimensi on 1. Equivalencia cuadr atica (220). Clasicaci on de espacios ortogonales. Casos particulares (222). Ley de inercia de Silvestre (223). Productos bilineales sobre campos nitos (224).

218

Contenido
7.5 Productos interiores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Denici on (226). La norma (226).

IX

225 229 229 230

Cap tulo 8

Algebra multilineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.1 Transformaciones bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


Extensi on bilineal (229).

8.2 Producto tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


Ejemplos (230). Denici on del producto tensorial (233). Unicidad del producto tensorial (234). Existencia del producto tensorial (235). Producto tensorial de espacios de dimensi on nita (237).

Soluciones de ejercicios selectos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 Glosario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257 Notaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269 Gu a de estudio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273

El a lgebra es la oferta hecha por el Diablo a los matem aticos. El Diablo dice: Yo te dar e a ti esta poderosa maquinaria que responder a cualquier pregunta que tu quieras. Todo lo que se necesita que tu hagas es entregarme tu alma: dame la geometr a y tendr as esta maravillosa m aquina ...el da no a nuestra alma est a ah , porque cuando usted pasa a hacer c alculos algebraicos, esencialmente usted deja de pensar...

Sir Michael Atiyah


La forma correcta de leer las matem aticas consiste en primero leer las deniciones de los conceptos y las armaciones de los teoremas; luego, poner el libro a un lado y tratar de descubrir por si mismo las pruebas adecuadas. Si los teoremas no son triviales, el intento puede fallar, pero es probable que de todas maneras sea instructivo. Para el lector pasivo un c omputo rutinario y un milagro de creatividad, se leen con la misma facilidad, y m as tarde, cuando deba depender de s mismo, se dar a cuenta de que se fueron tan f acilmente como vinieron. El lector activo, que se ha enterado de lo que no funciona, entiende mejor la raz on del exito del m etodo del autor, y despu es encontrar a las respuestas que no est an en los libros...

Paul Halmos

Captulo primero

Campos
l objeto del a lgebra lineal es el estudio de los espacios vectoriales. Estos espacios son estructuras algebraicas cuyos objetos son de dos tipos los vectores y los escalares. Las operaciones denidas en los espacios vectoriales son la suma y resta de vectores, la suma resta multiplicaci on y divisi on de escalares y la multiplicaci on de escalares por vectores. La mayor a de los temas estudiados en este libro no dependen del conjunto de escalares y el lector puede casi siempre considerar que los escalares son los reales R y que el espacio vectorial es el espacio geom etrico n com un R . Sin embargo, como esta teor a no depende (al menos en gran parte) del conjunto de escalares (y teniendo en cuenta diferentes aplicaciones a otras areas de las matem aticas y las ciencias naturales) es conveniente elevar un paso el nivel de abstracci on y pensar que el conjunto de escalares es un campo arbitrario K . El primer objetivo de este cap tulo es dar al lector un conocimiento b asico de lo que es un campo. Esto se pretende lograr por tres medios: dando la denici on formal, estudiando algunas propiedades (como la caracter stica) de los mismos, viendo que las reglas usuales de manipulaci on de f ormulas en un campo no se diferencian esencialmente de las f ormulas en los reales y sobre todo, dando los ejemplos fundamentales de campos.

1.1

Operaciones binarias

Sea A un conjunto. Una operaci on binaria es una funci on del producto cartesiano A A en A. O sea, es una regla mediante la cual a cualesquiera dos elementos de A se le hace corresponder un tercer elemento de A. Demos algunos ejemplos sencillos: 1) a + b 2) a b 3) ab 4) a b suma resta producto divisi on 5) 6) 7) 8) ab loga b mcd (a, b) mcm (a, b) exponenciaci on logaritmo m ax com un divisor m n com un m ultiplo

Lo primero que observamos de los ejemplos anteriores es que no hemos denido en cual conjunto est a denida la operaci on. Esto no es correcto formalmente, as por

Cap tulo 1. Campos

ejemplo la divisi on es una operaci on que no est a denida en el conjunto de los n umeros enteros. Sin embargo el lector podr a f acilmente encontrar los conjuntos en los cuales estos ejemplos son operaciones binarias.

Ejercicio 1 En cuales conjuntos las operaciones 1-8 est an correctamente denidas? Ejercicio 2 Que es una operaci on unaria? De ejemplos. [239] Ejercicio 3 Dados tres n umeros reales a, b, c denamos A (a, b, c) como el area del
tri angulo con lados a, b y c. Es esta una operaci on ternaria en R? [239] Lo segundo que debemos de observar, es la variedad de notaciones usadas para representar las operaciones binarias. Sobre todo, son complicadas las notaciones de la operaciones 4-6. Lo que tienen en com un, es que no nos alcanza una l nea de s mbolos para escribirlas. Necesitamos subir y/o bajar adem as de movernos de derecha a izquierda. O sea, necesitamos dos dimensiones para escribirlas. Quiz a sea m as ilustrativo, poner un ejemplo m as complejo R /4 de notaci on dos-dimensional. La integral en el recuadro a sin x + b sin x dx a la izquierda est 2 a bien denida para cualesquiera valores 0 reales a, b y por lo tanto es una operaci on binaria en R. M as sencillos son los ejemplos de notaciones lineales 1-3,7-8. En realidad, para las notaciones lineales solo hay tres posibilidades: (a, b) notaci on preja o funcional ab notaci on operacional (a, b) notaci on suja Las operaciones 1-3 est an en notaci on operacional y las operaciones 7-8 est an en notaci on prejija. La notaci on suja es u til sobre todo en la programaci on de compiladores para lenguajes de computadoras (tales como pascal o C++) ya que frecuentemente lo m as f acil es decirle a una computadora toma el n umero a, toma el n umero b,s umalos y no hacerlo de otra manera.

Ejercicio 4 La notaci on suja para a (b + c) /2 es bc + a 2 . Cual ser a la notaci on


suja para la expresi on (a + b) (x + y)? [239] Cualquier intento, de tratar de unicar las notaciones usadas en la comunicaci on entre humanos, solo llevar a a confusiones mucho peores. Sin embargo, tenemos la libertad de escoger una notaci on unicada para las operaciones binarias abstractas que denamos. De una vez, postularemos que siempre usaremos la notaci on operacional para denir operaciones binarias abstractas. Recalquemos que una operaci on abstracta no signica nada m as que es una operaci on que puede ser una de muchas. Primero aprendemos lo que quiere decir 3 + 2.

Secci on 1.1

Operaciones binarias

Despu es, tempranamente en el estudio de las matem aticas, la expresi on a + b signica que a un n umero a (no se sabe cual) le sumamos un n umero b (tampoco se sabe cual). Ahora, la expresi on a + b signicar a que a un objeto a (n umero, polinomio, matriz, quien sabe que) le sumamos (no se sabe lo que quiere decir suma) un objeto b (del que tampoco se sabe mucho). Conmutatividad Es 3 + 2 igual a 2 + 3? S . Es 32 igual a 23 ? No. Una operaci on binaria a, b A denotada por y denida en el conjunto A se dice que es conmutaa b = b a tiva si se cumple la propiedad en el recuadro a la izquierda. Ser o no conmutativa es la propiedad m as sencilla que diferencia las operaciones binarias.

Ejercicio 5 Cuales de las operaciones 1-9 son conmutativas? [239]


Asociatividad Que quiere decir 2 + 3 + 5? Acaso debemos sumar 2 + 3 y al resultado sumarle 5? No ser a que debemos sumar 2 al resultado de la suma 3 + 5? Claro, no hay ninguna diferencia entre los dos procedimientos. Este hecho se expresa como (2 + 3) + 5 = 2 + (3 + 5) . Una operaci on binaria denotada por y denida en el conjunto A se dice que es asociativa si se cumple la pro- a, b, c A a (b c) = (a b) c piedad en el recuadro de la derecha. Los estudiantes preuniversitarios se encuentran por primera vez con la dicultad de una operaci on no asociativa en el caso de la operaci on de 3 exponenciaci on. A esta temprana edad es muy necesario insistir que la expresi on 22 3 3 es ambigua porque 2(2 ) = 256 6= 64 = 22 .

Ejercicio 6 Cuales de las operaciones 1-9 son asociativas? [239]


La asociatividad de una operaci on es una propiedad crucial. Sin esta propiedad, el manejo algebraico de una operaci on se complica bastante. Es m as, gracias a ella podemos introducir la notaci on de la operaci on 11 repetida. Si tenemos 11 elementos a1 , a2 , . . . , a11 entonces, para denotar P a la suma a1 + a2 + + a11 podemos usar la notaci on (mucho m as c omoda) n =1 n que se muestra en el recuadro a la derecha. Esta notaci on no requiere de la conmutatividad de la operaci on suma gracias a que los ndices tienen un orden y sabemos cual elemento debe ir primero y cual despu es. Si tenemos que la operaci on es no solamente asociativa sino tambi en conmutativa entonces podemos ser m as generosos con esta notaci on.

4 P an

Cap tulo 1. Campos

Supongamos que a , a` , a , a9 y a son elementos de un conjunto con una suma asociativa y conmutativa. Entonces la suma de estos (no importa el n N orden!) la podemos denotar por la expresi on en el recuadro a la izquierda, donde N es el conjunto de ndices {, , `, , 9}. Si la operaci on binaria denida no se llama suma sino producto, entonces P Q es usual, en lugar de usar la letra griega (sigma may uscula), usar la letra griega (pi may uscula). Podemos, en este caso, usar la primera o segunda notaci on dependendiendo de si nuestro producto es conmutativo o no. Elementos neutros La suma de n umeros naturales tiene un elemento especial y u nico: el cero. Su propiedad denitoria es que cualquier n umero sumado con cero da el mismo n umero. La misma propiedad la tiene el uno con respecto al producto de n umeros naturales. Para una operaci on binaria denotada por y denida en el a A conjunto A se dice que e A es un elemento neutro si este a e = e a = a cumple la propiedad en el recuadro. Una operaci on binaria no puede tener m as de un elemento neutro. Efectivamente, 0 sean e y e elementos neutros. Por ser e neutro, tenemos e e0 = e0 . Por ser e0 neutro, tenemos e e0 = e. De estas dos igualdades obtenemos e = e0 .

Ejercicio 7 Cuales de las operaciones 1-9 tienen neutro? [239]


Los elementos neutros juegan un papel importante en las notaciones para operaciones repetidas. Supongamos que tenemos un producto asociativo y conmutativo. Sean adem as N y M dos conjuntos nitos y disjuntos de ndiQ Q Q ai ai = ai ces. Naturalmente, de la denici on se sigue la propiedad iN iM iN M del recuadro a la izquierda. Pero que pasa si alguno de los conjuntos de ndices (digamos M) es vac o? Si queremos que esta propiedad se conserve entonces observamos que Y Y Y Y ai ai = ai = ai por lo que necesariamente i ai tiene que ser el elemento neutro de nuestra operaci on (si no hay neutro entonces estamos en problemas). Es por esto, como el lector seguramente ya sabe, que la suma vac a de n umeros es igual a cero y el producto vac o de n umeros es igual a uno. Elementos inversos
iN Q i iN iN

Secci on 1.1

Operaciones binarias

Para cada n umero entero a hay un u nico n umero a tal que sumado con a da cero. Generalizemos esta propiedad a operaciones binarias arbitrarias. Sea una operaci on binaria en el conjunto A con elemento neutro. Se dice que a A a b = b a = e tiene elemento inverso b si se cumple la propiedad en el recuadro a la izquierda. Para cualquier operaci on binaria asociativa el elemento inverso de otro es u nico. Efectivamente si b y c son inversos de a entonces b = b e = b (a c) = (b a) c = e c = c o sea que b y c tienen que ser el mismo.

Ejercicio 8 Describa los inversos en las operaciones 1-9. [239]


Distributividad Frecuentemente nos encontramos con conjuntos en los cuales hay m as de una operaci on binaria denida. El ejemplo m as sencillo son los naturales en los que sabemos sumar y sabemos multiplicar. Estas dos operaciones est an relacionadas con la propiedad de que podemos sacar factor com un o sea ax + ay = a (x + y). Sean y dos operaciones binarias denidas en el a, b, c A conjunto A. Se dice que la operaci on es distribu- a (b c) = (a b) (a c) tiva respecto a la operaci on si se cumplen las dos (b c) a = (b a) (c a) propiedades en el recuadro a la derecha. Que sea distributiva respecto a no es lo mismo que sea distributiva respecto a . Por ejemplo, en los naturales el producto es distributivo con respecto a la suma: a (b + c) = (ab) + (ac) y sin embargo, la suma de naturales no es distributiva respecto al producto: a + (bc) 6= (a + b) (a + c).

Ejercicio 9 De un ejemplo de dos operaciones binarias tales que ambas son distributivas una con respecto a la otra. [239]
El algebra abstracta Filos ocamente, el concepto de abstracci on es la propiedad, que tiene el pensamiento humano, de que podemos jarnos solamente en ciertas propiedades esenciales de un objeto o fen omeno, y olvidarnos de las restantes. La abstracci on es imprescindible para el lenguaje. El concepto silla nos permite reconocer una silla, independientemente si esta es de madera, de hierro, pl astica, grande, c omoda, con tres, cuatro o cinco patas etc. Casi cada palabra del espa nol (y de cualquier idioma) representa un concepto abstracto, sea esta verbo, sustantivo o adjetivo.

Cap tulo 1. Campos

La ciencia lleva este nivel de abtracci on a un nivel a un mayor. Parte de este conocimiento cient co, pasa al conocimiento p ublico. Baste recordar conceptos como: velocidad, volumen, higiene, ADN, penicilina, electr on, metal, colesterol, tri angulo, etc. Algunos de los mencionados, son muy antiguos, otros surgieron hace muy poco. Sin embargo, la mayor a de estos conocimientos queda solamente en manos de los especialistas en la materia. Con las matem aticas pasa igual. No hace falta saber que la suma de naturales es una operaci on binaria conmutativa para saber que 2 + 3 = 3 + 2. Sin embargo, el concepto de operaci on y que estas operaciones pueden cumplir o no ciertas propiedades es relativamente nuevo. En la primera mitad del siglo XX, progresivamente, la comunidad matem atica se fu e dando cuenta de las ventajas del pensamiento algebraico en el lenguaje de operaciones abstractas. Tanto fu e el entusiasmo, que muchos, en un principio, le llamaron a esta forma de pensar Algebra moderna. Otros a un m as entusiastas le llamaron Matem atica moderna. En la actualidad este lenguaje es parte intr nseca e indivisible del pensamiento en matem aticas y cualquier calicaci on de moderna suena muy tonta. Otros, por otro lado, preerieron referirse a esta forma de pensar como Algebra abstracta. Esto, en mi opini on, aunque m as moderado, tampoco tiene ning un sentido. Toda a lgebra es abstracta, de hecho, todas las matem aticas son abstractas. Estoy convencido de que, el tiempo se encargar a de acabar con todos estos calicativos.

1.2

N umeros

En esta secci on repasaremos los principales tipos de n umeros que el lector ya conoce: naturales, enteros, racionales, reales y complejos. Esto nos dar a la posibilidad de introducir las deniciones m as b asicas del algebra: grupos, anillos y campos. Naturales Hay una frase famosa que dice Dios hizo los naturales y el hombre todo lo dem as. El conjunto de los a veces b veces n umeros naturales N = {0, 1, 2, ...} es el conjunto de los cardinales de los conjuntos nitos. En N hay dos operaciones binarias bien denidas: la suma y el producto. De hecho, el producto es una operaci on derivada de la suma y la suma solo se puede denir en t erminos de conjuntos. Por ejemplo, a + b es el cardinal de la uni on de dos conjuntos nitos y disjuntos uno de cardinal a y otro de cardinal b. Como la uni on de conjuntos es asociativa tambi en lo es la suma de naturales. De la denici on se obtiene que el producto de naturales tambi en es asociativo. Tanto la suma como el producto son conmutativos. La suma tiene elemento neutro 0 y el producto tiene elemento neutro 1. El producto es distributivo respecto a la suma. ab = a ... + a b + {z ... + b }=| } | + {z

Secci on 1.2
Enteros

N umeros

Ning un elemento de N salvo el cero tiene inverso para la suma. Para lograr la existencia de inversos inventamos los b + a = c a = b + c n umeros negativos Z = {1, 2, 3, ...} y en el conjunto b + (a) = (a + b) Z = N Z de los n umeros enteros denimos la suma como la operaci on conmutativa denida por las propiedades en el recuadro a la derecha. Grupos Nuevamente la suma de enteros es asociativa con neutro cero pero ahora, cada elemento tiene inverso. O sea, los enteros dan el G1) la operaci on es asociativa primer ejemplo de grupo. A un conjunto no vac o G2) tiene elemento neutro con una operaci on binaria se le llama grupo si se G3) todo elemento tiene inverso cumplen los tres axiomas G1-G3. A los grupos cuya operaci on es conmutativa se les llama abelianos en honor al matem atico noruego Niels Henrik Abel (1802-1829). Abel fu e el que resolvi o el problema algebraico m as importante de su epoca. Demostr o, que no existen f ormulas en radicales para resolver las ecuaciones polinomiales de grado 5 o mayor (a diferencia de las ecuaciones de grado 4 para las cuales si hay f ormulas generales). Al momento de encontrar esta demostraci on, el problema ya duraba varios siglos sin resolverse. Abel muri o a los 26 a nos a causa de una neumon a. Anillos La operaci on de producto de naturales se extiende f acilmena (b) = (ab) te al conjunto de los enteros mediante las reglas en el recuadro. (a) b = (ab) Nuevamente el producto es asociativo,conmutativo y distributivo (a) (b) = ab con respecto a la suma. O sea los enteros tambi en dan el primer ejemplo de anillo. Un conjunto A no vac o con dos operaA1) (A, +) es un grupo abeliano ciones binarias + y se le llama anillo si A2) es asociativa se cumplen los axiomas en el recuadro a la A3) es distributiva con respecto a + derecha. Si el anillo es tal que la operaci on A4) tiene elemento neutro es conmutativa entonces se dice que tenemos un anillo conmutativo. En un anillo al neutro para la suma se le llama cero y se denota por 0. Al neutro para el producto se le llama uno y se denota por 1. Al inverso de un elemento con respecto a la suma de un elemento se le llama su opuesto. Al inverso con respecto al producto de un elemento se le llama inverso multiplicativo o simplemente inverso a secas. Observemos que si a es un elemento de un anillo entonces a 0 + a = a (0 + 1) = a

Cap tulo 1. Campos

y debido a la unicidad del 0 obtenemos que a 0 = 0. De la misma manera vemos que 0 a = 0. Si 1 = 0 entonces, a = 1 a = 0 a = 0 por lo que el anillo consta de un solo elemento. Para descartar esta trivialidad supondremos siempre que 1 6= 0. De aqu se desprende que 0 no puede tener inverso ya que 0 = a 0 = 1 es una contradicci on. En cualquier anillo a denota al opuesto de a y a1 (si existe) denota al inverso de a. Como 1 1 = 1 tenemos 11 = 1. Tambi en (1)1 = 1 ya que si a = 1 entonces 0 = a (a + 1) = aa + a por lo que aa = a o sea, (1) (1) = 1. Luego, en todo anillo 1 y 1 tienen inversos. En Z ning un elemento salvo 1 y 1 tiene inverso.
Normalmente en la denici on de anillo no se pide el axioma A4. En este caso, a los anillos que tienen elemento neutro para el producto se le llaman anillos unitarios. Un ejemplo de anillo no unitario es el conjunto de todos los enteros pares. Con el objetivo de simplicar, para nosotros todos los anillos son unitarios.

Racionales Para lograr que cada elemento diferente de cero tenga inverso inventamos las fracciones y con ellas el conjunto de n umeros racionales Q. Una fracci on es un par ordenado de n umeros enteros denotado por a/b donde b 6= 0. Dos a c = a d = c b fracciones son iguales cuando se cumple la igualdad en el b d recuadro. Los n umeros racionales Q son las fracciones con la relaci on de igualdad as denida. Los enteros son parte de los racionales por cuanto podemos identicar cada n umero entero a Z con la fracci on a/1. La suma y el producto de n umeros racionales se denen por las igualdades en el recuadro. Nuevamente los a + c = a d + c b bd racionales con la suma forman un grupo abeliano y otra b d ac a c vez el producto es asociativo, conmutativo, tiene ele = mento neutro y es distributivo con respecto a la suma. b d bd Sin embargo, ahora todo elemento diferente de cero tiene inverso multiplicativo. O sea los racionales nos dan el primer ejemplo de campo. Un conjunto K no vac o con dos operaciones C1) (K, +) es un grupo abeliano binarias + y se le llama campo si se cumC2) (K\0, ) es un grupo abeliano plen los tres axiomas C1-C3. Un campo es un C3) es distributiva con respecto a + anillo conmutativo en la cual todo elemento diferente de cero tiene inverso multiplicativo.

0 0 0 0 por coordenadas es un grupo 2 (x, y) (x , y ) = (x x , y y ). Pruebe que si (2A, ) entonces A , es un grupo, si (A, +, ) es un anillo entonces, A , +, es tambi en un anillo. Ejercicio un anillo entonces, por el ejercicio 11 Sea (K, +, ) un campo. Como K es anterior, K2 , +, tambi en es un anillo. Ser a K2 un campo? [240]

Ejercicio 10 Si es una operaci on en A entonces, en A2 est a denida la operaci on

Secci on 1.2
Reales

N umeros

Dicen que cuando Pit agoras (Samos 569-475 A.C.) descubri o que la longitud de la hipotenusa de un tri angulo rect angulo con catetos de longitud uno no es un n umero racional 2 qued o horrorizado. A nosotros nos parece esto 1 una exageraci on. Sin embargo, si nos ponemos en el lugar de Pit agoras comprenderemos que 1 en aquel momento era inconcebible que existan p 2 6= n umeros que no sean cociente de dos enteros. q La pintura a la izquierda es un detalle del fresco de Rafael La escuela de Atenas en la cual supuestamente, se muestra a Pit agoras. Sigamos a Pit agoras y probemos que efectivamente 2 no es un racional. Para esto denotemos por k ak2 el umero de veces que el natural a se divide entre 2. Tenemos n p 2 2 2 = q 2q 2 = p 2 1 + 2 kqk2 = 2 kpk2 lo que es una contradicci on ya que un n umero impar no puede ser igual a uno par.

Ejercicio 12 Sea n un natural. Pruebe que n es un natural o no es racional. [240] Ejercicio 13 Basandose en el anterior de otra prueba de que 2 no es racional. [240]
Esto motiva la construci on de los n umeros reales R. La construci on de los reales es un proceso complicado y se han descubierto muchas formas de formalizar esta construci on siendo la m as popular la de las cortaduras de Dedekind. Para nuestros prop ositos basta una denici on menos formal y m as intuitiva: un n umero real es simplemente un l mite de racionales. Las propiedades de la suma y producto de racionales se traspasan f acilmente a los reales usando las propiedades del l mite de sucesiones. De esta manera obtenemos nuestro campo principal (R, +, ) . El campo de los reales se destaca porque es ordenado (siempre podemos decidir si un n umero real es mayor, menor o igual a cero) y porque es cerrado (el l mite de reales si existe es un real). Por otro lado, no es un factor a despreciar el hecho de que el espacio en que vivimos es (o al menos nos parece que es) R3 .

Ejercicio 14 Pruebe que la longitud de un segmento de recta es un n umero real.


[240] Complejos En 1546 Gerolamo Cardano public o su libro Ars Magna en el cual di o m etodos (basados en parte en el trabajo de otros matem aticos) para el calculo de las raices de los polinomios de grado 3 y 4. Estos m etodos, a veces requer an el extraer raices

10

Cap tulo 1. Campos

cuadradas de n umeros negativos, incluso cuando el resultado nal era un n umero real. Rafael Bombelli estudi o este asunto en detalle y es considerado como el descubridor de los n umeros complejos. Para lograr que todos los polinomios tengan raices inventamos el imaginario i = 1 y denimos que un (a + bi) + (a0 + b0 i) = n umero complejo es algo de la forma a + bi donde a, b (a + a0 ) + (b + b0 ) i R. La suma y el producto de complejos se denen por las f ormulas en los recuadros a la derecha y abajo a la izquierda. Las propiedades de la suma y el producto se despren(a + bi) (a0 + b0 i) = den inmediatamente de sus deniciones y es f acil comprobar que ( C , + , ) es un anillo conmutativo. Para (aa0 bb0 ) + (ab0 + a0 b) i 1 ver que es un campo, observamos que (a + bi) = 2 2 1 (a bi). La principal propiedad que hace que para muchas cosas el cama +b po C sea el m as simple es que el (a diferencia de R) es algebraicamente cerrado, o sea que todo polinomio de grado n > 0 con coecientes en complejos tiene n raices complejas.

1.3

Morsmos

En las matem aticas cada vez que se estudian ciertos objetos, es necesario tambi en estudiar las funciones entre ellos, que preservan las propiedades de dichos objetos. En esta secci on estudiaremos las funciones entre conjuntos con operaciones binarias. Morsmos de grupos Sean y operaciones binarias denidas en los conjuntos A y B respectivamente. Una funci on f : A B se le llama morsmo si para cualesquiera a1 y a2 elementos de A se cumple que f (a1 a2 ) = f (a1 ) f (a2 ). Todo morsmo conserva las propiedades fundamentales de las operaciones binarias. M as precisamente, si f : (A, ) (B, ) es un morsmo entonces, 1. es una operaci on binaria dentro de la imagen de f. 2. Si es conmutativa entonces es conmutativa en la imagen de f. 3. Si es asociativa entonces es asociativa en la imagen de f. 4. Si e es neutro de entonces f (e) es neutro de en la imagen de f. 5. Si a0 es inverso de a en A entonces f (a0 ) es inverso de f (a) en B. Prueba. Sean b1 , b2 y b3 elementos cualesquiera en la imagen de f. Existen a1 , a2 y a3 en A tales que f (ai ) = bi para i {1, 2, 3}. Como f es un morsmo, obtenemos la igualdad (*) b1 b2 = f (a1 ) f (a2 ) = f (a1 a2 )

Secci on 1.3

Morsmos

11

que prueba la primera armaci on. Si es conmutativa entonces, usando (*) obtenemos b1 b2 = f (a1 a2 ) = f (a2 a1 ) = b2 b1 por lo que es tambi en conmutativa. Si es asociativa entonces, usando (*) obtenemos (b1 b2 ) b3 = f (a1 a2 ) f (a3 ) = f ((a1 a2 ) a3 ) = = f (a1 (a2 a3 )) = f (a1 ) f (a2 a3 ) = b1 (b2 b3 ) y por lo tanto es asociativa en la imagen de f. Si e es neutro de la operaci on entonces, b1 f (e) = f (a1 ) f (e) = f (a1 e) = f (a1 ) = b1 f (e) b1 = f (e) f (a1 ) = f (e a1 ) = f (a1 ) = b1 por lo que f (e) es el neutro de en la imagen de f. Sea a0 el inverso de a en A entonces, f (a) f (a0 ) = f (a a0 ) = f (e) f (a0 ) f (a) = f (a0 a) = f (e) de lo que concluimos que f (a0 ) es el inverso de f (a).

Ejercicio 15 Justique todas las igualdades utilizadas en la prueba de 1.1.


Y porqu e siempre dentro de la imagen de f y no en todo B? La respuesta es que lo u nico que sabemos de B est a dado por el morsmo. Aquellos elementos de B que no tienen preimagen no los podemos enlazar con los de A y por lo tanto no podemos decir nada de ellos. De aqu en lo adelante a la imagen de cualquier funci on f (y en particular de un morsmo) la denotaremos por Im f. Si (A, ) es un grupo entonces (Im f, ) es un grupo. Prueba. Por 1.1.1 es una operaci on binaria en Im f. Por 1.1.3 esta operaci on es asociativa. Por 1.1.4 esta operaci on tiene elemento neutro. Por 1.1.5 cada elemento b = f (a) Im f tiene su inverso f (a0 ) donde a0 es el inverso de a en A. Esto completa la prueba de todos los axiomas de grupo. Recordemos que si f : A B es una funci on entonces al conjunto A se le llama dominio de f y al conjunto B codominio de f. Si el dominio y el codominio de un morsmo son grupos entonces se dice que este es un morsmo de grupos.

Ejercicio 16 Construya un morsmo inyectivo de (R, +) en (R, ). Cual es la imagen


de este morsmo? Es esta imagen un grupo? Morsmos de anillos Y que pasa con la distributividad? Tambi en se conserva? El primer problema que tenemos que resolver es que en la distributividad est an involucradas dos operaciones. Sean (A, +, ) y (B, +, ) dos conjuntos cada uno con dos operaciones binarias. Ob-

12

Cap tulo 1. Campos

servese que estas son cuatro operaciones distintas pero hemos usado estas notaciones porque el trabajar con cuatro s mbolos diferentes ya es demasiada confusi on. Una funci on f : A B se le llama morsmo si para cualesquiera a1 y a2 elementos de A se cumple que f (a1 + a2 ) = f (a1 ) + f (a2 ) y f (a1 a2 ) = f (a1 ) f (a2 ). Recalquemos que el y quiere decir que se tienen que cumplir las dos propiedades. O sea, si hay dos operaciones entonces, se requiere que la funci on sea morsmo para cada una de ellas. Si es distributiva con + en A entonces, es distributiva con + en la imagen de f. Prueba. Sean x, y, z A tales que f (x) = a, f (y) = b y f (z) = c. Tenemos a (b + c) = f (x) (f (y) + f (z)) = f (x) f (y + z) = f (x (y + z)) = = f (x y + x z) = f (x y) + f (x z) = f (x) f (y) + f (x) f (z) = a b + a c y esto prueba la tesis. Si el dominio y el codominio de un morsmo son anillos entonces se dice que este es un morsmo de anillos. Si el dominio y el codominio de un morsmo son campos entonces se dice que este es un morsmo de campos.

entonces, (Im f, +, ) es un anillo. Demuestre que lo mismo ocurre para los campos. Ejercicio 18 Pruebe que si f : A B es un morsmo de anillos y A es un campo entonces f es inyectivo. En particular todo morsmo de campos es inyectivo. [240] Isomorsmos

Ejercicio 17 Demuestre que si (A, +, ) es un anillo y f : A B es un morsmo

A los morsmos biyectivos se les llama isomorsmos. Esto se aplica tanto para conjuntos con una como tambi en con dos operaciones binarias. As que tenemos isomorsmos de grupos, de anillos y de campos. Para cada isomorsmo f existe una funci on inversa f1 . Cuando ser a f1 un morsmo? La respuesta es que siempre. La inversa de un isomorsmo es un isomorsmo. Prueba. Sea f : (A, ) (B, ) un isomorsmo. Sean b1 , b2 cualesquiera elementos de B. Denotemos a1 = f1 (b1 ) y a2 = f1 (b2 ). Tenemos f1 (b1 b2 ) = f1 (f (a1 ) f (a2 )) = f1 (f (a1 a2 )) = a1 a2 = f1 (b1 ) f1 (b2 ) que es lo que se requer a demostrar. Si el isomorsmo involucra dos operaciones binarias entonces el mismo argumento aplicado a las dos operaciones, nos da la prueba de la tesis.

Secci on 1.3

Morsmos

13

Ahora podemos aplicar 1.1 en los dos sentidos. Si f : (A, ) (B, ) es un isomorsmo entonces de que es conmutativa implica que es conmutativa y en conclusi on es conmutativa si y solo si es conmutativa. Lo mismo ocurre con la asociatividad, con la existencia de neutros e inversos y para el caso de dos operaciones con la distributividad. O sea que tiene ex actamente las mismas propiedades de . Pero no solo son operaciones parecidas sino que son en cierto sentido la misma. Para convencernos de esto supongamos que conocemos la operaci on y conocemos el isomorsmo f pero no sabemos nada de la operaci on . Podremoscalcular b1 b2 ? La respuesta es s , lo podemos calcular por la identidad b1 b2 = f f1 (b1 ) f1 (b2 ) . Rec procamente, se dene de forma u nica por la operaci on y el isomorsmo f 1 mediante la identidad a1 a2 = f (f (a1 ) f (a2 )). En conclusion ambas operaciones se denen una a otra. Para que el lector comprenda mejor eso de que u v 1 1 y son la misma operaci on veamos un ejemplo. 1 1 1 Sea A el conjunto de letras {u, v} y B el conjunto de u u v v v u 1 1 1 los n umeros {1, 1}. Denamos las operaciones y mediante las tablas del recuadro a la derecha. El lector debe observar que la segunda tabla es la tabla usual de multiplicaci on de enteros. Adem as, para obtener la segunda tabla de la primera lo u nico que necesitamos es cambiar por , u por 1 y v por 1. Esto lo que quiere decir, es que la funci on u 7 1 , v 7 1 es un isomorsmo de (A, ) en (B, ). El lector puede ver que ambas tablas son en esencia la misma, solamente que las notaciones para los elementos y la operaci on est an cambiadas. Si para dos grupos (o anillos o campos) existe un isomorsmo entre ellos entonces se dice que ellos son isomorfos. Etimol ogicamente, la palabra isomorfo signica que tienen la misma forma. En forma intuitiva, que ellos sean isomorfos quiere decir que los dos son iguales con la salvedad de que podemos cambiar las notaciones de los elementos y las operaciones. Ciertos tipos de morsmos tienen nombres especiales. A los morsmos sobreyectivos se les llama epimorsmos, a los injectivos se les llama monomorsmos. A los morsmos de un conjunto en si mismo se les llama endomorsmos y a los endomorsmos biyectivos se les llama automorsmos.
En otras ramas de las matem aticas tambi en se denen morsmos e isomorsmos. Sin embargo no siempre es suciente la biyectividad para denir los isomorsmos. Por ejemplo, en topolog a los morsmos son las funciones continuas. Pero la inversa de una biyecci on continua no siempre es continua. Por esto, un isomorsmo de espacios topol ogicos hay que denirlo como una biyecci on continua cuya inversa es continua.

Composici on de morsmos Sean A, B y C tres conjuntos y f : A B , g : B C dos funciones. A la funci on g f : A C denida por (g f) (a) = g (f (a)) se le llama la composici on de f con g. A partir de ahora el s mbolo solo lo utilizaremos para denotar la composici on de

14

Cap tulo 1. Campos

funciones. Observese el orden en que escribimos las funciones ya que la composici on de funciones no es conmutativa. La composici on de funciones es asociativa. Prueba. Sean f : A B , g : B C y h : C D tres funciones. Por denici on de composici on para cualquier a A tenemos (h (g f)) (a) = h ((g f) (a)) = h (g (f (a))) = (h g) (f (a)) = ((h g) f) (a) que es lo que se quer a probar Ahora, supongamos que en A, B y C hay denidas operaciones binarias. Entonces f, g y g f pueden ser morsmos o no. Sin embargo, si f y g lo son entonces f g tambi en lo es. Las composici ones de morsmos son morsmos. Prueba. Denotemos las operaciones en A, B y C con el mismo s mbolo . Como f y g son morsmos tenemos (g f) (a b) = g (f (a b)) = g (f (a) f (b)) = g (f (a)) g (f (b)) = (g f) (a) (g f) (b) que es lo que se necesitaba probar.

Ejercicio 19 Pruebe que el conjunto de los automorsmos de un conjunto con una o


dos operaciones binarias es un grupo con respecto a la composici on de funciones. Ejercicio 20 Sean f y g dos funciones. Pruebe que si g f es la identidad entonces, f es inyectiva y g es sobreyectiva. [240]

1.4

Campos de restos

Hasta ahora los campos que conocemos son Q, R y C que se supone que ya son muy conocidos por el lector. Es imprescindible, para dar una intuici on saludable de lo que es un campo, introducir otros que no sean tan usuales. En esta secci on presentaremos ciertos campos que tienen un n umero nito de elementos. Para construirlos, usaremos las propiedades de los morsmos de la secci on anterior. El anillo de los enteros m odulo n Sea n un n umero natural mayor que 1. Para un entero a b = (a + b) mod n a la notaci on a mod n signica el resto de la divisi on de a a b = (ab) mod n entre n. O sea, el menor natural k tal que existe un entero t para los cuales a = k + tn. Por denici on a mod n Zn = {0, 1, ..., n 1} y en Zn hay naturalmente denidas dos operaci ones binarias como se muestra en el recuadro.

Secci on 1.4

Campos de restos

15

Ejercicio 21 Construya las tablas de sumar y multiplicar en Z2 , Z3 y Z4 .


(Zn , , ) es un anillo conmutativo. Prueba. Denotemos f : Z 3 a 7 a mod n Zn o sea f (a) = a mod n. Observemos que por denici on de las operaciones y se tiene que a b = f (a + b) y a b = f (ab). Adem as, para cualesquiera x, y Z existen enteros p, q tales que x = f (x)+ qn, y = f (y) + pn y por lo tanto f (x) = f (y) si y solo si x y es multiplo de n. Probemos que f : (Z, +) (Zn , ) es un morsmo. Tenemos que f (x) + f (y) = x + y (q + p) n y por lo tanto f (x)+ f (y) x + y es m ultiplo de n. Luego, f (x + y) = f (f (x) + f (y)) o lo que es lo mismo, f (x + y) = f (x) f (y) y esto prueba que f es morsmo para la suma. Ahora probaremos que f : (Z, ) (Zn , ) es un morsmo. Tenemos que f (x) f (y) = (x qn) (y pn) = xy +(nqp yq xp) n y por lo tanto f (x) f (y) xy es m ultiplo de n. Luego, f (xy) = f (f (x) f (y)) o lo que es lo mismo, f (xy) = f (x) f (y) y esto prueba que f es morsmo para el producto. Como f es sobreyectiva, (Z, +, ) es anillo conmutativo y los morsmos preservan las propiedades de las operaciones, concluimos que (Zn , , ) es tambi en un anillo conmutativo. Hemos denotado la suma y el producto en Zn con los s mbolos extra nos y . El objetivo de esto fu e el asegurarnos que en la demostraci on del resultado anterior el lector no se confundiera con la suma y el producto habitual de n umeros enteros. De ahora en lo adelante no haremos m as esto. La suma en Zn se denotar a con el s mbolo + y el producto, con la ausencia de s mbolo alguno, o a lo m as, con un punto. Para poder hacer esto es necesario que el lector comprenda (muchas veces solo del contexto) en que sentido estamos utilizando estas notaciones. As por ejemplo, 2 + 3 = 5 si la suma es la habitual de enteros o es la de Z11 pero 2 + 3 = 1 si la suma es la de Z4 . Dominios de integridad Despu es de saber que (Zn , +, ) es un anillo conmutativo, lo natural es preguntarnos si este es un campo. Lo u nico que le falta a un anillo conmutativo para ser campo, es la existencia de inversos para el producto. Veamos por ejemplo el caso de Z6 . Aqu tenemos 2 3 = 0. Que raro, el producto de dos n umeros diferentes de cero es igual a cero. Es posible eso en un campo? Veremos que no. Un anillo conmutativo se le llama dominio de integridad si el producto elementos distintos de cero es siempre diferente de cero. Sabemos que Z, Q, R y C son dominios de integridad. Tambi en, ya vimos que Z6 no es dominio de integridad.
def

16

Cap tulo 1. Campos


Todo campo es un dominio de integridad.

Prueba. Supongamos pq = 0 y p 6= 0 entonces multiplicando la primera igualdad por el inverso multiplicativo de p obtenemos 0 = p1 0 = p1 pq = q. Luego, q = 0. Luego, Z6 no es un campo. Este ejemplo se generaliza f acilmente. Sea n = pq una descomposici on en factores no triviales (ambos diferentes a 1) de n. Sabemos que p y q est an en Zn y que pq = n = 0 mod n. Luego, si n es un n umero compuesto (no primo) entonces, Zn no es un dominio de integridad y por lo tanto no es un campo. El campo de los enteros m odulo p Y que pasa cuando p es primo? Zp es un dominio de integridad. Prueba. Sean x, y {1, . . . , p 1} . Si xy = 0 en Zp entonces xy = 0 mod p. Luego, en Z tenemos que xy = kp. Como p es primo entonces, p divide a x o y pero esto no puede ser ya que ambos son menores que p. Este resultado no es suciente para probar que Zp es un campo ya que hay dominios de integridad que no son campos (por ejemplo Z). Nos hace falta el siguiente resultado. Todo dominio de integridad nito es un campo. Prueba. Sea A un dominio de integridad nito. Para ver que A es un campo solo hay que demostrar que todo elemento no nulo tiene inverso. Sea a un elemento arbitrario no nulo de A. Denotemos por fa la funci on A 3 x 7 ax A. Esta funci on es inyectiva ya que (ax = ay) (a (x y) = 0) (x y = 0) x = y. on inyectiva de un conjunto nito en si mismo es tambi en soComo fa es una funci breyectiva. Luego tiene que existir b tal que fa (b) = ab = 1. Como el producto es conmutativo, esto demuestra que a tiene inverso. Como Zp es nito, concluimos inmediatamente que Zp es un campo si y solo si p es un n umero primo. Los campos Zp son los primeros ejemplos de campos que tienen un n umero nito de elementos. A los campos nitos se les lama campos de Galois en honor al matem atico franc es Evariste Galois (1811-1832). Al resolver el problema de encontrar cuales ecuaciones polinomiales son solubles en radicales y cuales no, Galois de facto invent o la Teor a de Grupos. Galois muri o a los 20 a nos en un duelo provocado por asuntos amorosos y/o pol ticos. El apellido Galois se pronuncia en espa nol como galu a

Secci on 1.5

Campos primos. Caracter stica

17

y (a, b) (a0 , b0 ) = (aa0 + 7bb0 , ab0 + a0 b) es un campo de 121 elementos. [241] Ejercicio 24 Sea G un subgrupo nito del grupo multiplicativo de un campo. Calcule el producto de todos los elementos de G. [241] Ejercicio 25 Demuestre que todo subgrupo nito con q elementos del grupo multiplicativo de un campo es isomorfo a (Zq , +). [241]

Ejercicio 22 Halle los inversos de los elementos no nulos de Z5 . [240] 0 0 0 0 Ejercicio 23 Demuestre que Z2 11 con las operaciones (a, b)+(a , b ) = (a + a , b + b )

1.5

Campos primos. Caracter stica

Sea K un campo. Un subcampo de K es sencillamente un subconjunto de K que es campo para las mismas operaciones. Si L es un subcampo de K entonces a, b L c L\{0} se tienen que cumplir las siguientes propiedades 1. a + b L, a L, (L es un subgrupo aditivo) 2. ab L, c1 L, (L\{0} es un subgrupo multiplicativo)

Rec procamente, si se cumplen las propiedades 1 y 2 entonces, las operaciones de suma, opuesto, producto e inverso est an correctamente denidas dentro de L y el tiene que contener a 0 y a 1. Como los axiomas de campo se cumplen dentro de todo K, con m as raz on se cumplen dentro de L. Esto indica que para comprobar si L es un subcampo basta comprobar las propiedades 1 y 2. El ejemplo m as sencillo de esto es Q, que es subcampo R, que a su vez es subcampo de C. El concepto de subcampo incluye las operaciones. Si por un lado {0, ..., p1} = Zp es un subconjunto de Q, por el otro, Zp NO es un subcampo de Q (ya que por ejemplo 2 (p 1) = p 2 en Zp lo que no es cierto en Q). De la misma manera, ning un Zp es subcampo de Zq para p 6= q. Campos primos Todo campo es subcampo de si mismo. A los campos que no tienen ning un subcampo distinto de si mismo se les llama campos primos. Los campos primos son los m as sencillos y deduciremos cuales todos ellos. Todo campo K contiene un u nico subcampo primo que est a contenido en cualquier subcampo de K. Prueba. La intersecci on de una colecci on arbitraria de subcampos de K es un subcampo. Para ver esto observamos que si a y b pertenecen a todos los subcampos de la

18

Cap tulo 1. Campos

colecci on entonces a + b tambi en. Por lo tanto, a + b est a en la intersecci on de ellos. Lo mismo ocurre para el producto, para los neutros y los inversos. En particular, la intersecci on de todos los subcampos de K es un subcampo que no contiene subcampos y est a contenida en cualquier subcampo de K. El campo Q de los n umeros racionales es primo. Prueba. Sea K un subcampo de Q. Tenemos 1 K y por lo tanto todas las sumas 1 + ... + 1 y sus opuestos aditivos tienen que estar en K. Luego, todos los enteros est an en K. Tambi en los inversos multiplicativos de los n umeros enteros y sus productos tienen que estar todos en K. Luego, todos los racionales est an en K. Los campos Zp de los restos m odulo un n umero primo son campos primos. Prueba. Sea K un subcampo de Zp . Tenemos 1 K y por lo tanto todas las sumas 1 + ... + 1 est an en K. Como cualquier elemento de Zp es suma de unos obtenemos que Zp K. Teorema de Clasicaci on de Campos Primos Los campos Zp y el campo Q son los u nicos campos primos. Prueba. Sea un K campo primo. Para un n umero natural n denotemos por n = n veces z }| { 1 + ... + 1 donde 1 es el neutro multiplicativo de K. Observese que 0 = 0. Obviamente, n es un elemento del campo. Denotemos por P = {n K | n N} . Hay dos posibilidades excluyentes 1. La aplicaci on n 7 n es una biyecci on de en N en P. 2. Existen dos naturales distintos n y m tales que n = m. En el primer caso K contiene a los naturales. Como K es un campo tambi en tiene que contener a los opuestos de los naturales, o sea a los enteros. Por la misma raz on, K tiene que contener a los inversos de los enteros con lo que se prueba que los racionales son un subcampo de K. Como K es primo obtenemos que K = Q. En el segundo caso, sea p el natural m as peque no para el cual existe n < p tal que n = p. Tenemos n = p p n = p n = 0. Si n > 0 entonces, p n < p y adem as p n = 0 lo que contradice la minimalidad de p. Luego, n = 0 y por lo tanto p = 0. Sea ahora x > p. Como sabemos dividir los enteros con resto entonces, existen

Secci on 1.6

Aritm etica de campos

19

odulo p. Si p no es primo entonces, lo que muestra que P es el anillo Zp de los restos m en Zp K hay dos elementos a, b no cero tales que ab = 0. Como en un campo esto no es posible entonces, deducimos que p es primo. Luego, Zp es un subcampo de K. Como K es primo obtenemos que K = Zp . Caracter stica Por el teorema anterior cualquier campo o contiene a Q o contiene a Zp . Se dice que un campo es de caracter stica 0 si este contiene a Q. Se dice que un campo es de caracter stica p si este contiene a Zp . La caracter stica de un campo es un n umero primo o es cero. La propiedad fundamental de la caracter stica de un campo es la siguiente: Si K es un campo de caracter stica t entonces, ta = 0 para cualquier a K. Prueba. Si t es un n umero primo entonces, el campo contiene a Zt y def tx = | x + {z ... + x } = 1x + ... + 1x = (t1) x
t veces

naturales a, k tales que x = a + kp y a < p. De aqu kp veces k veces z }| { z }| { +1 x = a + kp = a + kp = a + 1 +1 | + {z } + + 1 } = a +0 ++0 = a | + {z


p veces p veces

en t1 Zt . En Zt se tiene que t1 = 0. Si t = 0 la Como 1 Zt entonces tambi armaci on es trivial.

Ejercicio 26 [242] Ejercicio 27 a K se tiene Ejercicio 28

Contradice o no 1.15 que todo campo es un dominio de integridad? Pruebe el rec proco de 1.15: Si t es el menor natural tal que para todo que ta = 0 entonces la caracter stica de K es igual a t. Es cierto o no que en todo campo (a = a) (a = 0)? [243]

1.6

Aritm etica de campos

Los campos se comportan en la mayor a de las cosas importantes como los n umeros reales. Por m as que tratemos construir un campo raro pero muy raro (lo que es posible) no lograremos que se dejen de cumplir todas las propiedades de la aritm etica las cuales nos son familiares desde temprana edad. Pasemos a describir en toda su generalidad algunas consecuencias simples y otras un poco m as complicadas de los axiomas de campo lo que nos convencer a de lo armado.

20

Cap tulo 1. Campos

M ultiplos y exponentes enteros En todo campo para cualquier n umero entero n y cualquier elemento del campo a se usan las siguientes notaciones n veces n veces z }| { z }| { a + a + ... + a si n > 0 aa...a si n > 0 n na = = a 1 si n=0 0 si n = 0 1 si n < 0 (n) (a) si n < 0 a n Asociatividad general Recordemos nuevamente el uso del s mbolo de sumatoria . Si A es un conjunto nito de elementos del campo entonces podemos escribir la expresi on ai en el recuadro a la izquierda para expresar que queremos sumar todos los i =1 elementos del conjunto A = {a1 , ..., an }. La asociatividad de la operaci on de suma nos dice que esta expresi on tiene sentido u nico ya que no es necesario explicitar las sumas hay que realizar primero y cuales despu es. En realidad incluso esta notaci on es redundante, m as consisa es esta otra X notaci on en el recuadro a la derecha que podemos usar gracias a la conmutaa tividad de la suma. O sea no importa si en la suma a1 est a delante de a2 o al aA rev ez. Solo es necesario especicar cual es el conjunto A de elementos que se est an sumando. Como tenemos que el producto de elementos de un campo es tambi en n Y Y asociativo y conmutativo podemos usar las expresiones equivalentes ai = a de la izquierda para denotar el producto de todos los elementos del i =1 a A conjunto A = {a1 , ..., an } .
n X

y se cumplen las propriedades usuales: (n + m) a = na + ma y an +m = an am .

Distributividad general M as dif cil es dar una forma general de la ley distributiva. Usando las leyes de los campos obtenemos (a + b) (c + d) = a (c + d) + b (c + d) = ac + ad + bc + bd ! ! y el lector podr a convencerse f acilmente, haciendo X X XX alculo para conjuntos peque nos A y B, que en a b = ab el c general se cumple la f ormula de la izquierda. a A b B a A b B M as general, para muchos factores tenemos ! ! ! X X X XX X a b c = ... ab c
a A b B c C a A b B c C

A esta igualdad la llamaremos forma general de la ley distributiva y tendremos muchas ocaciones en que la usaremos.

Secci on 1.6
F ormula multinomial

Aritm etica de campos

21

Aplicando la forma general de la ley distributiva al caso en que todos los conjuntos sean iguales obtenemos la siguiente f ormula: !n X X X a = ... a1 an (*)
a A a 1 A a n A

Esta f ormula aunque relativamente sencilla tiene un gran defecto. Por ejemplo, el producto aabacccbba que pudiera aparecer como sumando a la derecha de la igualdad tiene (gracias a la asociatividad y conmutatividad del producto) una manera mucho m as sencilla de expresarse como a4 b3 c3 . Para arreglar este defecto, d emosle nombres a los elementos de A y pongamos A = {x1 , ..., xm }. Ahora si n1 , ..., nm son naturales nm 1 entonces, un monomio xn ormula 1 xm aparece como sumando a la derecha en la f P (*) si y solo si ni =P n (ya que los sumandos en (*) son productos de n elementos de A). Supongamos que ni = n. Si todos los ni son uno o cero entonces en (*) hay n! nm 1 sumandos iguales al monomio xn umero 1 xm (ya que podemos ordenarlos de ese n de maneras). Si digamos n7 es mayor que 1 entonces tenemos que dividir por n7 ! ya que al permutar x7 ...x7 no obtenemos nuevos sumandos en (*). Lo mismo sucede con los otros ni . Como por denici on 0! = 1! = 1, nalmente obtenemos la siguiente expresi on conocida como f ormula multinomial. m !n X X n! nm 1 xn xi = 1 xm n 1 !...nm ! i= 1 donde la suma a la derecha umeros P de la igualdad recorre todas las soluciones en n naturales de la ecuaci on ni = n. En el caso particular m = 2, haciendo el cambio de variable n1 = k obtenemos (x + y) =
n n 1 +n 2

n! n 1 n 2 X n! x y = xk yn k n ! n ! k ! ( n k ) ! 2 =n 1 k =0
n

que es la famosa f ormula del binomio de Newton. Si bien las f ormulas que hemos demostrado parecen ser complicadas los argumentos que llevan a ellas son muy sencillos. Es importante que el estudiante se familiarize bien con estos argumentos ya que las formas multilineales y en particular los determinantes son muy parecidos a la parte derecha de la igualdad (*). Sir Isaac Newton (Inglaterra 1643-1727) es probablemente el cient co m as renombrado de todos los tiempos. Fundador de la mec anica, la optica y el c alculo diferencial. Sus tres leyes de la mec anica fundaron la base de la ingenier a que llev o a la revoluci on industrial.

22

Cap tulo 1. Campos

Ejercicio 29 Sea K un campo de caracter stica p > 0. Demuestre que la funci on K 3 x 7 xp K es un morsmo de campos. Demuestre que si K es un campo nito entonces esta funci on es un automorsmo de K. A este automorsmo se le llama automorsmo de Frobenius. [243]
La expansi on de ij Ahora deduciremos otra consecuencia de la forma general de la ley Y X distributiva que usaremos mucho m as adelante. Supongamos que N es un ij conjunto nito de ndices y que para cada pareja de ndices (i, j) tenemos iN jN un elemento del campo K que denotaremos por ij . Nuestro objetivo es usar la ley distributiva para expresar el elemento del campo del recuadro a la derecha como una suma de productos. Para esto lo m as c omodo es pensar que el conjunto N es {1, . . . , n} y expresar la forma general de la ley distributiva en nuestro caso de la siguiente manera ! ! X X X X XY 1j1 njn = ... 1j1 1jn = iji
j1 N jn N j1 N j n N iN

donde la suma m as a la derecha en esta igualdad recorre todos los elementos (j1 , . . . , jn ) del producto cartesiano N N de n copias de N o sea, Nn . Otra manera de pensar a (j1 , . . . , jn ) es que tenemos una funci on f : N = {1, . . . , n} 3 i 7 ji = f (i) N y en nuestra suma tenemos que recorrer todas estas posibles funciones o sea, el conjunto NN de todas las funciones de N en N. Luego, en estas notaciones nalmente obtenemos XY YX ij = if(i)
iN jN f N N iN

que es una f ormula que ya no depende de cual es el conjunto N. Debemos recalcar una vez m as que todo lo dicho en esta secci on es v alido para un no conoscamos. cualquier campo, sea este R, C, Q, Zp o cualquier otro campo que a Esta es la ventaja intr nseca de la abstracci on. No tenemos que demostrar el teorema de Pit agoras para tri angulos de acero, madera, etc. Estas propiedades no tienen nada que ver con que el cuadrado de la hipotenusa sea igual a la suma de los cuadrados de los catetos. De la misma manera el binomio de Newton no tiene nada que ver con que si los n umeros son reales o complejos u otros. Solo basta que nuestros n umeros formen un campo.
Un lector atento, podr a observar que en las pruebas de todas las f ormulas en ning un momento usamos la existencia de inversos en el campo. Luego, estas son v alidas en cualquier anillo conmutativo. A diferencia de las matem aticas elementales en matem aticas superiores, por aritm etica se entiende el estudio de las propiedades de divisibilidad en anillos. En este sentido, la aritm etica de campos es trivial ya que todo elemento se divide entre cualquier otro no nulo.

Secci on 1.7 1.7

Anillos con divisi on

23

Anillos con divisi on

Si en los axiomas de campo eliminamos la condici on de que el producto es conmutativo obtenemos el concepto de anillo con divisi on (tambi en se le llama cuerpo). O sea, un anillo con divisi on es un conjunto AD1) (D, +) es un grupo abeliano D con una suma y un producto tal que se AD2) (D\0, ) es un grupo cumplen los axiomas del recuadro. En parAD3) es distributivo con respecto a + ticular, todo campo es anillo con divisi on.

Ejercicio 30 Pruebe que si (D, +, ) es tal que (D, +) es un grupo, (D\ {0} , ) es un

grupo y el producto es distributivo respecto a la suma entonces, la suma es conmutativa. En otras palabras en los axiomas de anillo con divisi on la conmutatividad de la suma es consecuencia del resto de los axiomas. [243]

Quaterniones No es muy f acil construir anillos con divisi on que no sean campos. Para esto, supongamos que en lugar de un solo n umero imaginario i tenemos tres diferentes imaginarios i, j y k que cumplen que i2 = j2 = k2 = 1. Un quaterni on es un n umero de la forma a + bi + cj + dk donde a, b, c, d son n umeros reales. El lector debe observar la analog a con los n umeros complejos. Podemos sumar quaterniones por coordenadas (a + bi + cj + dk) + (a0 + b0 i + c0 j + d0 k) = ((a + a0 ) + (b + b0 ) i + (c + c0 ) j + (d + d0 ) k) y es f acil comprobar que el conjunto de todos los quaterniones H es un grupo abeliano respecto a la suma. Para poder mutiplicar quaterniones postulamos que si a es un real y x es un imaginario entonces ax = xa. Tambi en postulamos que si x y y son dos imaginarios distintos entonces xy = yx. Esto nos dice que nuestra multiplicaci on de quaterniones no es conmutativa. Ahora, si a + bi + cj + dk y a0 + b0 i + c0 j + d0 k son dos quaterniones arbitrarios entonces los multiplicamos como si fueran polinomios en las variables no conmutativas i, j, k y usando los postulados obtenemos que su producto es igual a aa0 bb0 cc0 dd0 + + (ab0 + ba0 ) i + (ac0 + ca0 ) j + (da0 + ad0 ) k+ + (bc0 cb0 ) ij + (cd0 dc0 ) jk + (db0 bd0 ) ki.

24

Cap tulo 1. Campos

Para poder concluir la denici on de la multiplica- a00 = aa0 bb0 cc0 dd0 ci on de quaterniones postulamos que ij = k, jk = i y b00 = ab0 + ba0 + cd0 dc0 ki = j. As denitivamente, obtenemos que el produc- c00 = ac0 + ca0 + db0 bd0 to de nuestros quaterniones es (a00 + b00 i + c00 j + d00 k) d00 = da0 + ad0 + bc0 cb0 donde los coecientes a00 , b00 , c00 y d00 son los denidos en el recuadro a la derecha. O sea, el producto de quaterniones es un quaternion. No es dif cil (pero si laborioso) probar directamente que este producto es asociativo tiene elemento neutro 1 = 1 + 0i + 0j + 0k y que es distributivo respecto a la suma. Para comprobar la existencia de inversos multiplicativos denimos para un quater = a bi cj dk. nion no nulo x = a + bi + cj + dk su quaterni on conjugado x =x x = a2 + b2 + c2 + d2 De la denici on de producto de quaterniones tenemos que xx (xx )1 es es un n umero real que tiene inverso multiplicativo. De esto se deduce que x el inverso multiplicativo de x. En resumen, el conjunto de los quaterniones H son un anillo con divisi on pero no son un campo. Los quaterniones fueron descubiertos en 1843 por el f sico, matem atico y astr onomo irland es Sir William Rowan Hamilton (1805 1865). De aqu la notaci on H para denotar el anillo de quaterniones. Los quaterniones jugaron un papel fundamental en la matem atica y la f sica del siglo XIX. Por ejemplo, James Clerk Maxwell us o los quaterniones para desarrollar sus equaciones del electromagnetismo. En la actualidad son importantes por ejemplo, para las aplicaciones en las cuales se requiere describir en forma eciente rotaciones espaciales (rob otica, control de naves espaciales, gr acos por computadoras, etc.).

Ejercicio 31 Muestre que la tabla de multiplicar de los imaginarios i, j, k es consecuencia de las igualdades de Hamilton i2 = j2 = k2 = ijk = 1. [243] Ejercicio 32 Muestre que los quaterniones que son raices cuadradas de 1 forman as precisamente (a + bi + cj + dk)2 = 1 si y solo naturalmente una esfera en R3 . M si se cumple que b2 + c2 + d2 = 1. [243] Ejercicio 33 Constraste 5.5 con el hecho de que hay un innito n umero de quaterniones que son raices de 1 (ejercicio 32). Que falla en la prueba de 5.5 para el caso de los quaterniones? [243] Caso nito Los quaterniones son un anillo con divisi on innito y es natural preguntarse si se pueden construir anillos con divisi on nitos que no sean campos. El siguiente teorema responde esta pregunta en forma negativa.

Secci on 1.7

Anillos con divisi on

25

Teorema de Wedderburn Todo anillo con divisi on nito es un campo. La prueba de este teorema involucra un an alisis del grupo multiplicativo del anillo y usa t ecnicas de teor a de grupos que se salen fuera de los objetivos de este libro.

26

Captulo segundo

Espacios Vectoriales
ste es el objeto central del algebra lineal. Motivaremos la introducci on de este concepto en el ejemplo geom etrico del plano cartesiano. Daremos las denici on de espacio vectorial complementandola con los ejemplos m as fundamentales. Profundizaremos en la estructura de estos estudiando sus subespacios, sus bases, su dimensi on etc. lo que nos llevar a a entender todos los espacios vectoriales (al menos los de dimensi on nita). Finalizaremos este cap tulo con el estudio de las operaciones entre subespacios y subespacios anes lo que nos llevar a a entender los espacios cocientes.

2.1

El plano cartesiano

Hubo alg un tiempo, en que el algebra y la geometr a eran dos cosas totalmente aparte. Los algebristas trabajaban con n umeros, polinomios, raices, f ormulas, etc. y los ge ometras con puntos, lineas, pol gonos, etc. Ren e Descartes (Francia 1596-1650) fu e el que tuvo la brillante idea de introducir los ejes de coordenadas. Tomamos dos rectas perpendiculares, a la y horizontal se le llama eje de las equis y a la vertical se le llama eje de las yes. p py Para cada punto del plano p trazamos la perpendicular al eje x y al eje y y de esta manera obtenemos los puntos px en el eje x y py en el eje y. Por cuanto, el eje de las x lo podemos identicar (escogiendo una unidad de medida) con R donde el cero es el origen de coordenadas (la intersecci on de los dos px x ejes) por tanto, px es simplemente un n umero real. De la misma manera py es otro n umero real. As , a cada punto del plano p se le hace corresponder biun vocamente una pareja de n umeros reales (px , py ). Adem as, es conveniente representar cada punto del plano como el segmento dirigido desde el origen de coordenadas hasta el punto o sea como vectores. A los elementos de R (para diferenciarlos de los vectores) los llamaremos escalares.

28

Cap tulo 2. Espacios vectoriales


Denotaremos los vectores por letras latinas en negritas. A diferencia de estos, los escalares se denotar an por letras latinas y griegas normales.

a + b Si a = (ax , ay ) y b = (bx , by ) son dos vectores la suma de los mismos se dene como a + b = (ax + bx , ay + by ) . La suma, geoa m etricamente no es nada m as que la diagonal del paralelogramo generado por a y b . Del hecho que (R, +) es un grupo abeliano b se desprende f acilmente que nuestro plano cartesiano R2 es tambi en x un grupo con respecto a la suma de vectores. Si a = (ax , ay ) es un vector y un escalar el producto a se dene y 2a como (ax , ay ) . Geom etricamente este producto es aumentar (o reducir) a en un factor el vector a. Si el factor es negativo entonces el resultado x apunta en la direcci on opuesta. Si el factor es cero entonces el vector se degenera al origen de coordenadas. (a + b) = a+b El producto por escalares es distributivo con respecto a la suen con respecto a la suma de escalares ( + ) a =a+a ma de vectores y tambi o sea se cumplen las igualdades en el recuadro. Estas dos leyes distributivas (son diferentes!) se cumplen porque son ciertas en cada coordenada. Adem as, obviamente tenemos que (a) = () a. Todo esto nos dice que el plano cartesiano es nuestro primer ejemplo de espacio vectorial sobre los reales. y

2.2

Denici on y ejemplos

La primera denici on de espacio vectorial la dio Giuseppe Peano (Italia, 1858 -1932), en su libro C alculo Geom etrico publicado en 1888. Peano es m as conocido por su axiom atica de los n umeros naturales, o por la Curva de Peano que es una inmersi on continua sobreyectiva del intervalo en el cuadrado. Sea K un campo cuyos elementos los llamaremos escalares y (E, +) un grupo abeliano cuyos elementos los llamaremos vectores. Diremos que es un espacio vectorial sobre K si est a denida una operaci on de pro- E1) (a + b) = a + b ( + ) a =a+a ducto de escalares por vectores KE E que cumple E2) (a) = () a las propiedades E1-E3. A los axiomas E1 y E2 se les llama distributividad y asociatividad respectiva- E3) 1a = a mente del producto por escalares. Como (E, +) es un grupo abeliano entonces, tiene que tener un vector neutro que denotaremos por 0. El opuesto del vector a se denota por a. Por otro lado el campo de escalares tiene un neutro para la suma: el 0, un neutro para el producto: el 1, opuestos para la suma e inversos multiplicativos 1 . Las relaciones que cumplen estos con respecto al producto por escalares nos las da el siguiente resultado b asico.

Secci on 2.2

Denici on y ejemplos

29

En todo espacio vectorial para cualquier vector a y cualquier escalar se cumple que 0a = 0, (1) a = a y 0 = 0. Prueba. La demostraci on se realiza mediante las siguentes tres cadenas de igualdades E3 E1 0a = 0a + 1a a = (0 + 1) a a = a a = 0 E3 E1 (1) a = (1) a + 1a a = (1 + 1) a a = 0a a = a E2 E3 E1 E3 0 = 0 + 1 0 = 0 + 1 0 = 1 0 = 1 0 = 0 donde signos = est an marcados con los axiomas por los que son v alidos.

Ejercicio 34 Demuestre geom etricamente que la diagonal del paralelogramo generado por a y b tiene coordenadas (ax + bx , ay + by ). [243] Ejercicio 35 Cual es la interpretaci on geom etrica de la resta de vectores? Ejercicio 36 Cuantas diferentes operaciones hay en (a) y () a? [244] Ejercicio 37 Demuestre que a = 0 = 0 o a = 0. [244] Ejercicio 38 Cual es el m nimo n umero de elementos que puede tener un espacio vectorial? [244]
Veamos ahora algunos ejemplos de espacios vectoriales. Es muy importante que el lector no se pierda en la cantidad de ejemplos que sigue. La mayor a de ellos son fundamentales para entender este libro. En particular, introduciremos notaciones b asicas que ser an usadas constantemente. El espacio de n-adas Kn Consideremos el producto cartesiano de n copias Kn = {(a , a , ..., a ) | a K} 1 2 n i del campo K. Este producto se denota por Kn y est a formado por todas las n-adas (a1 , a2 , ..., an ). Al escalar ai se le llama la i- esima coordenada de la n-ada (a1 , a2 , ..., an ). Luego, una n-ada tiene n coordenadas. Los vectores ser an las n-adas, los escalares ser an los elemenn (a1 , ..., an ) acilmente la suma por coortos de K. En K se introduce f denadas como se muestra en el recuadro a la izquierda. Del (b1 , ..., bn ) (a1 + b1 , ..., an + bn ) hecho de que las propiedades necesarias se cumplen en cada coordenada se desprende que (Kn , +) es un grupo abeliano. La multiplicaci on por escalares tambi en se introduce por (a1 , ..., an ) coordenadas. El axioma E1 se reduce en cada coordenada a la distributividad del producto respecto a la suma en el campo K. (a1 , a2 , ..., an ) El axioma E2 a la asociatividad del producto en K. Finalmente, el axioma E3 se reduce en cada coordenada a que 1 es el neutro para el producto en el campo K. De esta manera obtenemos que Kn es un espacio vectorial sobre K.

30

Cap tulo 2. Espacios vectoriales

El espacio de polinomios K [x] Podemos sumar polinomios, esta suma se hace co n X eciente por coeciente. Tambi en sabemos multiplia K ai xi | i car un elemento de K por un polinomio. Es muy co- K [x] = nN i= 0 nocido que todos los axiomas de espacio vectorial se cumplen. En cierto sentido P estei espacio vectorial es parecido al anterior. Podemos asociar a cada polinomio n on por i=0 ai x la (n + 1)-ada (a0 , a1 , , ..., an ) y la multiplicaci n +1 escalar es la misma que en K . Para la suma podemos tener un problema Pmsi soni de grados diferentes pero esto se resuelve agregando sucientes ceros o sea si i=0 bi x es otro polinomio con n > m entonces podemos asociarle la n-ada (b0 , b1 , ..., bn , 0, ..., 0) con sucientes ceros para completar las n coordenadas y entonces la suma es la misma que en Kn +1 . Aunque sepamos multiplicar polinomios, esto no tiene ning un papel en el concepto de espacio vectorial. El espacio de sucesiones KN Dos sucesiones se suman por coordenadas como se mues(a1 , a2 , ..., an , ...) tra en el recuadro. La mutiplicaci on un escalar es tambi en por coordenadas. Los axiomas de espacio vectorial (b1 , b2 , ..., bn , ...) se comprueban f acilmente. El lector debe observar que (a1 + b1 , , ..., an + bn , ....) los elementos de la sucesi on pueden estar en un campo arbitrario y no necesariamente en R como estamos acostumbrados. La noci on de convergencia de sucesiones no tiene nada que ver con el concepto de espacio vectorial.

El espacio de series K [[x]] Las series se suman coeciente por coeciente. Pa X ra multiplicar por un escalar se multiplican todos los ai xi | ai K coecientes por el escalar. Los axiomas de espacio vec- K [[x]] = i= 0 torial se cumplen porque se cumplen para cada coeciente. hecho, este ejemplo es el mismo que el del espacio de sucesiones. Cada serie P De i a x se determina un vocamente por la sucesi on (a0 , a2 , ..., an , ...) de sus coei =0 i cientes y no hay diferencia entre sumar series y sumar las correspondientes sucesiones. Lo mismo pasa con la multiplicaci on por un escalar. Al igual que con los polinomios, el concepto de producto de series no juega ning un papel en el hecho de que K [[x]] sea un espacio vectorial. El espacio de funciones KN Hay una biyecci on natural entre las n-adas (a1 , a2 , ..., an ) Kn y las funciones {1, ..., n} 3 i 7 ai K. Igualmente las sucesiones (a0 , a1 , ..., an , ...) se corresponden biun vocamente con las funciones N 3 i 7 ai K. Ahora, generalicemos estos ejemplos. Si N es un conjunto arbitrario (no necesitamos de operaci on alguna en N) entonces el conjunto de todas las funciones de N en K se denota por KN . Dadas dos funciones

Secci on 2.2

Denici on y ejemplos

31

f, g KN la suma de ellas se dene como es habitual por (f + g) (i) = f (i) + g (i) para cualquier i N. El producto por un escalar se dene por (f) (i) = f (i). Los axiomas de espacio vectorial se comprueban f acilmente. Por ejemplo, la suma de funciones es conmutativa porque para cada i en N se cumple que f (i) + g (i) = g (i) + f (i) gracias a la conmutatividad de la suma en el campo. Como hemos visto, el espacio Kn y el espacio de sucesiones son un caso particular de este ejemplo cuando N es {1, ..., n} y N respectivamente. Adem as, ya observamos que K [[x]] = KN . El espacio de N-adas KN Muy frecuentemente una funci on en KN se denotar a por N . M as precisamente, N es la funci on que a cada i N le hace corresponder el escalar i . Por ejemplo, si N = {1, . . . , n}, entonces N = (1 , . . . , n ). La bondad de esta notaci on es que podemos pensar los elementos de KN (funciones) como si fueran n-adas. Para poder seguir pensando en N como si fuera en una n-ada necesitamos las palabras adecuadas. A las funciones N de KN las llamaremos N-adas. Al conjunto N lo llamaremos conjunto de ndices de N y a los elementos de N los llamaremos ndices. Si i es un ndice, entonces diremos que i es la i- esima coordenada de N . En estas notaciones la suma de dos N-adas es por coordenadas. O sea, la i- esima coordenada de N + N es i + i . El producto por escalares tambi en es por coordenadas. O sea, la i- esima coordenada de N es i . Si el conjunto N es nito y tiene n elementos entonces, la diferencia fundamental entre una N-ada y una n-ada es que las coordenadas de la N-ada no necesariamente est an ordenadas. Por ejemplo, si el conjunto N es un conjunto de tres vectores entonces, estos no tienen un orden natural. Para poder identicar una N-ada de estos con una 3-ada, necesitamos denir articialmente cual es el primer vector cual es el segundo y cual es el tercero. El espacio de N-adas nitas K{N } Sea N KN una N-ada. Diremos que N es nita si el conjunto de ndices i tales que i 6= 0 es nito. Si el conjunto de ndices N es nito entonces, cualquier N-ada es nita (porque un subconjunto de un conjunto nito es nito). Sin embargo, si el conjunto de ndices es innito entonces habr a N-adas innitas. Si sumamos dos N-adas nitas el resultado ser a una N-ada de nita (porque 0 + 0 = 0). Si multiplicamos una N-ada nita por un elemento del campo el resultado ser a una N-ada de nita (porque 0 = 0). Los axiomas de espacio vectorial se cumplen porque ya sabemos que se cumplen para cualesquiera N-adas. Al espacio de N-adas nita se le denota por K{N } . Si N es nito K{N } = KN . Si N es innito K{N } 6= KN . PnComoi ejemplo de espacio de N-adas nitas veamos el siguiente. Cada polinomio vocamente una N-ada aN donde ai = 0 si i > n. Esta N-ada i=0 ai x determina un es nita. Rec procamente, si aN es una N-ada nita entonces, necesariamente, hay un

32

Cap tulo 2. Espacios vectoriales

natural n tal que P ai = 0 para cualquier i > n. As , le podemos hacer corresponder i a aN el polinomio n a x . Esta correspondencia es biun voca y las operaciones son i =0 i las mismas en ambos espacios. Esto nos muestra que, el espacio de polinomios es el espacio de N-adas nitas. En otras palabras K{N} = K [x]. Subcampos Sea L un subcampo de K. Podemos sumar los elementos de K y al multiplicar un elemento de L por uno de K obtenemos un elemento de K. Esto signica que tenemos una operaci on binaria en K (la suma) y una multiplicaci on por escalares L K K. En este caso, los axiomas de espacio vectorial se desprenden directamente de las deniciones de campo y subcampo y obtenemos que K es un espacio vectorial sobre L. Un caso muy particular es que todo campo es espacio vectorial sobre si mismo. Otro ejemplo importante es que R es subcampo de C. Como cada complejo se puede escribir como una pareja (a, b) con coordenadas en R y la suma de complejos y el producto por un real son las mismas operaciones que en R2 tenemos que C como espacio vectorial sobre R es lo mismo que R2 . Otro ejemplo m as es que R es un espacio vectorial sobre Q. Este caso es sucientemente complicado para que no digamos nada m as sobre el. El espacio de N-adas de vectores EN Ahora, nos debemos preguntar, cual es el m nimo de condiciones que le debemos pedir a las coordenadas de una N-ada, para poder denir un espacio vectorial. Ya vimos que, si las coordenadas est an en un campo entonces, obtenemos un espacio vectorial. Pero esto es pedir mucho. En realidad, solo necesitamos saber sumar las coordenadas y multiplicar cada coordenada por un escalar, o sea, necesitamos que las coordenadas sean vectores. M as precisamente. Sea E un espacio vectorial sobre el campo K. Denotaremos por EN el conjunto de todas las N-adas de E. Si aN y bN son dos elementos de EN entonces, la i- esima coordenada de aN + bN es ai + bi . Esto lo podemos hacer porque sabemos sumar los elementos de E. Ahora, si es un elemento de K entonces, la i- esima coordenada de aN es ai . Esto lo podemos hacer porque sabemos multiplicar los escalares en K por los vectores en E. Los axiomas de espacio vectorial se demuestran f acilmente debido a que se cumplen en cada coordenada. El espacio de NM-matrices KNM Un caso particular de N-adas de vectores es cuando estos vectores son M-adas N de escalares. Este espacio es KM . Para aclarar un poco que sucede en este caso, supongamos que N = {1, 2} y que M = {1, 2, 3}. Entonces, un elemento del espacio M N es una 2-ada (a1 , a2 ) de vectores y cada uno de ellos es una 3-ada de escalares. K

Secci on 2.2
a1 = (11 , 12 , 13 ) a2 = (21 , 22 , 23 )

Denici on y ejemplos

33

Los dos vectores los podemos represen- 11 12 13 tar como en el recuadro a la izquierda 21 22 23 y para simplicar nos quedamos con la tabla que vemos a la derecha. ndices Esta tabla es un elemento del espacio de (N M)-adas KN M , o sea, los M N con son parejas en el producto cartesiano N M. Esto nos permite identicar K N M y como las operaciones en ambos espacios son las mismas estos espacios son K en esencia el mismo. Cambiando el orden en que ponemos los indices obtenemos las M N M igualdades K = KN M = KM N = KN que el lector debe comparar con (ax )y = axy = ayx = (ay )x para n umeros naturales a, x, y. Desde ahora, para simplicar la notaci on, a una (N M)-ada cualquiera la llamaremos NM-ada. Tambi en, en lugar de usar la notaci on (N M ) para denotar una NM-ada concreto, usaremos la notaci on NM . A una coordenada de esta NM-ada la denotaremos ij en lugar de usar la m as complicada (i,j) . En esta notaci on, es m as c omodo pensar que hay dos conjuntos de ndices (N y M) en lugar de uno solo (N M). O sea, una NM-ada es un conjunto de elementos del campo indexado por dos conjuntos de ndices. Cuando N = {1, . . . , n} y M = {1, . . . , m} entonces obtenemos una matriz con n renglones y m columnas. En el ejemplo anterior obtuvimos una matriz con 2 renglones y 3 columnas. Para conjuntos N y M arbitrarios (por ejemplo, conjuntos de jerogl cos chinos), la diferencia es que no hay un orden preestablecido entre los elementos de los conjuntos de ndices por lo que no sabr amos cual columna o rengl on poner primero y cual despu es. Como esta diferencia no es tan importante y para no formar confusi on en la terminolog a NM desde ahora, a las NM-adas los llamaremos NM-matrices. Escribiremos K para denotar el espacio vectorial de todas las NM-matrices. Como ya sabemos, en este espacio las matrices se suman por coordenadas y se multiplican por escalares tambi en por coordenadas. Sea NM una NM-matriz. Es costumbre llamarle a las coordenadas ij de NM entradas de la matriz. Si i N entonces la M-ada iM KM es el i- esimo rengl on de la matriz NM . Si j M entonces la N-ada Nj KN es la j- esima columna. Al conjunto N se le llama conjunto de ndices de los renglones. An alogamente, al conjunto M se le llama conjunto de ndices de las columnas. 0 0 os de N y M respectivamente entonces a la Si N , M son subconjuntos no vac matriz N 0 M 0 se le llama submatriz de NM . Si |N0 | = |M0 | = 1 entonces la submatriz es una entrada. Un rengl on es una submatriz donde |N0 | = 1 y M0 = M o sea una submatriz del tipo iM . Una columna es una submatriz donde |M0 | = 1 y N = N0 o sea una submatriz del tipo Nj . Una u ltima observaci on acerca de las matrices, es que toda esta terminolog a de columnas y renglones viene de la manera usual en forma de tabla en que escribimos una matriz concreta.

34

Cap tulo 2. Espacios vectoriales

El espacio de tensores Bueno, y si tenemos m as de dos conjuntos de ndices? Pues es lo mismo. Una NML-ada es una (N M L)-ada. Al igual que en las matrices denotaremos por NML a una NML-ada con tres conjuntos de ndices o sea un tensor de exponente 3. Las matrices son tensores de exponente 2 y las N-adas son tensores de exponente 1. Los tensores de exponente 0 son los elementos del campo. Si bien podemos pensar un tensor de exponente 1, como una serie de elementos del campo uno al lado de otro y pensar los de exponente 2, como una tabla rectangular de elementos del campo, tambi en podemos pensar los tensores de exponente 3, como un conjunto de elementos del campo dispuestos en un arreglo que llenan un cubo en el espacio. Para cada i N tenemos que iML es un tensor de exponente 2 o sea una matriz. Todo NML nos lo podemos imaginar como muchas matrices puestas una encima de la otra. Sin embargo cuando el exponente del tensor es grande ya nuestra imaginaci on no da para visualizar geom etricamente un arreglo de los elementos del campo dispuestos en un cubo de dimensi on grande. Es mucho m as u til el manejo algebraico de estos, que tratar de visualizarlos. En este contexto, la terminolog a de renglones y columnas se hace inutilizable. Como es l ogico, los tensores con conjuntos de ndices jos forman un espacio vectorial. La suma se hace por coordenadas y tambi en la multiplicaci on por un escalar.

2.3

Subespacios

Sea E un espacio vectorial sobre K. Un subespacio es un conjunto no vac o de vectores que es un espacio vectorial para las mismas operaciones. Un conjunto de vectores F no vac o es un subespacio si y solo si para cualesquiera a, b F y K los vectores a + b y a est an en F. Prueba. Si F es un subespacio de E entonces, por denici on a + b y a est an en F. Rec procamente, sea F un conjunto de vectores de E que cumple las hip otesis. Como la suma de vectores es asociativa y conmutativa en E, tambi en lo es en F. Sea a F (existe por ser F no vac o). Tenemos 0a = 0 F. Adem as b F (1) b = b F. Con esto se comprueba que (F, +) es grupo abeliano. Los axiomas de espacio vectorial se cumplen en F por ser este un subconjunto de E.

Secci on 2.3

Subespacios

35

Uni on e intersecci on de subespacios Ser an la intersecci on (y la uni on) de subespacios un subespacio? La uni on de subespacios no es un subespacio. Poe ejemplo, el eje x y el eje y en el plano cartesiano son subespacios sin embargo, la uni on de los mismos no es un subespacio ya que (0, 1)+ (1, 0) = (1, 1) que no pertenece a la uni on de los dos ejes. Por el contrario, la intersecci on de subespacios s es un subespacio. La intersecci on de un conjunto de subespacios es un subespacio. Prueba. La intersecci on de subespacios nunca es vac a porque cada subespacio contiene al 0. Si a y b son dos vectores en cada uno de los subespacios de un conjunto entonces, a + b tambi en est a en cada uno de los subespacios del conjunto. Lo mismo sucede para a. Combinaciones lineales Veamos unos ejemplos importantes de subespacios. Sea a un vector no nulo en R2 . El conjunto hai = {a | R} de todos los m ultiplos a del vector a es un subespacio de R2 ya que a + a = ( + ) a, y (a) = () a. Geom etricamente, teniendo en cuenta la identicaci on de vectores con los puntos del plano cartesiano, vemos que los vectores hai en este espacio son los puntos de la recta por el origen que pasa por a. Sean ahora a y b dos vectores en R3 no colineales o sea a 6= b. Consideremos el conjunto de vectores {a + b | , R}. Este conjunto de vectores se denota por ha, bi y es un subespacio ya que a + b+0 a + 0 b = ( + 0 ) a + ( + 0 ) by (a + b) = a+b. Geom etricamente, vemos que este conjunto contiene a la recta hai que pasa por a y a la l nea hbi que pasa por b. En R3 hay un solo plano que contiene estas dos rectas. Ser a este plano el subespacio ha, bi? Claro que s . Para a cada punto p de este plano dibujemos la paralela a la l nea p hai que pasa por p obteniendo un punto de intersecci on con b la recta hbi el cual es b para alg un R. An alogamente, ha, bi dibujando la paralela a hbi obtenemos el punto a en la recta hai y vemos que p = a + b. Luego, p ha, bi. Estos ejemplos nos motivan a la siguiente denici on. Sea N un conjunto X de vectores. Una combinaci on lineal de N es cualquier vector de la forma i i que se muestra en el recuadro a la derecha. A los escalares i se les llama iN coecientes de la combinaci on lineal. Es posible que no se entienda esta notaci on. El conjunto de ndices es el conjunto de vectores N por lo que en la suma hay tantos sumandos como vectores hay en N. As por ejemplo si N = {a, b, c, d} entonces una combinaci on lineal de N es un

36

Cap tulo 2. Espacios vectoriales

P vector de la forma a + b + c + d. En otras palabras, la notaci on iN i i debe interpretarse as : t omese los vectores de N, cada uno de ellos multipl quese por un escalar y s umese los resultados. No importa el orden de los sumandos, la suma de vectores es conmutativa Todo esto est a muy bien si el conjunto N es nito. Si N es innito tenemos un problema. Que es una suma innita de vectores? La manera de evitar este problema es que le pediremos a los coecientes i que todos salvo un n umero nito sean cero o sea, que la N-ada N cuyas coordenadas son los coecientes de la combinaci on lineal es nita. Como podemos despreciar los sumandos iguales a cero, tenemos que una combinaci on lineal es siempre una suma de un n umero nito de vectores. El conjunto de todas las combinaciones lineales de N es un subespacio. P P Prueba. Sean iN i i y iN i i dos combinaciones lineales de N entonces, de la asociatividad y conmutatividad de la suma de vectores y de la distributividad del producto por escalares obtenemos: X X X i i+ i i = (i + i ) i
iN iN iN

i ) salvo un n umero nito que es una combinaci on lineal de N ya que todos i + P los ( P tienen que ser cero. Lo mismo ocurre con iN i i = iN i i. Cerradura lineal Denotaremos por hNi al conjunto de todas las combinaciones lineales de N. Si F es un subespacio que contiene a N entonces, F contiene a hNi.

Prueba. Si N F entonces, F contiene a todos los m ultiplos de los vectores en N y a todas sus sumas nitas. Luego, cualquier combinaci on lineal de N est a en F. Los 1. 2. 3. siguientes tres conjuntos de vectores coinciden El conjunto de todas las combinaciones lineales de N. La intersecci on de todos los subespacios que contienen a N. El subespacio m as peque no que contiene a N.

Prueba. Denotemos por F1 , F2 y F3 a los tres conjuntos del enunciado de la proposici on. Por denici on F1 = hNi. Por la proposici on 2.3 el conjunto F2 es un subespacio que contiene a N y de 2.5 obtenemos que F1 F2 . Por denici on de intersecci on on, F3 est a contenido en cualquier subespacio que tenemos que F2 F3 . Por denici contiene a N y en particular F3 F1 . Resumiendo, F1 F2 F3 F1 .

Secci on 2.4

Bases

37

A cualquiera de estos tres conjuntos (son iguales!) se le denota por hNi y se le llama cerradura lineal de N o tambi en el subespacio generado por N. Propiedades de la cerradura lineal La cerradura lineal cumple las siguientes propiedades: N hNi (incremento), N M hNi hMi (monoton a), hhNii = hNi (idempotencia). Prueba. El incremento es inmediato de 2.6.3. Supongamos ahora que N M. Cualquier combinaci on lineal de N es tambi en combinaci on lineal de M (haciendo cero os coecientes de los vectores en M\N). Finalmente, por 2.6.3 hhNii es el subespacio m as peque no que contiene a hNi. Como hNi es un subespacio entonces, hhNii = hNi. En matem aticas las palabras clausura, cerradura y envoltura son sin onimos. Por esto con el mismo exito, otros autores le llaman clausura lineal o envoltura lineal a nuestro concepto de cerradura lineal. Adem as, es bueno que el lector encuentre el parecido entre el concepto de cerradura lineal y el concepto de cerradura en an alisis (la intersecci on de todos los cerrados que contienen a un conjunto).
En general una funci on que a un conjunto N le hace corresponder otro conjunto hNi y que cumple las propiedades 1-3 se le llama operador de cerradura (clausura, envoltura). En este caso a los conjuntos tales que N = hNi se le llaman cerrados. Que se cumplan las propiedades 1-3 es, en general, equivalente a que el operador de cerradura se dena como la intersecci on de todos los cerrados que contienen al conjunto. En todas las ramas de las matem aticas se encuentran operadores de cerradura.

Ejercicio 39 Demuestre que N es un subespacio si y solo si N = hNi. Ejercicio 40 Demuestre que (x hN yi \ hNi) (y hN xi). [244] 2.4 Bases
X i i E

Observemos que la denici on de combinaci on lineal de N determina la funci on fN del recuadro a la izquierda que iN a cada N-ada nita N le hace corresponder el vector P on no tiene porque que ser sobreyectiva ni inyectiva, depende iN i i. Esta funci del conjunto de vectores N. Por ejemplo, sea N = {x, y, z} R3 donde x = (0, 0, 1), y = (0, 1, 0) y z = (0, 1, 1). En este caso fN (2, 2, 0) = fN (0, 0, 2) = (0, 2, 2) por lo que fN no es inyectiva. Tampoco es sobreyectiva porque (1, 0, 0) no tiene preimagen. K{N } 3 N 7

38

Cap tulo 2. Espacios vectoriales

En esta secci on estableceremos que en todo espacio vectorial existen conjuntos N para los cuales la funci on fN es biyectiva. Este hecho es fundamental, porque en este 1 {N } caso existe la funci on inversa f que nos permitir a introducir coordenadas N : E K en cualquier espacio vectorial. Es m as, veremos que los conjuntos de vectores para los cuales fN es biyectiva tienen la misma cantidad de vectores. Esto quiere decir que cada vector de E se dene por un cierto n umero de elementos del campo (coordenadas) y que este n umero es independiente del vector a denir. Solo depende del espacio. As , 2 7 en R nos hacen falta siempre dos reales y en R nos hacen falta siete. Conjuntos generadores Primero, lo m as f acil. La imagen de la funci on fN es hNi , o sea, la cerradura lineal de N. Diremos que N es un conjunto generador si hNi es todo el espacio o sea, si fN es sobreyectiva. Los generadores son un ltro Todo sobreconjunto de un conjunto generador es generador. Prueba. Supongamos M N. Por monoton a de la cerradura lineal tenemos hNi hMi. Si hNi es todo el espacio entonces, necesariamente hMi tambi en lo es. Conjuntos linealmente independientes as descripAhora, veamos cuando fN es inyectiva. Observese que en un lenguaje m tivo, un fN es inyectiva si y solo si se cumple la propiedad 3 del siguiente resultado. Teorema de Caracterizaci on de Conjuntos Linealmente Independientes Sea N un conjunto de vectores. Las siguientes armaciones son equivalentes: 1. Cualquier subconjunto propio de N genera un subespacio m as peque no que hNi. 2. Cualquier vector en N no es combinaci on lineal de los restantes. 3. Si dos combinaciones lineales de N son iguales entonces, todos sus coecientes son iguales. 4. Si una combinaci on lineal de N es cero entonces, todos sus coecientes son cero. Prueba. (1 2) Si 1 no es cierto entonces existe a N tal que hNi = hN\ai pero entonces a hN\ai lo que contradice 2. Rec procamente, si 2 no es cierto entonces existe a N tal que a hN\ai. Por incremento N\a hN\ai y como adem as a hN\ai entonces N hN\ai. Por monoton a e idempotencia hNi hN\ai lo que contradice 1.

Secci on 2.4

Bases

39

P P P (3 4) Observese que i = i ( ) i = 0 y adem as i i i i iN iN iN (i = i ) (i i = 0). Luego, la existencia de combinaciones lineales iguales con algunos coecientes diferentes es equivalente a la existencia de combinaciones lineales iguales a cero con algunos coecientes no cero. (2 4) Si no se cumple 2 entonces hay un vector a N que es combinaci on lineal de N\a. Pasando todos los sumandos hacia un lado de la igualdad obtenemos una combinaci on lineal de N igual a cero con un coeciente distinto de cero. Esto contradice 4. Rec procamente, si no se cumple 4 entonces hay un vector a N y una combinaci on lineal de N igual a cero y con a 6= 0. Despejando a, obtenemos que a hN\ai. Esto contradice 2.

Ejercicio 41 Busque en la prueba del Teorema de Caracterizaci on de Conjuntos Linealmente Independientes (2.9) donde se usan los inversos nultiplicativos. [244] Diremos que un conjunto de vectores N es linealmente independiente si se cumple alguna (y por lo tanto todas) las armaciones de la proposici on anterior. Los conjuntos de vectores que no las cumplen se les llama linealmente dependientes. A partir de ahora para no repetir constantemente frases largas, a los conjuntos de vectores linealmente independientes los llamaremos conjuntos LI. A los conjuntos de vectores linealmente dependientes los llamaremos conjuntos LD. Estas notaciones se deben pronunciar ele i y ele de. Los independientes son un ideal Todo subconjunto de un conjunto LI es LI. Prueba. Sea N M tal que M es LI. Cualquier combinaci on lineal de N es combinaci on lineal de M. Luego toda combinaci on lineal de N igual a cero tiene todos sus coecientes iguales a cero Antes de pasar a la denici on de base, demostremos un peque no resultado que usaremos repetidamente en lo adelante. Lema de Aumento de un Conjunto LI Si N es independiente y N a es dependiente entonces a hNi. Prueba. Si N a es LD entonces, por la caracterizaci on 2.9.4 de los conjuntos LI, hay una combinaci on de N a igual a cero cuyos coecientes no todos son igual a cero. Si el coeciente en a fuera igual a cero tendr amos una contradicci on con que N es LI. Luego, el coeciente en a es diferente a cero y despejando a obtenemos a hNi.

40 Bases

Cap tulo 2. Espacios vectoriales

La relaci on entre los conjuntos generadores y los conjuntos LI la podemos ver intuitivamente en la gura a la derecha. Aqu est an representados los subconjuntos del espacio E que son generadores o que son LI. Mientras m as arriba m as grande es el subconjunto. Nuestro inter es ahora se va a concentrar en la franja del centro donde hay subconjuntos que a la vez son generadores y LI. La siguiente proposici on nos dice que esta franja no puede ser muy ancha. Teorema de Caracterizaci on de Bases Sea 1. 2. 3.

E Conjuntos generadores

Conjuntos LI

N un conjunto de vectores. Las siguientes armaciones son equivalentes N es generador y N es LI, N es LI y cualquier sobreconjunto propio de N es LD, N es generador y cualquier subconjunto propio de N no es generador.

Prueba. (1 2) Sea N independiente y generador. Sea a / N. Como N es generador a hNi . De la caracterizaci on 2.9.2 de los conjuntos LI se sigue que N a es LD. Luego todo sobreconjunto propio de N es LD. (2 3) Sea N independiente maximal. Por incremento N hNi. Si a / N entonces N a es LD. Por el Lema de Aumento de un Conjunto LI (2.11) tenemos a hNi . Luego, N es generador. Si alg un subconjunto propio de N fuera generador entonces existir a a N tal que a hN\ai y por la caracterizaci on 2.9.2 de los conjuntos LI esto contradice la suposici on de que N es LI. (3 1) Sea N generador minimal. Si N es LD entonces, por la caracterizaci on 2.9.1 de los conjuntos LI existe subconjunto propio M de N tal que hMi = hNi . Como N es generador entonces M tambi en lo es. Esto contradice que N es minimal. Sea F un subespacio. Un conjunto de vectores que es generador de F y que es LI se le llama base de F. Las bases de todo el espacio se llaman simplemente bases. El ser base es equivalente a ser un conjunto LI lo m as grande posible o ser un conjunto generador lo m as peque no posible. Tambi en, el ser base es equivalente a que nuestra funci on fN del principio de esta secci on sea biyectiva. Lema de Incomparabilidad de las Bases Dos bases diferentes no est an contenidas una dentro de la otra. Prueba. Si N M son dos bases diferentes entonces N es un subconjunto propio de M y por el Teorema de Caracterizaci on de Bases (2.12) esto es una contradicci on.

Secci on 2.4

Bases

41

Teorema de Existencia de Bases Sea N un conjunto generador y L N un conjunto LI. Entonces, existe una base M tal que L M N. Prueba. Sean L y N como en las hip otesis del teorema. Sea M un conjunto LI tal que L M N. Si M es maximal con estas propiedades (a N\M M a es LD) entonces, por el Lema de Aumento de un Conjunto LI (2.11) tenemos N hMi. Como N es generador, esto signica que M tambi en lo es y por lo tanto M es una base. Nuestra tarea es encontrar un M que es maximal con estas propiedades. Esto es f acil si el conjunto N es nito. Primero ponemos M igual a L. Si M es maximal terminamos, si no, entonces existe a N\M tal que M a es LI. Agregamos a al conjunto M y repetimos este proceso. Como N es nito este proceso tiene que terminar.

Ejercicio 42 Usando el Teorema de Existencia de Bases pruebe que: 1. Todo espacio vectorial tiene base. 2. Cualquier conjunto LI esta contenido en una base. 3. Cualquier conjunto generador contiene a una base. [244]
Dimensi on Ahora lo que queremos ver es que todas las bases tienen el mismo n umero de vectores. Para probar esto se necesita ver primero una propiedad cl asica de las bases. Propiedad del Cambio de las Bases Si M y N son dos bases entonces, para cualquier a M existe b N tal que (M\a) b es base. Prueba. Sea a un vector jo pero arbitrario en M. Para un vector b N denotemos Mb = (M\a) b. Si para todos los b N\ (M\a) el conjunto Mb fuera LD entonces, por el Lema de Aumento de un Conjunto LI (2.11) todo b N ser a combinaci on lineal de M\a. O sea, N hM\ai y por lo tanto hNi hM\ai . Como hNi es todo el espacio tendr amos a hM\ai lo que no es posible ya que M es LI. Hemos demostrado que existe b N\ (M\a) tal que Mb es LI. Demostremos que Mb es generador. Sea v un vector arbitrario. Por ser M base tenemos que b y v son combinaciones lineales de M o sea existen escalares apropiados X X tales que b = a a + x x v = a a + x x Como Mb es LI entonces, b no es una combinaci on lineal de M\a y por lo tanto on, substituirla en la segunda a 6= 0. Luego, podemos despejar a de la primera ecuaci y as obtener que v hMb i. Esto signica que Mb es generador.
x M \ a x M \ a

42

Cap tulo 2. Espacios vectoriales

Equicardinalidad de las Bases Dos bases cualesquiera de un espacio vectorial tienen el mismo cardinal. Prueba. Sean A = {a1 , ..., an } y B dos bases. Por la Propiedad del Cambio de las Bases (2.15) existe otra base A1 = {b1 , a2 , ..., an } donde b1 B. Observese que |A1 | = n ya que en otro caso A1 A lo que contradice el Lema de Incomparabilidad de las Bases (2.13). Aplicando la Propiedad del Cambio de las Bases (2.15) a A1 obtenemos otra base A2 = {b1 , b2 , a3 , ..., an } tal que b2 B. Observese que |A2 | = n ya que en otro caso A2 A1 lo que contradice el Lema de Incomparabilidad de las Bases (2.13). as Repitiendo este proceso obtenemos bases A3 , A4 , ..., An todas con n vectores y adem An B. Como B es base An = B y por lo tanto B tambi en tiene n vectores. Al cardinal de una base (cualquiera) se le llama dimensi on del espacio vectorial. La dimensi on de un espacio vectorial E se denotar a por dim E. Los espacios vectoriales que tienen una base nita se les llama nito dimensionales o de dimensi on nita. Por el contrario, si sus bases son innitas entonces, el espacio vectorial es de dimensi on innita. La teor a de los espacios vectoriales de dimensi on nita es m as sencilla pero m as completa que la de los espacios de dimensi on innita. Para darnos cuenta de que hay muchas cosas que no se cumplen en el caso innito dimensional veamos como ejemplo el siguiente resultado que tendremos m ultiples ocaciones para utilizarlo. Sea F un espacio vectorial nito dimensional y E un subespacio de F. Si dim E = dim F entonces E = F. Prueba. Sea N una base de E. Por el Teorema de Existencia de Bases (2.14) existe una base M del espacio F que contiene a N. Como M es nita entonces, N tambi en es nita. Como las dimensiones coinciden, el n umero de vectores en N es igual al n umero de vectores en M. Luego N = M y por lo tanto E = hNi = hMi = F. La prueba de la Equicardinalidad de las Bases la hemos hecho solamente para el caso que el espacio tiene una base nita. Nuestra prueba del Teorema de Existencia de Bases es solo para el caso que el conjunto generador es nito. Finalmente, solo probamos que los espacios vectoriales que tienen un conjunto generador nito tienen base. Es importante que el lector sepa que estas tres armaciones son v alidas en general. Las pruebas generales dependen de un conocimiento m as profundo de la Teor a de Conjuntos que no presuponemos que lo posea el lector. A los interesados en esto les recomiendo leer ahora la u ltima secci on de este cap tulo.

Ejercicio 43 Pruebe que si E un subespacio de F entonces dim E dim F. [244] Ejercicio 44 Encuentre un ejemplo donde no se cumple 2.17. [244]

Secci on 2.4
Bases can onicas

Bases

43

Ya sabemos que todo espacio vectorial tiene bases. Sin embargo no solamente tienen una base sino muchas. Por esto es conveniente construir bases que son las m as sencillas para los ejemplos de espacios vectoriales que construimos en la Secci on 2.2. 2 Comenzemos con R . Sean e1 = (1, 0) y e2 = (0, 1). Cualquier vector (a, b) en R2 R2 tiene una manera de expresarse como combinaci on lineal de N = {e1 , e2 }. Efectivamente, tenemos la igualdad (a, b) = ae1 + be2 . Esto quiere decir que el conjunto N es generador. Por otro lado, si e1 + e2 = (, ) = 0 = (0, 0) entonces, necesariamente, y son ambos cero. De aqu obtenemos que conjunto N es una 2 base que la llamamos base can onica de R . Los vectores e1 y e2 se pueden visualizar geom etricamente como los dos vectores de longitud 1 en ambos ejes de coordenadas. Luego, la dimensi on de R2 es 2. ndices {1, . . . , n} denotemos Pasemos ahora a Kn . Para cada i en el conjunto de Kn por ei el vector cuya i-esima coordenada es 1 y todas las dem as son cero (recuerde que todo campo tiene uno y cero). Sea N el conjunto de todos esos vectores. Tenemos P n (1 , . . . , n ) = n i=1 i ei y esto signica que cada vector en K se expresa de forma u nica como combinaci on lineal de N. O sea, N es generador y por la caracterizaci on 2.9.3 de los conjuntos LI el conjunto N es LI. A la base N se le llama base can onica de Kn . La dimensi on de Kn es n. Veamos el espacio de polinomios K [x]. Sea N el conjunto xi | i N . Es claro K [x] que todo polinomio se puede escribir de forma u nica como combinaci on lineal nita de N. A la base N se le llama base can onica de K [x]. Luego, K [x] es de dimensi on innita contable. Desafortunadamente, para el espacio de series no se puede dar explicitamente una base. Para el espacio K{N } de todas las N-adas nitas ya hicimos casi todo el trabajo {N } K (v ease Kn ). Para cada i en el conjunto de ndices N denotemos por ei el vector cuya i-esima coordenada es 1 y las dem a s son cero. Sea M el conjunto de todos P esos vectores. Tenemos N = ei M i ei donde los coecientes son distintos de cero solamente en un subconjunto nito de indices. Luego, M es una base de este espacio la cual es su base can onica. La dimensi on de K{N } es el cardinal de N ya que hay una biyecci on entre N y M. Recordemos al lector que lo de N-ada nita es no trivial solo para cuando el conKN junto N es innito. Si el conjunto de ndices es nito entonces estamos hablando N de todas las N-adas o sea de K . Luego, en el caso de que N es nito K{N } = KN y la base can onica de KN es la construida en el p arrafo anterior. En el caso de que el conjunto N sea innito entonces el espacio KN no tiene una base can onica. El campo de los n umeros complejos como espacio vectorial sobre los reales tienen como base can onica al conjunto {1, i} y por lo tanto tiene dimensi on 2. Los reales como espacio vectorial sobre los racionales no tienen una base can onica. Todos los espacios que hemos visto que no tienen base can onica son de dimensi on innita. Pero, no todos los espacios de dimensi on nita tienen una base can onica. El

44

Cap tulo 2. Espacios vectoriales

ejemplo m as sencillo es tomar un subespacio de un espacio de dimensi on nita. Si este subespacio es sucientemente general, entonces no hay manera de construir una base can onica del mismo incluso en el caso de que todo el espacio tenga una base can onica.

Ejercicio 45 Cual es la base can onica del espacio de las NM-matrices? [244]

2.5

Clasicaci on de espacios vectoriales

En esta secci on veremos que todo espacio vectorial es isomorfo a un espacio de N-adas nitas. Para el caso nito dimensional esto quiere decir que el u nico (salvo isomorsmos) espacio vectorial de dimensi on n sobre un campo K que existe es el espacio de las n-adas Kn . Isomorsmos lineales En el Cap tulo 1 vimos los morsmos de operaciones binarias, grupos, anillos y campos. Para los espacios vectoriales es igual, la u nica diferencia es que en ellos hay denida una operaci on que no es interna del espacio: el producto de un escalar por un vector. Sin embargo, esto no presenta mayores dicultades. Sean E y F dos espacios vectoriales sobre el mismo campo f (a + b) = f (a) + f (b) K. Una funci on f : E F se le llama morsmo de f (a) = f (a) espacios vectoriales si para cualesquiera a, b E y cualquier K se cumplen las propiedades del recuadro. A los morsmos de espacios vectoriales tambi en se les llama transformaciones lineales. Esta u ltima expresi on ser a la que usemos porque tiene dos importantes ventajas. Primero, es m as corta que la primera. Segundo es mucho m as antigua, hay mucha m as cantidad de personas que la conoce y por lo tanto facilita la comunicaci on con ingenieros y cient cos de diversas areas.

Ejercicio 46 Demuestre que la composici on de morsmos es un morsmo. [245]


El estudio de las transformaciones lineales lo pospondremos hasta el siguiente cap tulo. Aqu estaremos interesados en los isomorsmos de espacios vectoriales. Una transformaci on lineal f : E F es un isomorsmo de espacios vectoriales o isomorsmo lineal si esta es biyectiva. An alogamente al caso de operaciones binarias tenemos el siguiente resultado: La inversa de cualquier isomorsmo lineal es un isomorsmo lineal.

Secci on 2.5

Clasicaci on de espacios vectoriales

45

Prueba. Sea K y x, y F. Como f es una biyecci on existen a, b E tales que f (a) = x , f (b) = y. Como f es isomorsmo tenemos f1 (x + y) = f1 (f (a) + f (b)) = f1 (f (a + b)) = a + b = f1 (x) + f1 (y) f1 (x) = f1 (f (a)) = f1 (f (a)) = a =f1 (x) que es lo que se quer a demostrar. Ya observamos, que los isomorsmos son nada m as que un cambio de los nombres de los elementos y las operaciones. Esto quiere decir que cualquier propiedad debe conservarse al aplicar un isomorsmo. Lo siguiente es un ejemplo de esta armaci on. Un isomorsmo transforma conjuntos LI en conjuntos LI, conjuntos generadores en conjuntos generadores y bases en bases. Prueba. Sea f : E F un isomorsmo de espacios vectoriales. Sean M E y def . Sean adem a sx E , y = f (x) ! F. Como N = f (M) F ! f es isomor ! smo tenemos X X X i i = x i f (i) = y j j = y
i M iM jN

donde el conjunto de coecientes {i | i M} es exactamente el mismo que {j | j N}. Si M es generador entonces, para cualquier y F el vector x = f1 (y) es combinaci on lineal de M y por la equivalencia anterior el vector y es combinaci on lineal de N. Luego, si M es generador entonces N tambi en lo es. Supongamos que M es LI entonces, ! poniendo x = 0 obtenemos ! X X i i = 0 j j = 0 luego, cualquier combinaci on lineal de N que es nula tambi en es combinaci on lineal nula de M y por lo tanto todos sus coecientes son cero. Luego, N es LI.
iM j N

Ejercicio 47 Demuestre que los isomorsmos conmutan con el operador de cerradura lineal y que trasforman subespacios en subespacios de la misma dimensi on.
Coordinatizaci on Sea N un conjunto de vectores del espacio vectorial F. Al principio de la secci on anterior introducimos la funci on fN que a cada N-ada nita le hace corresponder la combinaci on lineal cuyos coecientes son dicha N-ada. Esta funci on es siempre una transformaci on lineal ya que X X X fN (N + N ) = (i + i ) i = i i + i i = fN (N ) + fN (N ) iN iN X X iN fN (N ) = (i ) i = i i = fN (N ) .
iN iN

46

Cap tulo 2. Espacios vectoriales

Por otro lado, ya vimos que fN es sobreyectiva si y solo si N es generador, que fN es inyectiva si y solo si N es LI y por lo tanto fN es un isomorsmo si y solo si N 1 {N } es una base. En el caso de que N sea una base, la funci on inversa f es N : F K un isomorsmo lineal llamado coordinatizaci on de F mediante la base N. En otras palabras, si N es una base de F , y x es un vector de F entonces, existe una u nica P {N } N-ada N K tal que x = iN i i. En este caso, a los coecientes i se les llama coordenadas de x en la base N. Clasicaci on Se dice que dos espacios son isomorfos si existe una funci on que es un isomorsmo entre ellos. No hay ninguna raz on (por ahora) para que deseemos distinguir dos espacios vectoriales que son isomorfos. Si esto sucede, uno es igual a otro salvo los nombres de los vectores y las operaciones. La clave para ver que los espacios vectoriales son isomorfos es que estos tengan la misma dimensi on. Dos espacios vectoriales sobre el mismo campo son isomorfos si y solo si tienen la misma dimensi on. Prueba. Sean E y F dos espacios vectoriales. Si E y F son isomorfos entonces por 2.19 un isomorsmo entre ellos transforma biyectivamente una base de uno en una base del otro por lo que tienen la misma dimensi on. Rec procamente, sean N y M bases de E y F respectivamente. Mediante los isomorsmos de coordinatizaci on podemos pensar que E = K{N } y F = K{M } . Si los dos tienen la misma dimensi on entonces, hay una biyecci on f : M N. Sea g : K{N } 3 N 7 M K{M } la funci on tal que i = f(i) . Podemos pensar que la funci on g es la que le cambia el nombre a los ndices de una N-ada. Esta es claramente un isomorsmo de espacios vectoriales (ya que la suma de N-adas es por coordenadas y lo mismo con el producto por un escalar). Esta proposici on nos permite saber como son TODOS los espacios vectoriales. Ya vimos (mediante la base can onica) que el espacio vectorial de todas las N-adas nitas tiene dimensi on |N|. Escogiendo el conjunto N adecuadamente obtenemos todas las dimensiones posibles. En el caso de que N sea nito con n elementos , este espacio es Kn por lo que es v alido el siguiente teorema. Teorema de Clasicaci on de Espacios Vectoriales Todo espacio vectorial es isomorfo a un espacio de N-adas nitas. Todo espacio vectorial de dimensi on nita es isomorfo a Kn .

Secci on 2.5
Campos de Galois

Clasicaci on de espacios vectoriales

47

Una aplicaci on sencilla del Teorema de Clasicaci on de Espacios Vectoriales (2.21) es la siguiente. El n umero de elementos en un campo nito es potencia de un n umero primo. Prueba. Sea K un campo. Ya vimos que siempre que se tenga un subcampo L de K entonces, K es un espacio vectorial sobre L. Esto es en esencia porque podemos sumar vectores (los elementos de K) y podemos multiplicar escalares (los elementos de L) por vectores. Si K es nito entonces su subcampo primo no puede ser Q. Esto quiere decir que K contiene como subcampo a Zp . La dimensi on de K sobre Zp tiene que ser nita ya que si no, entonces K ser a innito. Luego existe un natural n tal que el espacio vectorial K es isomorfo a Zn que tiene exactamente pn elementos. p Como pensar en espacios vectoriales A partir de ahora el lector debe siempre tener en mente el Teorema de Clasicaci on de Espacios Vectoriales (2.21). Al hablar de un espacio vectorial en primer lugar, se debe pensar en R2 y R3 . La interpretaci on geom etrica de estos dos espacios como los segmentos dirigidos con origen en el cero da una intuici on saludable acerca de lo que es cierto y lo que no. En segundo lugar el lector debe pensar en el ejemplo Rn . Si el lector lo preere, el n umero n puede ser un n umero jo sucientemente grande digamos n = 11. Ya en este caso, para entender es necesario usar varios m etodos: las analog as geom etricas en dimensiones peque nas, el c alculo algebraico con s mbolos y los razonamientos l ogicos. Casi todo lo que se puede demostrar para espacios vectoriales nito dimensionales se demuestra en el caso particular de Rn con la misma complejidad. Las demostraciones de muchos hechos v alidos en Rn se copian tal cual para espacios vectoriales de dimensi on nita sobre cualquier campo. En tercer lugar se debe pensar en Cn . El espacio vectorial Cn es extremadamente importante dentro de las matem aticas y la f sica. Adem as, el hecho de que C es n algebraicamente cerrado hace que para C algunos problemas sean m as f aciles que on en Rn . Hay una manera de pensar en Cn que ayuda un poco para tener intuici geom etrica. Como ya vimos {1, i} es una base de C como espacio vectorial sobre R. De la misma manera Cn es un espacio vectorial sobre R de dimensi on 2n o sea, hay una n 2n biyecci on natural entre C y R (la biyecci on es (a1 + b1 i, a2 + b2 i, ..., an + bn i) 7 (a1 , b1 , a2 , b2 , ..., an , bn )). Sin embargo esta biyecci on no es un isomorsmo. Si E es un subespacio de Cn sobre R entonces no necesariamente E es un subespacio de Cn sobre C . Desde este punto de vista podemos pensar (no rigurosamente) a Cn como un R2n en el que hay menos subespacios.

48

Cap tulo 2. Espacios vectoriales

Los que se interesan en las ciencias de la computaci on deben tambi en pensar en Zn p y n en general en cualquier K donde K es un campo nito. Las aplicaciones m as relevantes incluyen la codicaci on de informaci on con recuperaci on de errores y la criptograf a, que es la ciencia de cifrar mensajes. Ahora, si el lector no le tiene miedo al concepto de campo (que es uno de los objetivos de este libro) entonces, lo m as f acil es pensar en Kn . Esto tiene una gran ventaja en el sentido de que no hay que pensar en los detalles particulares que se cumplen en uno u otro campo. Sin embargo, en el caso innito-dimensional la situaci on es m as fea. Nuestros teoremas arman que hay un isomorsmo entre R como espacio vectorial sobre Q y R{Q} . En otras palabras, existe un conjunto de n umeros reales (la base) tal que cualquier n umero real se puede expresar de forma u nica como combinaci on lineal nita de este conjunto usando coecientes racionales. El problema es que nadie conoce (ni conocer a nunca) una base de este espacio, as que realmente, estos teoremas no dicen mucho para espacios vectoriales de dimensi on mayor que el cardinal de los naturales 0 .

Ejercicio 48 Sean x, y R y E = {ax + by | a, b Q}. Es E un espacio vectorial


sobre Q? Cual es su dimensi on? Es E un espacio vectorial sobre R? [245]

2.6

Suma de subespacios

En esta secci on introduciremos las operaciones m as b asicas entre subespacios. Pero antes, es saludable dar una interpretaci on geom etrica de los subespacios para que el lector pueda comparar el caso general con el caso de los espacios R2 y R3 . Subespacios de Rn Cuales son todos los subespacios de Rn ? Del Teorema de Clasicaci on de Espacios i Vectoriales (2.21) sabemos que estos tienen que ser isomorfos a R para i {0, 1, . . . , n} seg un sea su dimensi on. Si i = 0 entonces todo el subespacio es el vector 0 (el origen de coordenadas). Si i = n entonces, el subespacio es por 2.17 todo el espacio. Luego, los casos interesantes son los que 0 < i < n. Si i = 1 entonces, el subespacio es isomorfo a R y tiene que tener una base de un vector. O sea, existe un vector a tal que el subespacio es igual a hai. Ya vimos que hai es la recta que pasa por el origen y por el punto a que es el nal del vector a. Luego, los subespacios de dimensi on 1 de Rn son las rectas que pasan por el origen. Si i = 2 entonces, el subespacio tiene que ser isomorfo a R2 y tiene que tener una base {a, b} de dos vectores. La base {a, b} tiene que ser LI y en este caso eso quiere decir que b no es un m ultiplo escalar de a. En otras palabras, los puntos nales de

Secci on 2.6

Suma de subespacios

49

los vectores a, b y el origen de coordenadas no est an alineados. En este caso hay un u nico plano (R2 ) que pasa por estos tres puntos y tambi en ya vimos que este plano es n ha, bi. Luego, los subespacios de dimensi on 2 de R son los planos por el origen. Para 3 R este an alisis termina con todas las posibilidades: sus subespacios son: el origen, las rectas por el origen, los planos por el origen y todo el espacio. Ahora tenemos que pensar por lo menos en los subespacios de R4 y ya se nos acaba la intuici on y la terminolog a geom etrica. Por esto, pasemos al caso general. Un n subespacio de dimensi on i en R esta generado por una base {a1 , . . . , ai } de i vectores LI. Que sean LI lo que quiere decir es que sus puntos y el origen no est an contenidos en un subespacio de dimensi on menor que i. Si este es el caso entonces hay un u nico i R que contiene a todos estos puntos y este es el subespacio ha1 , . . . , ai i. Suma de conjuntos y subespacios Sean E y F dos subespacios sobre un campo K. En la proposici on 2.3 vimos que E F es un subespacio. Por denici on de intersecci on E F es el subespacio m as grande contenido en E y en F. Ya observamos adem as que E F no es un subespacio. Sin embargo, hay un subespacio que es el m as peque no que contiene a los dos y este es hE Fi. El subespacio hE Fi tiene una estructura muy simple: hE Fi = {a + b | a E, b F} X Prueba. Todo vector a + b es una combinaci on lineal de E F. X x x + y y Rec procamente, toda combinaci on lineal de E F se puede escrix E y F bir como en el recuadro. Como E y F son subespacios entonces, el primer sumando est a en E y el segundo sumando est a en F. Esto quiere decir que todo elemento de hE Fi es de la forma a + b con a en E y b en F. A + B = {a + b | a A, b B}

Dados dos conjuntos cualesquiera de vectores A y B denimos la suma de estos como en el recuadro a la izquierda. Despu es de esta denici on el resultado 2.23 se puede reformular como hE Fi = E + F. Es por esto que al subespacio hE Fi se le llama la suma de los subespacios E y F y desde ahora se le denotar a por E + F. La igualdad modular Sean E y F dos subespacios. Ahora trataremos de calcular la dimensi on de E + F. Para esto necesitaremos primero encontrar bases de E F y E + F. Existen E una base de E y F una base de F tales que E F es base de E F y E F es base de E + F. Prueba. Sea N una base de E F . Como N es LI y est a contenida en E entonces,

50

Cap tulo 2. Espacios vectoriales

por el Teorema de Existencia de Bases (2.14) existe una base E de E que contiene a N. An alogamente, existe una base F de F que contiene a N. Demostremos primero que EF = N. Efectivamente, por la forma en que contruimos E y F tenemos N E F. Para la prueba de la otra inclusi on sea a E F. Como N a E entonces, tenemos que N a es LI. Como N es base de E F y las bases son los conjuntos LI m as grandes, obtenemos que a N. Luego, E F N. Solo nos queda probar que E F es una base de E + F. En primer lugar, cualquier a + b E + F es combinaci on lineal de E F por lo que E F es generador de E + F. Necesitamos probar que EX F es LI. Para que X esto supongamos X X 0= i i = i i+ i i+ i i y demostremos que todos los i son cero. Sean x, y, z el primer, segundo y tercer sumando respectivamente en la igualdad anterior. Por construcci on, tenemos x E, y E F y z F. Adem as, como z = (y + x) y E es un subespacio, obtenemos zE F. Como N es una base de E F el vector z es combinaci on lineal de N, o sea P z = iN i i para ciertos coecientes i . De aqu obtenemos que X X 0=x+y+z= i i+ (i + i ) i Como E es LI, todos los coecientes de esta combinaci on lineal son cero. En particular, i = 0 para todo i E\N y por lo tanto x = 0. Substituyendo x obtenemos X X 0=y+z= i i+ i i y como F es LI deducimos que los restantes coecientes tambi en son cero. Igualdad modular Si E y F son dos subespacios entonces, dim E + dim F = dim (E + F) + dim (E F). Prueba. Por 2.24 existen bases E y F de E y F tales que E F es base de E + F y E F es base de E F. Luego, la f ormula se reduce a la conocida igualdad entre cardinales de conjuntos |E| + |F| = |E F| + |E F|.
iN iF \ N iE \ N iN iE F iE \ N i N iF \ N

Ejercicio 49 Construya ejemplos de subespacios reales E y F tales que ellos y E + F tienen las dimensiones denidas en la tabla del recuadro a la derecha. Puede tener E + F dimensi on diferente a las de la tabla?

E 1 1 1

F 1 1 2

(E + F) 1 2 2

E 1 2 2

F 2 2 2

(E + F) 3 3 4

Secci on 2.6
Suma directa

Suma de subespacios

51

Para dos espacios vectoriales Ey F (no necesariamente contenidos en otro espacio) sobre un mismo campo K deniremos la suma directa de ellos como el espacio vectorial {(a, b) | a E,b F} EF = (a, b) + a0 , b0 = a + a0 , b + b0 (a, b) = (a, b) Observese que como conjunto la suma directa es el producto cartesiano de conjuntos. La diferencia est a en que la suma directa ya trae en su denici on las operaciones de suma de vectores y multiplicaci on por un escalar. Deber amos probar que la suma directa es efectivamente un espacio vectorial, o sea que cumplen todos los axiomas. Nosotros omitiremos esta prueba por ser trivial y aburrida. Mejor nos concentraremos en algo m as interesante. dim (E F) = dim E + dim F. Prueba. Sea E0 = {(a, 0) | a E} y F0 = {(0, b) | b F}. Es claro que los espacios E y E0 son isomorfos y por lo tanto tienen la misma dimensi on. Otro tanto ocurre con 0 F y F . Por denici on de suma de subespacios tenemos que E0 + F0 = E F . De la Igualdad modular (2.25) obtenemos dim (E0 + F0 ) = dim E0 + dim F0 dim (E0 F0 ) = dim E + dim F. Isomorsmo can onico entre la suma y la suma directa. De esta u ltima proposici on y de la igualdad modular se deduce que si dos subespacios E y F son tales que E F = {0} entonces dim (E F) = dim (E + F) o sea E F es isomorfo a E + F. A continuaci on probaremos solo un poquito m as. Sin embargo, este poquito nos llevar a a profundas reexiones. Isomorsmo Can onico entre la Suma y la Suma directa Si E y F son subespacios tales que E F = {0} entonces la funci on E F 3 (a, b) 7 a + b E + F es un isomorsmo de espacios vectoriales. Prueba. Sea f la funci on denida en el enunciado. Tenemos f ( (a, b)) = f (a, b) = a + b = (a + b) = f (a, b) f ((a, b) + (x, y)) = f (a + x, b + y) = a + x + b + y = f (a, b) + f (x, y) por lo que solo queda demostrar que f es biyectiva. Por denici on de suma de subespacios f es sobreyectiva. Para probar la inyectividad supongamos que f (a, b) = f (x, y)

52

Cap tulo 2. Espacios vectoriales

entonces, a x = y b. Como a, x E entonces a x E. Como b, y F entonces y b F. Luego a x = y b E F = {0} por lo que a = x y b = y. Observemos que el isomorsmo (a, b) 7 a + b no depende de escoger base alguna en E F. Todos los isomorsmos que construimos antes de esta proposici on se construyeron escogiendo cierta base en alguno de los espacios. Los isomorsmos que no dependen de escoger alguna base juegan un papel importante en el a lgebra lineal y se les llama isomorsmos can onicos. Decimos que dos espacios vectoriales son can onicamente isomorfos si existe un isomorsmo can onico entre ellos. As por ejemplo todo 3 espacio vectorial E de dimensi on 3 es isomorfo a K pero no es can onicamente isomorfo a K3 porque no se puede construir de cualquier espacio vectorial de dimensi on 3 un 3 isomorsmo con K que no dependa de escoger alguna base. Cuando veamos los productos escalares veremos que hay fuertes razones para que diferenciemos las bases. Los isomorsmos no can onicos no necesariamente preservan una u otra propiedad de las bases. Por otro lado, los isomorsmos can onicos si las preservan. Si por un lado, debe haber cierta resistencia a considerar iguales a dos espacios vectoriales isomorfos por el otro, los espacios can onicamente isomorfos no se diferencian en nada uno del otro, por lo que se puede pensar que es el mismo espacio.

Ejercicio 50 1. Demuestre que E F y F E son can onicamente isomorfos.

2. Como se debe llamar esta propiedad de la suma directa de espacios? 3. Demuestre que la suma directa de espacios es asociativa. 4. Tiene la suma directa elemento neutro? [245]

Subespacios complementarios Sea S un espacio vectorial y E un subespacio de S . Diremos que el subespacio F es complementario de E en S si S = E F. Esta igualdad por el Isomorsmo Can onico entre la Suma y la Suma directa (2.27) lo que quiere decir es que S = E + F y E F = {0}. En R2 dos rectas por el origen diferentes son complementarias una a otra. En R3 un plano y una recta no contenida en el plano (ambos por el origen) son complementarios uno a otro. Todo subespacio tiene complementario. Prueba. Sea E un subespacio de S. Sea A una base de E. Por el Teorema de Existencia de Bases (2.14) hay una base C de S que contiene a A. Sea F el espacio generado por B = C\A. Como C es generador de S, todo elemento en S es combinaci on lineal de C y en particular todo elemento de S se expresa como a + b con a E y b F. Luego S = E + F.

Secci on 2.6

Suma de subespacios

53

Como C es LI entonces, por la caracterizaci on 2.9.4 de los conjuntos LI la u ltima combinaci on lineal tiene todos sus coecientes iguales a cero. Luego, E F = {0}. Si E y F son dos subespacios complementarios entonces cada vector x se expresa de forma u nica como x = a + b donde a E y b F. Prueba. Si E y F son complementarios entonces E+F es todo el espacio y por lo tanto todo vector es de la forma a+b. Si a+ b = a0 +b0 entonces a a0 = b0 b EF = {0} por lo que la descomposici on x = a + b es u nica.

Por otro lado, si x E F entonces, !existen combinaciones lineales ! tales que X X X X x= a a = a a a a a a = 0 .


a A a B a A a B

Ejercicio 51 Demuestre el rec proco de 2.29: Si cada vector se expresa de forma u nica
como x = a + b con a E y b F entonces, E y F son complementarios. [245] Ejercicio 52 Pruebe que E = E1 E2 En si y solo si cualquier vector x E se expresa de forma u nica como x = x1 + + xn con xi Ei . Sugerencia: Usar 2.29, el ejercicio anterior y la asociatividad de la suma directa para aplicar inducci on en el n umero de sumandos n. Espacios vectoriales versus conjuntos Hemos demostrado ya unos cuantos resultados que se parecen mucho a los de Teor a de Conjuntos y siempre es saludable establecer analog as con resultados ya conocidos. Para acentuar m as esta similitud hagamos un diccionario de traducci on Conjunto Espacio vectorial Subconjunto Subespacio vectorial Cardinal Dimensi on Intersecci on de subconjuntos Intersecci on de subespacios Uni on de subconjuntos Suma de subespacios Uni on disjunta Suma directa Complemento Subespacio complementario Biyecciones Isomorsmos Si nos jamos atentamente muchos de los resultados que hemos demostrado para espacios vectoriales tienen su contraparte v alida para conjuntos usando el diccionario que hemos construido. Probablemente, el ejemplo m as notable de esto son las igualdades modulares para conjuntos y para espacios vectoriales. Sin embargo, es preciso ser cuidadosos en tratar de llevar resultados de los conjuntos a los espacios vectoriales. Por ejemplo, el complemento de un subconjunto es u nico y no siempre hay un u nico subespacio complementario. Otro ejemplo, un poco m as

54

Cap tulo 2. Espacios vectoriales

substancial, es que la intersecci on de conjuntos distribuye con la uni on o sea A (B C) = (A B) (A C) . Por otro lado la intersecci on de subespacios en general no distribuye con la suma o sea, la igualdad A(B + C) = (A B)+(A C) no siempre es verdadera. Para ver esto t omese en R3 los subespacios A = h(0, 0, 1) , (1, 1, 0)i , B = h(1, 0, 0)i y C = h(0, 1, 0)i . Calculamos A (B + C) = h(1, 1, 0)i y (A B)+(A C) = {(0, 0, 0)} y vemos que son distintos.

Ejercicio 53 Si A y B son dos conjuntos entonces la diferencia sim etrica de los mismos
es el conjunto A +2 B = (A B) \ (A B). Demuestre que todos los conjuntos nitos de un conjunto cualquiera U forman un espacio vectorial de dimensi on |U| sobre el campo Z2 para la suma +2 y el producto 1A = A, 0A = . Vea, que los conceptos de nuestro diccionario de traducci on se aplican a este caso en forma directa.

2.7

Espacios cocientes

Ya vimos que para un subespacio E del espacio F, siempre existen subespacios complementarios a el. Sin embargo hay muchos subespacios complementarios y no hay una manera can onica de escoger alguno de ellos. En esta secci on nos dedicaremos a construir can onicamente el espacio cociente F/E que es el espacio de todos los subespacios anes paralelos a E y que es isomorfo a cualquier subespacio complementario de E. Subespacios anes Ya vimos que en el plano cartesiano R2 los subespacios son el origen {0}, todo R2 y las rectas por el origen. Sin embargo, hay otras 2 `0 R rectas en el plano que no pasan por el origen. Para obtener una de estas rectas lo que tenemos que hacer es trasladar una recta por el x ` origen ` mediante un vector x (v ease la gura). De esta manera, 0 obtenemos la recta ` que se obtiene sumandole x a cada vector en la recta `. Observese que si x 6= 0 entonces ` y `0 no se intersectan. Esto nos motiva a la siguiente denici on. Sea A un conjunto de vectores en un espacio vectorial (sobre cualquier campo!) y x un vector. Al conjunto A+x = {a + x | a A} se le llama la traslaci on de A con el vector x. Observese que la operaci on de trasladar es un caso particular (cuando uno de los sumandos contiene a un solo vector) de la operaci on de suma de conjuntos de vectores introducida en la secci on anterior. Un subespacio af n es el trasladado de un subespacio. En otras palabras, un conjunto de vectores E es un subespacio af n si existen un subespacio E y un vector x tales que E = E + x. Observese que los subespacios son tambi en subespacios anes. Basta trasladar con el vector cero. Esto causa una confusi on lingu stica: el adjetivo af n se usa para hacer el concepto de subespacio m as general, no m as espec co.

Secci on 2.7

Espacios cocientes

55

Por esto, cuando se habla de subespacios anes es com un referirse a los subespacios como subespacios vectoriales o como subespacios por el origen. Las traslaciones de un subespacio cumplen una propiedad muy sencilla pero fundamental: que es posible trasladar el subespacio vectorial con diferentes vectores y obtener el mismo subespacio af n. M as precisamente: Si a E + x entonces, E + x = E + a. 0 x E+x=E+a a E

Prueba. Probemos primero el caso que x = 0. Como a E y E es un subespacio, tenemos y E y a E y E + a. Ahora por el caso general. Sabemos que, z = a x E y del primer caso, E = E + z. Luego, E + x = E + z + x = E + a.

Ejercicio 54 Pruebe el rec proco de 2.30: Si E + x = E + a entonces a E + x.


Ahora observemos, que un trasladado de un subespacio af n es a su vez un subespacio af n ya que (E + x)+ y = E+(x + y). Dos subespacios anes se le llaman paralelos si uno es un trasladado del otro. La relaci on de paralelismo entre subespacios anes es de equivalencia ya que si E = F + x y G = E + y entonces, G = F + (x + y). Esto signica que el conjunto de los subespacios anes se parte en clases de paralelismo y dos subespacios son paralelos si y solo si est an en la misma clase de paralelismo. Ahora veremos que en cada clase de paralelismo hay un solo subespacio af n que pasa por el origen. Todo subespacio af n es paralelo a un solo subespacio vectorial. Prueba. Si E + x = F + y entonces, E = F + y x. Como F + y x contiene al cero entonces, x y F. Como F es un subespacio, y x F y 2.30 nos da F = F+ y x.

Este resultado nos permite denir la dimensi on de un subespacio af n. Cada uno de ellos es paralelo a un u nico subespacio y su dimensi on es la dimensi on de ese subespacio. En otras palabras, si E = E + x entonces dim E = dim E. Es com un utilizar la terminolog a geom etrica para hablar de los subespacios anes de dimensi on peque na. As , un punto es un subespacio af n de dimensi on cero, una recta es un subespacio af n de dimensi on uno, un plano es un subespacio af n de dimensi on dos. Dos subespacios anes paralelos o son el mismo o no se intersectan. Prueba. Si y (E + x) (E + x0 ) entonces, por 2.30, E + x = E + y = E + x0 .

56

Cap tulo 2. Espacios vectoriales


Es un error com un (debido al caso de rectas R2 ) pensar que es equivalente que dos subespacios anes sean paralelos a que estos no se intersecten. Para convencerse de que esto no es cierto, el lector debe pensar en dos rectas no coplanares en R3 .

El espacio cociente Sea D un espacio vectorial y E un subespacio vectorial de D. x + x0 Si E = E + x y F = E + y son dos subespacios anes paralelos R2 x entonces E + F = (E + x) + (E + y) = (E + E) + (x + y) = x0 E + (x + y) lo que muestra que E + F est a en la misma clase de y0 y + y0 paralelismo que E y F. En otras palabras (v ease la gura a la 0 y derecha) la suma de cualquier vector en E con cualquier otro en F est a en un mismo espacio paralelo a E y F. Denotemos por D/E al conjunto de todos los subespacios anes de D paralelos a E. La observaci on anterior nos dice que la suma de subespacios anes es una operaci on en D/E. Esta suma es asociativa y conmutativa debido a que la suma de vectores cumple estas propiedades. El subespacio E es el neutro para esta operaci on y el opuesto de E + x es E x. Luego, D/E es un grupo abeliano para la suma y para convertirlo en un espacio vectorial solo nos falta el producto por escalares.. Sea A un conjunto arbitrario de vectores y un escalar. DeniA = {a | a A} remos al conjunto A como en el recuadro a la izquierda. Sean E = E+x un subespacio af n paralelo a E y un escalar. Tenemos 2 2x E = (E + x) = E + x = E + x lo que muestra que E est a en la R x misma clase de paralelismo que E. En otras palabras (v ease la gura a la 2y derecha) el producto de un escalar por todos los vectores en E resulta en 0 y espacio paralelo a E. Este producto convierte a D/E en un espacio vectorial llamado espacio cociente de D por E.

Ejercicio 55 Pruebe los axiomas de espacio vectorial para el espacio cociente. Ejercicio 56 Cual es el espacio cociente de R3 por el plano xy? Ejercicio 57 Que pasa si sumamos dos espacios anes no paralelos? [245]
El isomorsmo con los complementarios R2 F E

Sea F un subespacio complementario a E. Entonces, cualquier subespacio af n paralelo a E intersecta a F en un y solo un vector.

Prueba. Sea E = E + x cualquier subespacio af n paralelo a E. Como D = E F

Secci on 2.8

El espacio af n

57

existen unos u nicos vectores y E y z F tales que x = y + z. Luego por 2.30 E + x = E + y + z = E + z y por lo tanto z E + x o sea, z E F. Si z0 es otro vector en E F entonces, existe a E tal que z0 = a + x. De aqu x = a + z0 y por la unicidad de la descomposici on de un vector en suma de vectores de espacios complementarios, y = a y z = z0 . Sea F un subespacio complementario a E. Entonces, f : F 3 x 7 (E + x) D/E es un isomorsmo de espacios vectoriales. Prueba. Por 2.33 la aplicaci on f : F 3 x 7 (E + x) D/E tiene inversa (que a cada E+ x D/E le hace corresponder el u nico vector en (E + x) F). Luego, f es biyectiva. Adem as, f (x + y) = E + (x + y) = (E + x) + (E + y) = f (x) + f (y) f (x) = E + (x) = (E + x) = f (x) por lo que f es un isomorsmo. Este isomorsmo es can onico. Luego, cualquier subespacio complementario a E es can onicamente isomorfo a D/E. Esta proposici on tambi en nos dice que la dimensi on de D/E es la misma que la de un complementario a E o sea, es dim D dim E.
Es posible (gracias al isomorsmo con los complementarios) desarrollar toda el a lgebra lineal sin la introducci on de los espacios cocientes. Si embargo, es m as c omodo hacerlo con ellos. Adem as es importante que el lector se familiarize con el concepto, ya que, en el estudio de estructuras algebraicas m as generales, no siempre existen estructuras complementarias (por ejemplo en la teor a de grupos). Por otro lado, las estructuras cocientes si se pueden construir. Por ejemplo, todo grupo tiene un cociente por cualquier subgrupo normal.

2.8

El espacio af n

Recordemos de la secci on anterior que un subespacio af n del espacio vectorial F es el trasladado E + x de un subespacio vectorial E de F. La dimensi on de E + x es por denici on la dimensi on de E. Los subespacios anes de dimensi on peque na reciben nombres especiales seg un la tradici on geom etrica. Los de dimensi on 0 se le llaman puntos. Los de dimensi on 1 se le llaman rectas y los de dimensi on 2 se le llaman planos. Un punto es, en otras palabras, un subespacio af n E + x donde E es de dimensi on cero. Pero el u nico subespacio vectorial de dimensi on cero es {0} . Luego, un punto es un conjunto de la forma {0} + x = {x}. Esto nos da una biyecci on obvia {x} 7 x entre los puntos del espacio af n y los vectores del espacio vectorial. Al conjunto de todos los puntos del espacio vectorial F se le llama el espacio af n a el lector, si la diferencia entre {x} y x es puramente formal de F. Pero como, dir entonces, cual es la diferencia entre el espacio af n y el espacio vectorial? La respuesta

58

Cap tulo 2. Espacios vectoriales

es ambivalente pues es la misma pregunta que que diferencia hay entre geometr a y algebra? Antes de Descartes eran dos cosas completamente distintas, despues de el, son cosas muy parecidas. Intuitivamente, un espacio af n es lo mismo que el espacio vectorial pero sin coordenadas. El espacio an de R2 es el plano de Euclides en el que estudiamos la geometr a m as cl asica y elemental: congruencia de tri angulos, teorema de Pit agoras, etc. Los resultados de esta geometr a no dependen de cual es el origen de coordenadas. Dos tri angulos son congruentes o no independientemente de en que lugar del plano se encuentran. A un nivel m as alto, podemos pensar el espacio af n de un espacio vectorial como una estructura matem atica adecuada para poder estudiar las propiedades de los espacios vectoriales que son invariantes por traslaciones, o sea, que no cambian al mover un objeto de un lugar a otro en el espacio. La regla del paralelogramo La conocida regla del paralelogramo para la suma de vectores en el plano R2 se generaliza a todas las dimensiones y sobre cualquier campo. Postularemos que el conjunto vac o es un subespacio af n de dimensi on 1. Eso nos evitar a muchos problemas en la formulaci on de nuestros resultados. La intersecci on de subespacios anes es un subespacio af n. Prueba. Sea x un punto en la intersecci on. Cada uno de los subespacios anes, es E + x para cierto subespacio E del espacio vectorial. Si F es la intersecci on de todos estos subespacios entonces F + x es la intersecci on de los subespacios anes. Regla del paralelogramo Si a y b son vectores LI de un espacio vectorial entonces, a + b es la intersecci on de los subespacios anes hai + b y hbi + a. Prueba. Obviamente a + b (hai + b) (hbi + a). Por otro lado, ambos hai + b y hbi + a tienen dimensi on 1 y por lo tanto su intersecci on tiene dimensi on 0 o 1. Si esta dimensi on es cero entonces terminamos. Si esta dimensi on es uno entonces hai + b = hbi + a y por lo tanto a hai + b. Por 2.30 tenemos que hai + b = hai + a = hai, Por lo tanto b hai y esto contradice que {a, b} es LI. Cerradura af n Para un conjunto A de puntos en el espacio af n, la cerradura af n de A es la intersecci on de todos los subespacios anes que contienen a A. A la cerradura af n de A la denotaremos por [A]. Esto la diferencia claramente de la cerradura lineal hAi. Para la cerradura an, tenemos las mismas propiedades que para la cerradura lineal.

Secci on 2.8

El espacio af n

59

[A] es el subespacio an m as peque no que contiene a A. Prueba. [A] es un subespacio an. Si B es un subespacio af n que contiene a A entonces [A] B pues para hallar [A] tuvimos que intersectar con B. La cerradura af n cumple las siguientes propiedades: 1. A [A] (incremento) 2. A B [A] [B] (monoton a) 3. [[A]] = [A] (idempotencia). Prueba. Es exactamente la misma que para el caso de la cerradura lineal. Generadores e independencia Un conjunto de puntos A es generador af n si [A] es todo el espacio af n. Los conjuntos anmente independientes los deniremos con el siguiente resultado. Denici on de conjuntos anmente independientes Sea A un conjunto de puntos. Las siguientes armaciones son equivalentes 1. Cualquier subconjunto propio de A genera un subespacio af n m as peque no que todo A. 2. Cualquier punto en A no est a en la cerradura af n de los restantes. Prueba. Es an aloga a la prueba (1 2) de la caracterizaci on de conjuntos LI.

Los conjuntos de puntos que no son anmente independientes los llamaremos anmente dependientes. Nuevamente para evitarnos largas oraciones, a los conjuntos anmente independientes los llamaremos conjuntos AI y a los conjuntos anmente dependientes los llamaremos conjuntos AD. Todo sobreconjunto de un generador an es un generador an. Todo subconjunto de un conjunto AI es AI. Prueba. Sea A un generador af n y B A. Tenemos [A] [B] y como [A] es todo el espacio an entonces [B] tambi en lo es. Sea A que es AI y B A. Si B fuera AD entonces existir a b B tal que b [B\b] [A\b] y esto no puede ser pues A es AI.

60 Bases anes

Cap tulo 2. Espacios vectoriales

Una base an es un conjunto de puntos que es AI y generador an. Ahora podriamos seguir por el mismo camino demostrando que las bases anes son los generadores anes m as peque nos o los AI m as grandes. Despues, el teorema de existencia de base, el lema del cambio para las bases anes, la prueba de que dos bases anes tienen el mismo cardinal, etc. Este camino aunque se puede realizar, sin embargo, tiene dos desventajas. La primera es que a un no hemos denido combinaciones anes y estas se necesitan para probar todo esto. La segunda, y m as obvia, es que todo esto es muy largo. Por suerte, hay una sencilla relaci on que enlaza las bases anes con las bases del espacio vectorial y esto nos ahorrar a mucho trabajo. Sea A = {x0 , x1, . . . , xn } un conjunto de puntos. Denamos A0 = {x1 x0 , . . . , xn x0 }. Entonces, A es una base af n si y solo si A0 es una base del espacio vectorial. Prueba. Veamos que [A] = hA0 i + x0 . Efectivamente, hA0 i + x0 es un subespacio af n que contiene a A y por lo tanto [A] hA0 i + x0 . Por otro lado [A] x0 es un subespacio por el origen que contiene a A0 y por lo tanto [A] x0 hA0 i. De aqu inmediatamente obtenemos que A es generador af n si y solo si A0 es un generador. Luego, podemos suponer por el resto de la prueba que tanto A como A0 son generadores. Nos queda probar que A es AI si y solo si A0 es LI. Supongamos que A0 es LD. Sea B0 una base lineal tal que B0 A0 . Como al principio de la prueba B = {x0 } (B0 + x0 ) es un generador af n del espacio. Como B0 6= A0 entonces, B 6= A y por lo tanto A es AD. Supongamos que A es AD. Entonces, hay un subconjunto propio B de A que genera al espacio. Sea y B Como al principio de la prueba B0 = {xi y | xi B \ {y}} es un generador lineal del espacio. Luego la dimensi on del espacio es estrictamente menor que n y por lo tanto A0 no puede ser LI. Ahora podemos traspasar todos los resultados probados para las bases del espacio vectorial a las bases anes. En particular, es cierto que: 1. Las bases anes son los conjuntos generadores anes minimales por inclusi on. 2. Las bases anes son los conjuntos AI maximales por inclusi on. 3. Si A es un conjunto AI y B es un conjunto generador af n tal que A B entonces hay una base af n C tal que A C B. 4. Dos bases anes cualequiera tienen el mismo n umero de puntos (uno m as que la dimensi on). Las demostraciones de estos resultados son obvias dada la correspondencia entre las bases anes y las bases del espacio vectorial.

Secci on 2.9 2.9

El caso de dimensi on innita

61

El caso de dimensi on innita

En la Secci on 2.4 enunciamos el Teorema de Existencia de Bases (2.14) y la Equicardinalidad de las Bases (2.16) pero solo los probamos para el caso de que el espacio tiene dimensi on nita. En esta secci on demostramos estos resultados para los casos faltantes. Porque siempre aparece un curioso que quiere saber. Como estas demostraciones dependen de resultados de Teor a de Conjuntos y una exposici on de esta nos llevar a a escribir otro libro, lo haremos todo en forma minimalista: Antes de cada una de las dos pruebas daremos las deniciones y resultados exclusivamente que necesitamos. Los resultados complicados de Teor a de Conjuntos no los demostraremos. El Lema de Zorn Un conjunto ordenado es un conjunto con una relaci on de orden, o sea una relaci on reexiva antisim etrica y transitiva (v ease el glosario). Sea P un conjunto ordenado y A un subconjunto de P. Diremos que x P es una cota superior de A si para cualquier y A se cumple que y x. Diremos que x A es elemento maximal de A si para cualquier y A se cumple que x y. Se dice que A es una cadena si para cualesquiera x, y A se cumple que x y o que y x. Diremos que A esta inductivamente ordenado si A 6= y cualquier cadena contenida en A tiene una cota superior que est a en A. El siguiente resultado es cl asico en teor a de conjuntos. Lema de Zorn Cualquier conjunto inductivamente ordenado tiene un elemento maximal. Existencia de bases Teorema de Existencia de Bases (caso general) Sea N un conjunto generador y L N un conjunto LI. Entonces, existe una base M tal que L M N. Prueba. Sean L y N como en las hip otesis. Denotemos T = {M | M es linealmente independiente y L M N} . El conjunto T est a naturalmente ordenado por inclusi on. Sea M un elemento maximal de T . Entonces x N\M M x es dependiente y por el Lema de Aumento de un Conjunto LI (2.11) tenemos N hMi. Como N es generador, esto signica que M tambi en lo es y por lo tanto M es una base. Nuestra tarea es encontrar un elemento maximal de T . Probemos que el conjunto T est a inductivamente ordenado. Efectivamente, T es no vac o ya que L T . Sea {Bi }iI

62

Cap tulo 2. Espacios vectoriales

S una cadena arbitraria en T y denotemos B = iI Bi . El conjunto B es una cota superior de la cadena {Bi }iI y tenemos que convencernos que B est a en T . Como para cualquier i tenemos Bi N entonces, B N. Supongamos que B es linealmente dependiente. Entonces, existe un subconjunto nito B0 de B y una combinaci on lineal de B0 igual a cero tal que todos sus coecientes son no cero, o sea B0 es linealmente dependiente. Como B0 es nito, y {Bi }iI es una cadena entonces, tiene que existir i0 tal que B0 Bi0 y esto contradice que todo subconjunto de un conjunto linealmente independiente es linealmente independiente. Luego, T est a inductivamente ordenado y por el Lema de Zorn (2.42) el conjunto T tiene un elemento maximal. Cardinales Dados dos conjuntos A y B denotaremos |A| |B| si existe una inyecci on de A en B. La relaci on A B denida como |A| |B| y |B| |A| es una relaci on de equivalencia entre todos los conjuntos. A la clase de equivalencia que contiene al conjunto A se le llama cardinal del conjunto A y se denota por |A|. Los cardinales est an ordenados por la relaci on de orden que ya denimos. Los cardinales pueden ser nitos o innitos. El cardinal innito m as peque no es 0 que es el cardinal de los naturales ( es la primera letra del alfabeto hebreo y se llama alef). La suma de cardinales se dene como el cardinal de la uni on de dos conjuntos disjuntos. El producto de cardinales se dene como el cardinal del producto cartesiano de conjuntos. Necesitaremos dos resultados acerca de los cardinales de conjuntos. El primero es muy sencillo y daremos una demostraci on para el. Si i |Ai | t entonces, P |Ai | t |I|.

i I

Prueba. Podemos pensar que los Ai son disjuntos. Sea ST un conjunto de cardinal t. Por hip otesis existen inyecciones fi : Ai 7 T . Sea : iI Ai T I denida por (a) = (fi (a) , i) si a Ai . Por denici on de si (a) = (b) entonces, a y b est an en el mismo conjunto Ai , fi (a) = fi (b) y por lo tanto a = b. Luego, es inyectiva. El siguiente resultado que necesitamos se demuestra (usando muchas cosas) en la Teor a de Conjuntos (v ease por ejemplo: Kamke E., Theory of sets. Dover, New York, 1950. p agina 121). Nosotros omitiremos la prueba. Si |A| es innito entonces, 0 |A| = |A|.

Secci on 2.9

El caso de dimensi on innita

63

Equicardinalidad de las bases Equicardinalidad de las Bases (caso innito) Dos bases cualesquiera tienen el mismo cardinal. Prueba. Sean A y B dos bases. Ya probamos el caso en que una de las dos bases es nita. Luego, podemos suponer que A y B son innitos. Como B es una base y debido a la nitud de las combinaciones lineales entonces a A el m nimo subconjunto Ba B tal que a hBa i existe y es nito. Construyamos la relaci on R A B de manera que (a, b) R si y solo si b Ba . Tenemos |B| |R| ya que si hubiera un b0 B no relacionado con ning un elemento de A entonces, A hB\b0 i y como A es base obtendr amos que B\b0 es generador lo que contradice que B es base. Por otro lado, como |A| es innito y |Ba | es nito entonces, usando 2.44 y 2.45 obtenemos X |B| |R| = |Ba | 0 |A| = |A| . Luego |B| |A| y por simetr a de nuestros razonamientos|A| |B|.
a A

64

Captulo tercero

Transformaciones Lineales
as transformaciones lineales son uno de los objetos m as estudiados y m as importantes en las matem aticas. El objetivo de este cap tulo es familiarizar al lector con el concepto de transformaci on lineal y sus propiedades b asicas. Introduciremos las matrices y estudiaremos la relaci on de las mismas con las transformaciones lineales. Veremos el concepto de nucleo e imagen de una transformaci on lineal etc...

3.1

Denici on y ejemplos

Sean E y F dos espacios vectoriales sobre K. Una funci on f : E F se le llama transformaci on lineal de E en f (a + b) = f (a) + f (b) F si para cualesquiera vectores a y b y cualquier escalar f (a) = f (a) se cumplen las propiedades del recuadro a la derecha. Nuevamente, para no reescribir constantemente frases largas, en lugar de decir que f es una transformaci on lineal, diremos que f es una TL. En plural escribiremos TLs. Im agenes de subespacios

Toda TL transforma subespacios en subespacios. Prueba. Sea f : E F una TL y E0 un subespacio de E. Denotemos F0 = f (E0 ) la imagen de E0 . Sean a y b vectores en F0 . Existen vectores x,y tales que f (x) = a y f (y) = b. Tenemos, f (x + y) = a + b por lo que a + b F0 . Sea ahora un escalar. Tenemos f (x) = a por lo que a F0 . Luego, F0 es un subespacio de F.

66

Cap tulo 3. Transformaciones lineales


Las TLs NO necesariamente transforman conjuntos LI en conjuntos LI ni tampoco conjuntos generadores en conjuntos generadores.

Homotecias Veamos el ejemplo m as simple de TL. Si a cada vector x de un espacio E le hacemos corresponder el vector 2x obtenemos la funci on h2 : E 3 x 7 2x E . Esta funci on es una TL ya que h2 (a + b) = 2 (a + b) = 2a + 2b = h2 (a) + h2 (b) h2 (a) = 2a = 2a = h2 (a) Observese que en el segundo rengl on se usa la conmutatividad del producto de escalares. Lo mismo ocurre si en lugar del escalar 2 usamos cualquier otro escalar K obteniendo la TL h : E 3 x 7 x E. A las funciones h se les llama homotecias. Hay dos casos particulares de homotecias especialmente importantes. Si = 1 entonces obtenemos la funci on identidad x 7 x. A esta funci on se la denotar a por I. Si = 0 entonces obtenemos la funci on nula x 7 0 que se denotar a por O. En el caso del campo R las homotecias tienen una interpretaci on geom etrica muy clara. Si > 0 entonces cada punto x Rn se transforma en el punto x que est a en la misma recta por el origen que x pero a una distancia del origen veces mayor que x. Esto quiere decir que h es la dilataci on de raz on . Si 0 < < 1 entonces h es una contracci on de raz on 1/. En la gura de la derecha observamos la dilataci on x 7 2x en el 2 plano cartesiano R . La curva interior (que es la gr aca de la funR2 ci on 5 + sin 5 en coordenadas polares) se transforma en la misma curva pero del doble de tama no (10 + 2 sin 5). Si = 1 entonces a la homotecia h1 : x 7 x se le llama funci on antipodal. El nombre viene de la siguiente interpretaci on. v 7 2v Si trazamos una recta que pase por el centro de la Tierra intersectaremos la supercie en dos puntos. Estos puntos se dicen que son ant podas o sea, nuestros ant podas son la personas que viven pies arriba del otro lado de la Tierra. Si coordinatizamos la Tierra con unos ejes de coordenadas con origen en el centro de la misma, nuestros ant podas se obtienen multiplicando por 1. En la gura de la izquierda est a representada la funci on ant podal 2 2 en R . En ella hay dos curvas cerradas de cinco p etalos. La primera R es la misma que la de la gura anterior (10 + 2 sin 5). La segunda es la ant poda de la primera (10 2 sin 5). La gura es expresamente complicada para que el lector tenga la oportunidad de pensar un poco en que punto se va a transformar cada punto. Cualquier v 7 v homotecia h con < 0 se puede representar como h1 (h ) por lo que h se puede interpretar como una dilataci on seguida de la funci on ant podal. A pesar de su simplicidad las homotecias juegan un papel fundamental en la comprensi on de las TL y este papel se debe a que ellas son todas las TL en dimensi on 1.

Secci on 3.1

Denici on y ejemplos

67

Si dim E = 1 entonces toda TL de E en E es una homotecia. Prueba. Sea {a} una base de E y f una TL de E en E. Como {a} es una base tiene que existir un escalar K tal que f (a) = a. Sea x = a un vector arbitrario en E . Como f es lineal tenemos f (x) = f (a) = f (a) = a = a = x lo que demuestra que f es una homotecia. Inmersiones Hasta ahora las TL que hemos visto (las homotecias) est an denidas de un espacio en si mismo. Las inmersiones son la TL m as simples que est an denidas de un espacio en otro distinto. Sea E un subespacio de F. A la funci on i : E 3 x 7 x F se le llama inmersi on de E en F. Las inmersiones son TLs inyectivas y son las restriciones a subespacios de la funci on identidad. No hay mucho que decir de las inmersiones excepto de que hay una para cada subespacio. Proyecciones Ahora supongamos al rev es (de las inmersiones) que F es subespacio de E . Habr a alguna TL natural de E en F? Lo que podemos hacer es buscarnos un espacio G complementario de F (existe por 2.28) De esta manera E = F G y por 2.29 tenemos que cada vector x E se descompone de manera u nica como a + b donde a es un vector en F y b es un vector en G . As para cada x E tenemos un u nico a F y esto nos da una funci on que denotaremos por F y la llamaremos proyecci on de E en F a lo largo de G . Cualquier proyecci on F restringida a F es la identidad por lo que necesariamente es sobreyectiva. La notaci on F sugiere erroneamente que esta funci on solo depende del subespacio F . Esto no es cierto, cualquier subespacio F tiene muchos subespacios complementarios diferentes y la proyecci on depende del subespacio complementario que escojamos. Las proyecciones son transformaciones lineales. Prueba. Escojamos un subespacio G complementario de F . De esta manera F es una funci on ja y bien denida. Si x, y son dos vectores entonces hay descomposiciones u nicas x = F (x) + G (x) y y = F (y) + G (y) . Luego x + y = (F (x) + F (y)) + (G (x) + G (y)) . El primer sumando de la derecha est a en F y el segundo en G . Por la unicidad de la descomposici on necesariamente tenemos F (x + y) = F (x) + F (y) . Sea ahora K. Tenemos x = F (x)+ G (x) . Nuevamente, el primer sumando de la derecha est a en F y el segundo en G y por la unicidad de la descomposici on necesariamente tenemos F (x) = F (x) .

68

Cap tulo 3. Transformaciones lineales

Como son geom etricamente las proyecciones? En esencia el problema es el siguiente. Dados dos espacios complementarios F , G y un vector a como hallar un vector en F y otro en G que sumados den a. Esto ya lo hicimos una vez cuando introducimos las coordenadas cartesianas en R2 . Dado un vector a trazamos la recta paralela al eje y que pasa por a y la intersecci on del eje x con esta recta es un vector x (a) . De manera an aloga obtenemos y (a) y sabemos que a = x (a) + y (a). En el caso general es exactamente igual. Esta construcci on se ilustra en la gura de la derecha. Tenemos que F es un subespacio de dimensi on k y uno de sus complementarios G es de dimensi on n k. Hay un solo subespacio af n paralelo a F que pasa por a y este es F + a. La intersecci on (F + a) G es un solo punto y este punto es el vector G (a) . An alogamente se observa que F (a) = (G + a) F. Como es l ogico, no pudimos dibujar el espacio Rn as que el lector deber a contentarse con el caso n = 3, k = 2 y con la prueba general. Si F y G son complementarios entonces, para cualquier vector a se cumple a = ((G + a) F) + ((F + a) G). Prueba. Como F y G son complementarios (G + a) F es un solo punto que denotaremos x. Sea y G tal que x = y + a. Tenemos que F + a = F + x + y = F + y y por lo tanto y (F + a) . Luego y = (F + a) G.

3.2

Operaciones entre transformaciones lineales

Ahora, veremos que operaciones se denen naturalmente entre las TLs. El espacio vectorial de las transformaciones lineales Sea f una TL y un escalar. Denotaremos por f a la funci on a 7 f (a). A esta operaci on se le llama producto de un escalar por una TL. El producto de un escalar por una TL es una TL. Prueba. Efectivamente, tenemos (f) (a + b) = f (a + b) = (f (a) + f (b)) = (f) (a) + (f) (b) (f) (a) = f (a) = f (a) = f (a) = (f) (a) lo que signica que f es una TL. Sean ahora f y g dos transformaciones lineales. Denotaremos por f + g a la funci on

Secci on 3.2

Operaciones entre transformaciones lineales

69

a 7 f (a) + g (a). A esta operaci on se le llama suma de TLs. La suma de dos TLs es una TL. Prueba. Denotemos h = f + g. Tenemos h (a) = f (a) + g (a) = (f (a) + g (a)) = h (a) h (a + b) = f (a + b) + g (a + b) = f (a) + g (a) + f (b) + g (b) = h (a) + h (b) lo que signica que h es una TL. Luego, podemos sumar transformaciones lineales y multiplicarlas por escalares. Los axiomas de espacio vectorial se comprueban de manera muy simple usando las deniciones. Por ejemplo, la prueba de la distributividad del producto por escalares con respecto a la suma es la siguiente: ( (f + g)) (a) = (f (a) + g (a)) = f (a) + g (a) = (f + g) (a). Al espacio vectorial de todas las TLs del espacio E en el espacio F lo denotaremos por Mor (E, F). Esta notaci on es debido que a las transformaciones lineales tambi en se les llama morsmos de espacios vectoriales. Debido a todo lo dicho es v alido el siguiente resultado: Mor (E, F) es un espacio vectorial.

Composici on de transformaciones lineales Sean f Mor (E, F) y g Mor (F, G) dos TLs. La composici on h = g f se dene como la funci on E 3 a 7 g (f (a)) G. Demostremos que h = g f Mor (E, G) o sea, que h es una TL. La composici on de TLs es una TL. Prueba. Sea h = g f la composici on de dos TLs. Tenemos h (a + b) = g (f (a + b)) = g (f (a) + f (b)) = g (f (a)) + g (f (b)) = h (a) + h (b) h (a) = g (f (a)) = g (f (a)) = g (f (a)) = h (a) que es lo que se quer a demostrar. La composici on de TLs cumple las siguientes propiedades: 1. f (g h) = (f g) h (asociatividad) 2. f (g + h) = f g + f h (distributividad a la izquierda) 3. (f + g) h = f h + g h (distributividad a la derecha) 4. f g = f g = (f g) (conmuta con el producto por escalares)

70

Cap tulo 3. Transformaciones lineales

Prueba. Ya vimos en el Cap tulo 1 que la composici on es asociativa. Con (f (g + h)) (a) = f ((g + h) (a)) = f (g (a) + h (a)) = = f (g (a)) + f (h (a)) = (f g) (a) + (f h) (a) = ((f g) + (f h)) (a) probamos la distributividad a la izquierda. Para la distributividad a la derecha usamos ((f + g) h) (a) = (f + g) (h (a)) = f (h (a)) + g (h (a)) = = (f h) (a) + (g h) (a) = ((f h) + (g h)) (a) Finalmente, probamos que la composici on conmuta con el producto por escalares con (f g) (a) = f (g (a)) = f (g (a)) = ( (f g)) (a) = = f (g (a)) = (f) (g (a)) = (f g) (a) . El lector debe ya debe poder encontrar por si mismo el porqu e de la validez de cada una de las igualdades utilizadas en esta prueba. El algebra de operadores lineales A una TL de un espacio vectorial en si mismo se le llama operador lineal. Nuevamente, usaremos la abreviatura OL para referirnos a los operadores lineales. Los OLs juegan (como veremos m as adelante) un papel muy importante en el estudio de las TLs y por esto es que merecen un nombre especial. El conjunto de todos los OLs de E se denotar a por End E. Lo hacemos as porque a los OLs tambi en se les llama endomorsmos de un espacio vectorial. Por denici on tenemos End E = Mor (E, E). La principal diferencia entre las TLs y los OLs es que la operaci on de composici on es una operaci on interna en espacio vectorial End E. O sea, si componemos dos OLs, obtenemos otro OL. Si un espacio vectorial cualquiera (el cual ya trae denidos la su- Alg1) es asociativa ma y el producto por escalares) tiene Alg2) es distributiva con respecto a + otra operaci on binaria que cumple Alg3) tiene elemento neutro los axiomas en el recuadro a la de- Alg4) conmuta con el producto por escalares recha entonces, se le llama algebra . Observese que los primeros tres axiomas los podemos resumir en uno: la suma de vectores y denen un anillo en el espacio vectorial. El cuarto axioma lo que quiere decir es que para cualquier escalar y cualesquiera vectores a y b se cumple que a b = a b = (a b). Ya vimos (3.9 ) que la operaci on de composici on de OLs cumple los axiomas Alg1, Alg2 y Alg4. Para ver que End E es un algebra solo nos queda comprobar que la composici on tiene elemento neutro. Pero esto es obvio ya que la funci on identidad cumple que f I = I f = f. O sea, es el neutro para la composici on. Hemos demostrado el siguiente resultado El espacio vectorial End E en un a lgebra con respecto a la composici on. Hay otras dos a lgebras importantes que deben ser muy conocidas por el lector. Primero, el conjunto de los polinomios con coecientes reales R [x] es un espacio vectorial

Secci on 3.3

Extensiones lineales

71

sobre R, pero adem as sabemos multiplicar polinomios. Este producto cumple todos los axiomas de Alg1-Alg4. Este ejemplo se generaliza a los polinomios sobre cualquier campo. El segundo ejemplo son los n umeros complejos. Estos son un espacio vectorial de dimensi on dos sobre los reales pero adem as sabemos multiplicar n umeros complejos. La multiplicaci on de complejos tambi en cumple todos los axiomas Alg1-Alg4. Un a lgebra se le llama conmutativa si el producto de vectores es conmutativo. El a lgebra de los n umeros complejos y el algebra de polinomios sobre un campo son conmutativas. Las a lgebras End E casi nunca son conmutativas (salvo en dimensi on 1). Por ejemplo en el plano cartesiano R2 la rotaci on f en 45 y la reecci on g en el eje y son (como veremos despu es) OLs. Sin embargo, (g f) (1, 0) = (1, 1) 6= (1, 1) = (f g) (1, 0). El grupo general lineal Una funci on cualquiera es biyectiva si y solo si esta tiene inversa. En el cap tulo anterior, cuando vimos los isomorsmos de espacios vectoriales, demostramos que si una TL tiene inversa entonces esta inversa tambi en es una TL. En particular, la funci on inversa de un OL es un operador lineal. Un operador lineal se le llama singular si este no tiene inverso. En el caso contrario se le llama no singular. A los OLs no singulares tambi en se les llama automorsmos del espacio vectorial. En otras palabras los automorsmos son los endomorsmos biyectivos. Al conjunto de todos los OLs no singulares del espacio vectorial E se le denota por GL (E). La suma de OLs no singulares puede ser singular ya que, por ejemplo, la funci on nula cumple que 0 = f f. Sin embargo, la composici on de OLs no singulares es siempre un OL no singular. Luego, la composici on es una operaci on binaria en GL (E) que ya sabemos que es asociativa y tiene elemento neutro. Adem as, cada elemento tiene inverso ya que f f1 = f1 f = I. Luego, GL (E) es un grupo para la composici on al cual se llama grupo general lineal del espacio vectorial E.

3.3

Extensiones lineales

Estudiaremos en esta secci on una manera universal de construir TLs. Pero antes, veamos algunas consideraciones de tipo general acerca de funciones entre conjuntos arbitrarios. Extensiones y restricciones Sean A y B dos conjuntos y A0 un subconjunto de A. Cada vez que se tiene una funci on f : A B tambi en se tiene una funci on f0 : A0 B denida por f0 (a) = 0 0 f (a) para cualquier a A . A la funci on f se le llama restricci on de f a A0 y la denotaremos por fA 0 . Todas las diferentes restricciones de f se obtienen al tomar diferentes subconjuntos A0 . Las inmersiones son las restricciones de la identidad.

72

Cap tulo 3. Transformaciones lineales

Si h y g son dos funciones tales que h es una restricci on de g entonces se dice que g es una extensi on de h. Si est a dada una funci on g : A0 B y A es un sobreconjunto de A0 entonces, pueden haber muchas extensiones h : A B de g, ya que podemos escoger arbitrariamente los valores de h (x) para todos los x A\A0 . Es un problema frecuente en matem aticas el encontrar extensiones que cumplan ciertas propiedades. En nuestro caso, debemos encontrar extensiones que sean TLs. Formulemos nuestro problema m as precisamente. Sean E y F dos espacios vectoriales sobre K y N un conjunto de vectores de E. Sea h : E F una TL. Sabemos que N E y por lo tanto tenemos la restricci on hN : N F. Ser a posible para cualquier funci on g : N F encontrar una extensi on h : E F de g que sea TL? Ser au nica tal extensi on? Veremos que ambas preguntas tienen respuesta positiva si N es una base. Para demostrar la existencia de la extensi on debemos construirla. Sea N una base de E y g : N F una funci on arbitraria de N en F. P Cualquier x E se expresa de forma u nica como combinaci on lineal de N o sea x = iN i i. A X i g (i) la funci on h del recuadro a la derecha se le llama extensi on lineal x 7 i N de g. Observese que (como debe ser) la restricci on de h a N es igual a g ya que si x N entonces, la descomposici on de x en la base N tiene coecientes i = 0 para i 6= x y i = 1 para i = x. Las extensiones lineales son transformaciones lineales. Prueba. TenemosX X X (i + i ) g (i) = i g (i) + i g (i) = h (x) + h (y) h (x + y) = iN iN i N X X h (x) = i g (i) = i g (i) = h (x) y esto prueba que h es una TL.
iN iN

Para demostrar la unicidad de la extensi on debemos convencernos de que dos TLs distintas no pueden coincidir en una base. Las TLs est an predeterminadas por sus valores en una base. Prueba. Sean f, g : E F dos TLs y N una base de E. Supongamos que f (i) = g (i) para cualquier i N.P Cualquier x E se expresa de forma u nica como combinaci on lineal de N o sea x = iN i i. Luego ! ! X X X X i i = i f (i) = i g (i) = g i i = g (x) f (x) = f y por lo tanto las TLs f y g son iguales.
iN iN i N iN

Secci on 3.3

Extensiones lineales

73

El isomorsmo entre FN y Mor (E, F) Recordemos ahora de la Secci on 2.2 que el conjunto de todas las funciones de N en F es el conjunto de las N-adas de vectores de F, que este es un espacio vectorial para la suma y el producto por escalares denidos por coordenadas y que se denota por FN . Si N es una base de E entonces, hemos construido una correspondencia biun voca N N entre F y Mor (E, F). A cada N-ada hN F le corresponde su extensi on lineal h Mor (E, F) y a cada TL h Mor (E, F) le corresponde hN su restricci on a N (que es una N-ada). Veamos que esta correspondencia es un isomorsmo. Si N es una base de E entonces, la biyecci on r : Mor (E, F) 3 h 7 hN FN es un isomorsmo de espacios vectoriales.

Prueba. Solo nos queda probar que r es una TL. Efectivamente, sean h, h0 Mor (E, F) y un escalar. Tenemos r (h) = (h)N = hN = r (h) r (h + h0 ) = (h + h0 )N = hN + h0N = r (h) + r (h0 ) que se cumplen por las deniciones de suma y producto por escalares de las N-adas. Un criterio de isomorsmo Al establecer que los espacios Mor (E, F) y FN son isomorfos es natural que esperemos que cualquier propiedad de las TL se tradusca de alguna u otra manera al lenguaje de las N-adas de vectores. En este caso queremos hacer la traduci on de la propiedad de una TL de ser o no un isomorsmo de espacios vectoriales. Ya vimos en el cap tulo anterior que un isomorsmo transforma una base del dominio en una base del codominio. Ser a esta propiedad suciente para comprobar que una TL (1, 0, 0) 7 (1, 0) es un isomorsmo?. La respuesta es NO. Por ejemplo, la extensi on (0, 1, 0) 7 (0, 1) lineal de la funci on denida en la base can onica de R3 como en el (0, 0, 1) 7 (0, 1) recuadro a la derecha transforma a esta base en la base can onica de R2 y sin embargo no es inyectiva. Nos falta la propiedad evidentemente necesaria de que la restricci on de la TL debe ser inyectiva. Una TL es un isomorsmo si y solo si su restricci on a una base es inyectiva y la imagen de esta restricci on es una base. Prueba. Ya hemos probado la necesidad. Para la suciencia sea N una base de E y hN FN una N-ada de vectores de F tal que sus coordenadas son todas diferentes (la inyectividad) y que el conjunto de sus coordenadas (la imagen) es una base M = h (N) de F. Probemos que la extensi oP n lineal h : E F de hN es un isomorsmo. P Efectivamente, si x = iN i i y y = iN i i son dos vectores cualesquiera en E y h (x) = h (y) entonces,

74

Cap tulo 3. Transformaciones lineales


X
iN

i h (i) =

y como todos los h (i) = hi son diferentes, estas son dos combinaciones lineales iguales de la base M. Luego, los coecientes de estas combinaciones lineales tienen que coincidir i = i y por lo tanto x = y. Luego, h es inyectiva. Para ver que P h es sobreyectiva sea z F. Como M es una base P de F existen i K tales que z = iN i h (i) y por lo tanto z = h (v) donde v = iN i i.

X
iN

i h (i)

3.4

Coordinatizaci on de transformaciones lineales

Para darle coordenadas a una TL lo primero es darle coordenadas a los espacios entre los cuales est a denida la TL. Sean N y M bases de E y F respectivamente. Tenemos los isomorsmos de coordinatizaci on E K{N } y F K{M } . Para cada f f Mor (E, F) tenemos la composici on g : K{N } E F K{M } que es una TL en {N Mor K } , K{M } . Rec procamente para cada g Mor K{N } , K{M } tenemos la g f composici on f : E K{N } K{M } F que es una TL en E F Mor (E, F). Es f acil ver y es intuitivamente claro que esta col l rrespondencia biun voca Mor (E, F) Mor K{N } , K{M } es un K{N } K{M } g isomorsmo de espacios vectoriales. Podemos pensar a N como la base can onica de K{N } . Luego, aplicando 3.13 obte N { N } {M } = K{M }N que es el conjunto de K{M } nemos el isomorsmo Mor K , K las MN matrices tales que cada columna es una N-ada nita. Para el caso que m as M N MN nos interesa en que N y M son bases nitas obtenemos Mor (E, F) K =K . Sea f Mor (E, F). A la matriz MN que le corresponde a f mediante el isomorsmo construido se le llama matriz de la TL f en las bases M y N. Los resultados de la secci on anterior nos dicen como construir MN dada f. Para cada P i N la columna M i es el vector f (i) coordinatizado en la base M. O sea f (i) = aM ai a. P i ai xi 7 n i=0 ai (x + 1) K [x] es un isomorsmo de espacios vectoriales. Construya algunas columnas de la matriz NN de esta TL en la base can onica del espacio de polinomios. Demuestre que las entradas de esta matriz est an denidas por la ecuaci on recursiva kn = k,(n 1) + (k1),(n 1) con las condiciones de frontera kn = 0 si k > n y kn = 1 si k = 0 o k = n.

Ejercicio 58 Sean E E0 y F F0 isomorsmos de espacios vectoriales. Construya Ejercicio 59 Pruebe que la funci on K [x] 3
un isomorsmo Mor (E, F) Mor (E0 , F0 ). Pn
i =0

La f ormula f (i) =

a M

ai a nos dice tambi en como construir f dada MN . Las

Secci on 3.4 Coordinatizaci on de transformaciones lineales

75

a M a M iN iN iN P La expresi on iN ai i es un escalar y hay uno para cada a M por lo que son las coordenadas de una M-ada. A esta M-ada se le llama producto de la matriz MN por el vector N y se denota por MN N . X Observese que este producto lo podemos escribir como en el MN N = M i i recuadro. Esto quiere decir que este producto se obtiene muliN tiplicando las columnas de MN por las correspondientes coordenadas de N y sumando los resultados. En otras palabras MN N es la combinaci on lineal de las columnas de MN cuyos coecientes son las coordenadas de N . En esta secci on estudiaremos sistem aticamente el isomorsmo entre las TLs y las matrices repitiendo detalladamente todo lo dicho en esta introducci on. Si el lector no entendi o, le recomiendo seguir adelante y despu es releer esta introducci on.

imagenes de los i N lasP calculamos por la f ormula y a f la construimos por extensi on ! lineal. O sea, si E 3 x = iN i i entonces, X X X X X F 3 f (x) = i f (i) = i ai a = ai i a

El producto escalar can onico X Sean N y N dos N-adas. El producto escalar de estas NN N = i i adas es el escalar del recuadro a la derecha. De esta manera, el iN producto escalar de dos vectores es un elemento del campo. No se debe confundir el producto por un escalar con el producto escalar. El primero es un producto de un escalar por un vector y el segundo es un producto de dos vectores. M as adelante veremos que hay otros productos denidos en cualquier espacio vectorial. Por esto a este producto lo llamaremos can onico y solamente est a denido en el espacio vectorial de las N-adas para cierto conjunto nito de ndices N. El producto escalar cumple las siguientes propiedades: 1. xy = yx (conmutatividad) 2. x (y + z) = xy + xz (distributividad a la izquierda) 3. (y + z) x = yx + zx (distributividad a la derecha) 4. x (y) = (x) y = (xy) (conmuta con el producto por escalares)

Ejercicio Ejercicio Ejercicio Ejercicio

60 61 62 63

Pruebe las principales propiedades del producto de N-adas (3.15). Busque tres vectores x y z en R2 tales que (xy) z 6= x (yz). [245] Se puede denir el producto escalar can onico en K{N } ? Pruebe que N RN se cumple que 2 N = N N 0.

76

Cap tulo 3. Transformaciones lineales

El producto de matrices Sean MN y NL dos matrices. Observese que el conjunto de ndices de las columnas de la primera, coincide con el conjunto de ndices de los renglones de la segunda. As , N tanto un rengl on iN como una columna Nj son vectores del espacio K de N-adas y podemos formar su producto iN Nj . Cuando hacemos esto, para todos los i M y todos los j L obtenemos una ML-matriz formada por todos estos productos. A esta matriz se le llama el producto de las matrices MN y NL y se denotar a por MN NL . Resumiendo, si ML = MN NL entonces ij = iN Nj . Por ejemplo, si los conjuntos de ndices son M = {1, 2}, N = {1, 2, 3} y L = {1, 2} entonces, en forma gr aca tenemos 12 11 12 13 11 1N N1 1N N2 21 22 = 21 22 23 2N N1 2N N2 31 32 y por denici on de producto escalar de vectores tenemos P3 P3 1N N1 1N N2 1i i1 1i i2 i = 1 i = 1 P3 = P3 . 2N N1 2N N2 i=1 2i i1 i=1 2i i2 Productos de matrices y vectores Sean MN y NL dos matrices. Si el conjunto de indices L tiene un solo elemento entonces la matriz NL tiene una sola columna. En este caso podemos escribir NL = N1 y diremos que N1 es un vector columna o una N-ada columna. Obviamente, podemos pensar que N1 es una N-ada N . En este caso podemos hacer el producto de matrices MN N1 = MN N y este es el producto de una matriz por un vector denido al principio de esta secci on. An alogamente se dene el producto por el otro lado. Si el conjunto de indices M tiene un solo elemento entonces la matriz MN tiene un solo rengl on. En este caso podemos escribir MN = 1N y diremos que 1N es un vector rengl on o N-ada rengl on. Obviamente, podemos pensar que 1N es una N-ada N . En este caso podemos hacer el producto de matrices 1N NL = N NL y esta es la denici on del producto de un vector por una matriz. En este libro, no haremos distinciones entre N-adas, N-adas columna y N-adas rengl on o sea 1N = N1 = N . Para esto, dimos las deniciones de producto de una matriz por un vector y al rev es. Intuitivamente, el lector debe pensar que cuando aparesca un vector en un producto de matrices este se convierte en vector la o columna seg un sea conveniente. Claro, este abuso de la notaci on aunque es muy c omodo puede llevar (si nos ponemos pedantes) a contradicciones. Por ejemplo, podemos sumar dos N-adas pero no podemos sumar una N-ada columna con una N-ada rengl on. Observese que, no solo el producto de matrices por vectores y al rev es son casos particulares del producto de matrices, sino tambi en el producto escalar can onico de dos N-adas al constatar que N N = 1N N1 .

Secci on 3.4 Coordinatizaci on de transformaciones lineales

77

Ejercicio 64 Tome dos matrices con entradas enteras y multipl quelas. Repita este
ejercicio hasta que usted comprenda muy bien el concepto de producto de matrices. La transformaci on lineal de una matriz on KN 3 N MN N Sea MN una MN-matriz. Esta matriz dene una funci KM . Esta funci on on utilizando el es una TL como ya vimos al principio de esta secci isomorsmo Mor KN , KM KMN . Sin embargo, la prueba directa de este hecho es muy sencilla. El multiplicar una matriz ja por N-adas es una TL. Prueba. Sea MN una matriz cualquiera pero ja. Por las propiedades del producto de vectores tenemos que para todo i M se cumple que iN (N + N ) = iN N + iN N y que iN (N ) = (iN N ). Esto signica que son v alidas las igualdades MN (N + N ) = MN N + MN N y MN (N ) = (MN N ). La matriz de una transformaci on lineal En la proposici on anterior vimos que al mutiplicar MN-matrices por N-adas obtenemos ejemplos de TLs. Ahora queremos ver que estos son todos los ejemplos posibles, o sea, que cualquier TL de KN en KM se obtiene multiplicando por una MN-matriz. En realidad, ya lo probamos al principio de esta secci on al construir el isomors N esto M MN mo Mor K , K es m as simple ya que tenemos bases K . Sin embargo, aqu N M can onicas de K y K . Sea E = {ei : i N} la base can onica de KN . Recordemos que ei es la N-ada con coordenadas ji = 1 si i = j y ji = 0 si i 6= j. Sea f : KN KM una TL. Denotemos Mi = f (ei ) KM . A la matriz MN cuyas columnas son las imagenes de la base can onica mediante la TL f la llamaremos matriz de la TL f. Sea f : KN KM una TL y MN su matriz. Entonces, para cualquier N KN se cumple que f (N ) = MN N .

Prueba. Sea f0 : N 7 MN N . Sabemos que f e = P = MN i Mi jN Mj ji y f0 son TLs. Si i N entonces, por denici on de la base can onica y del producto de una matriz por un vector tenemos la igualdad del recuadro. Luego f y f0 coinciden en la base can onica y por extensi on lineal ambas son la misma funci on.

Ejercicio 65 Halle la matriz de la rotaci on con angulo en R2 . [245]

78

Cap tulo 3. Transformaciones lineales

Composici on de TLs y producto de matrices

La matriz de la composici on de dos TLs es igual al producto de las matrices de las TLs. Prueba. Sean f Mor KN , KM y g Mor KM , KL dos TLs. Sean MN y LM las matrices de f y g respectivamente. Para cualquier N KN y cualquier i L tenemos X X X ij (jN N ) = ij jk k = iM (MN N ) = = y por lo tanto LM (MN N ) = (LM MN ) N . Como N 7 LM (MN N ) es la TL g f entonces, tenemos (g f) (N ) = (LM MN ) N que es lo que se quer a probar. El producto de matrices es asociativo, distribuye por ambos lados con la suma de matrices y conmuta con el producto por un escalar. Prueba. Sean f, g y h TLs cuyas matrices son MN , LM y KL respectivamente. La matriz de (h g) f es (KL LM ) MN . La matriz de h (g f) es KL (LM MN ). Como la composici on de TLs es asociativa tenemos (h g) f = h (g f) y por lo tanto (KL LM ) MN = KL (LM MN ). Esto prueba la asociatividad. Las dem as propiedades se prueban exactamente igual o sea, se desprenden de las respectivas propiedades de las TLs y de la proposici on 3.18.
k N jM

XX

ij jk k =

j M

k N

(iM Mk ) k = (iM MN ) N

jM

k N

Ejercicio 66 Pruebe la asociatividad del producto de matrices directamente de la denici on de producto o sea, sin usar TLs. [245]

Prueba. Ya sabemos que KNN es un espacio vectorial. El resultado anterior hace la algebra. Solo falta el mayor parte del trabajo necesario para mostrar que KNN es un N neutro para el producto que es la matriz de la identidad en K . Esta matriz es INN que cumple que Iij = ij (el delta de Kronecker) y que la llamaremos matriz identidad. Adem as, ya sabemos que la aplicaci on que a un OL en KN le hace corresponder su matriz es un isomorsmo de espacios vectoriales. La proposici on 3.18 completa la tarea de demostrar que esta aplicaci on es un isomorsmo de a lgebras.

El espacio de todas las NN-matrices es un a lgebra isomorfa a End KN .

Secci on 3.5

Cambios de base

79

Matrices inversas Sea f Mor KN , KM y MN la matriz solo si, funci 1 de f. La on f es biyectiva si y 1 1 N M existe la TL f tal que f f = I K y f f = I K . A la matriz de la TL f 1 se le 1 on 3.18 obtenemos llama matriz inversa de MN y se denota por MN . De la proposici 1 1 que la matriz inversa cumple que MN MN = INN y MN MN = IMM . Observese que 1 el conjunto de ndices de las columnas de alogamente, el conjunto MN es M y no N. An 1 de ndices de los renglones de es N y no M . MN De la denici on es inmediato que una matriz tiene inversa si y solo si su TL es un isomorsmo de espacios vectoriales. En particular los conjuntos de ndices N y M tienen que tener el mismo cardinal ya que estos cardinales son las dimensiones del dominio y el codominio de esta TL. O sea, la matriz debe ser cuadrada. Ahora nos preocuparemos en traducir nuestro criterio de isomorsmo 3.14 al lenguaje de matrices. Una matriz cuadrada MN tiene inversa si y solo si sus columnas son todas diferentes y son una base de KM . Prueba. Sea MN una matriz cuadrada y f Mor KN , KM su TL. La resticci on de f a la base can onica de KN es la N-ada de las columnas de la matriz MN . Por 3.14 la funci on f tiene inversa si y solo si esta restricci on es inyectiva (las columnas diferentes) y su imagen (el conjunto de columnas) es una base. Es posible probar un criterio an alogo al anterior substituyendo las columnas por los renglones. Sin embargo, su prueba aqu se nos har a innecesariamente complicada. Mejor lo dejaremos para el pr oximo cap tulo donde esto ser a una facil consecuencia de un resultado mucho m as importante.

Ejercicio 67 Sean f y g las rotaciones del plano R2 en los angulos y respectivamente. Use el ejercicio 65 para hallar las matrices en la base can onica de f, g y f g. Use 3.18 para hallar f ormulas para el seno y el coseno de la suma de dos angulos. [245] Ejercicio 68 Cual es la matriz inversa a la matriz de una rotaci on? 2 Ejercicio 69 Sea f el OL en R que deja jo a (1, 0) y manda (0, 1) en (1, 1). Cual es su matriz? Cual es la matriz inversa?

3.5

Cambios de base

Es usual en las aplicaciones que sea conveniente realizar ciertos c alculos en un sistema de coordenadas y despu es realizar otros c alculos en otro sistema de coordenadas. En el algebra lineal estos cambios de coordenadas son lineales o sea, la transformaci on que lleva unas coordenadas a otras es una TL.

80

Cap tulo 3. Transformaciones lineales

Cambios de base en un espacio vectorial Sean V y N dos bases del espacio E. Conocemos los isomorsmos de coordinatizaci on KV E KN . Nuestro problema ahora es: dada una V -ada V que son las coordenadas del vector x en la base V , como hallar las coordenadas N de x en la base N? En este caso las letras V y N tienen el sentido de que V es la base vieja y que N es la base nueva. Sea NV la matriz cuyas columnas son los vectores de la base V X expresados en las coordenadas de N. O sea, para cualquier v V v = iv i tenemos la f ormula en el recuadro a la derecha. A la matriz NV se le iN llama matriz de cambio de base (de V a N). Esta matriz no es otra cosa que la matriz del isomorsmo KV E KN . Si V es la V -ada de las coordenadas de un vector en la base V entonces, NV V es la N-ada de las coordenadas del mismo vector en la base N. P
vV

De la unicidad de las coordenadas de cualquier vector en la base N obtenemos la P igualdad vV iv v = i que es la que se necesitaba demostrar. Ejemplo. Queremos calcular las coordenadas de un vector u = (x, y) R2 en la base N = {a1 , a2 } donde a1 = (2, 3) y a2 = (1, 2). Las coordenadas (x, y) son las coordenadas de u en la base can onica. Luego, V = {e1 , e2 } es la base can onica y para construir la matriz NV de cambio de base necesitamos las coordenadas de V en la base N. Estas coordenadas se pueden hallar resolviendo dos sistemas de ecuaciones lineales pero es m as sencillo usar la siguiente argumentaci on. Como un cambio de base es un isomorsmo entonces la matriz NV tiene inversa que es la matriz de cambio de la base N a la base V . Las columnas de esta matriz ya las tenemos, son a1 y a2 . Luego, denotando p y q las coordenadas que buscamos, o sea, u = pa1 + qa2 tenemos: 1 x 2 1 x 2x y p 2 1 = = . = y 3 2 y 2y 3x q 3 2 y en estos c alculos lo u nico que no conoce el lector es como calcular la matriz inversa. Pero, esto lo pospondremos hasta el pr oximo cap tulo. Cambios de base en el espacio de transformaciones lineales Veamos como cambia la matriz de una TL cuando cambian las bases. Sean V , N dos bases del espacio E y W , M dos bases del espacio F. Conocemos los isomorsmos de coordinatizaci on KWV Mor (E, F) KMN . El problema ahora es: dada una WV matriz WV que es la matriz de la TL f : E F en las bases V y W , como hallar

Prueba. Descompongamos x E en las dos bases. Tenemos, x = P ! ! iN i i y por lo tanto X X X X X v iv i = iv v i = i i x=


v V iN iN v V iN

v v =

Secci on 3.5

Cambios de base

81

la matriz MN de f en las bases N y M? Nuevamente, V, W son las bases viejas y M, N son las bases nuevas. X Sea NV la matriz de cambio de base de V a N en E. Sea MW la v = iv i matriz de cambio de base de W a M en F. O sea, para cualquier v V i N X y cualquier w W tenemos las f ormulas en el recuadro a la derecha. jw j Estas matrices no son otra cosa que las matrices de los isomorsmos w = jM V N W M de coordinatizaci on K E K y K F K . Si WV es la matriz de f en las bases V y W entonces, 1 MW WV NV es la matriz de f en las bases N y M.

X Prueba. Las columnas de WV son las imagenes por f de f (v) = wv w la base V expresadas en la base W o sea, v V se cumple la w W f ormula del recuadro a la derecha. Denotemos por MN la matriz X de f en las bases N, M. Las columnas de MN son las imagenes por f f (i) = ji j de la base N expresadas en la base M. O sea, para cualquier i N se jM cumple la f ormula del recuadro a la izquierda. Substituyendo en la f ormula de la derecha ormulas las f ! que denen las matrices MW y NV obtenemos X X X iv f (i) = jw wv j y en esta igualdad substituimos f (i) ! por la f ormula de la izquierda para obtener ! X X X X ji iv j = jw wv j.
jM iN jM w W iN jM w W

De la unicidad de las coordenadas de cualquier vector en la base P P M obtenemos que para cualesquiera j M y v V se cumple que iN ji iv = w W jw wv y por lo tanto MN NV = MW WV . Como NV es la matriz de un isomorsmo entonces, NV tiene inversa por lo que podemos despejar MN . La proposici on anterior la podemos interpretar gr acamente de la siguiente manera. Las matrices WV , MN , NV , y MW son las matrices de TLs entre espacios co mo se muestra en el diagrama a la izquierda. Se dice que MN un diagrama de funciones es conmutativo si cualesquiera dos caminos dirigidos entre dos cualesquiera conjuntos son funciones iguales. En nuestro caso, el que el diagrama a la izquierda sea conmutativo lo quiere decir es que MN NV = MW WV . KV NV KN WV KW MW KM Cambios de base en el espacio de operadores lineales

82

Cap tulo 3. Transformaciones lineales

Si f End (E) = Mor (E, E) es un OL entonces, no tiene sentido escoger bases diferentes para el dominio y el codominio ya que estos son iguales. Sean V , N dos bases de E. El problema ahora es: dada una VV -matriz VV que es la matriz del OL f en la base V , hallar la matriz NN de f en la base VV KV KV N. Sea NV la matriz de cambio de base de V a N en NV E. En este caso, el diagrama es el de la derecha. Ya no NV N K KN hay que probar la conmutatividad de este ya que el, es un NN caso particular del anterior. Luego, NN NV = NV VV y 1 despejando obtenemos que NN = NV VV NV . Ejemplo. Sea f la TL del plano R2 que tiene la matriz del recos sin cuadro a la izquierda en la base V = {a1 , a2 } donde a1 = (2, 3) y sin cos a2 = (1, 2). Cual ser a la matriz de f en la base can onica? La matriz de cambio de base a la base can onica es la que tiene como columnas a los vectores a1 y a2 . Luego, la matriz de f en la base can onica es 1 2 1 cos sin 2 1 cos + 8 sin 5 sin = 3 2 sin cos 3 2 13 sin cos 8 sin y esto es una advertencia de que un operador lineal puede tener en una base una matriz que es igual a la de la rotaci on en la base can onica y sin embargo no es una rotaci on.

3.6

El n ucleo y la imagen de una TL

En esta secci on queremos ver que para describir todas las transformaciones lineales nos es suciente conocer las inmersiones, las proyecciones y los isomorsmos. Despu es, veremos interesantes consecuencias de este resultado. Deniciones Para esto comenzaremos con dos deniciones fundamentales. Sea f : E F una TL. Al conjunto {y F | x E f (x) = y} se le llama imagen de la TL. La imagen de f se denotar a por Im f. Al conjunto {x E | f (x) = 0} se le llama n ucleo de la TL. El n ucleo de f se denotar a por ker f. Esta notaci on es debido a que en ingl es n ucleo es kernel. La imagen es el conjunto de los vectores en el codominio que tienen preimagen y el n ucleo es el conjunto de los vectores en el dominio cuya imagen es el vector 0. La imagen y el n ucleo de una TL son subespacios. Prueba. Sean x, y vectores en Im f y K. Por denici on existen a, b tales que f (a) = x, f (b) = y. Como f es lineal tenemos f (a + b) = f (a) + f (b) = x + y y adem as f (a) = f (a) = x. Esto quiere decir que Im f es un subespacio. Sean a, b vectores en ker f y K. Tenemos f (a + b) = f (a) + f (b) = 0 + 0 = 0 y f (a) = f (a) = 0 = 0. Esto quiere decir que ker f es un subespacio.

Secci on 3.6

El n ucleo y la imagen de una TL

83

El n ucleo y la imagen de una TL son subespacios de espacios diferentes. Si f : E F entonces ker f E e Im f F. Solamente en el caso que la TL es un OL o sea, cuando E = F el n ucleo y la imagen son subespacios del mismo espacio. Sin embargo, como veremos m as adelante, en este caso pasan cosas raras ya que, aunque estos subespacios tienen dimensiones complementarias ellos NO siempre son complementarios. Transformaciones lineales con n ucleo trivial Observese que, como para cualquier TL se tiene que f (0) = 0 entonces el vector cero siempre es un elemento del n ucleo. Si el n ucleo solo contiene al vector cero se dice que f tiene n ucleo trivial. Cualquier TL lineal inyectiva tiene n ucleo trivial ya que en este caso la preimagen de cualquier vector es u nica. Lo importante es que el rec proco tambi en es cierto. Una TL es inyectiva si y solo si su n ucleo es trivial. Prueba. Sea f una TL. Sean x,y dos vectores en el dominio de f. Tenemos (f (x) = f (y)) (f (x) f (y) = 0) (f (x y) = 0) (x y ker f) y por lo tanto el que existan dos vectores diferentes cuyas imagenes sean iguales es equivalente a la existencia de un vector no nulo en el n ucleo de la TL. Descomposici on de transformaciones lineales Ahora, demostraremos el resultado prometido al principio de la secci on. Sea f : E F una TL. Sea K un subespacio complementario cualquiera pero jo del ker f. Sea fK la restricci on de f al subespacio K. Denotemos por i : Im f F a la inmersi on del on de E a K subespacio Im f en F. Finalmente, denotemos por K : E K la proyecci a lo largo del ker f. Teorema de Descomposici on de una TL f = i fK K y fK es un isomorsmo. Prueba. Sea x un vector arbitrario en el dominio de f. Por 2.29 (p agina 53) existen unos u nicos vectores a K, b ker f tales que x = a + b. De aqu obtenemos (i fK K ) (x) = i (fK (K (x))) = i (fK (a)) = f (a) = f (a) + f (b) = f (x) y con esto queda probado que f = i fK K . Para probar que fK es un isomorsmo sea f (x) Im f. Por 2.29 existen unos u nicos vectores a K, b ker f tales que x = a + b. Como fK (a) = f (a) = f (a) + f (b) = f (x) entonces fK es sobreyectiva. Si fK (a) = fK (b) entonces, fK (a b) = 0. Como (a b) K ker f entonces, a b = 0 o sea a = b. Luego, fK es inyectiva.

84

Cap tulo 3. Transformaciones lineales


f E F K i K Im f fK

Este teorema lo podemos visualizar m as f acilmente si observamos el diagrama de la derecha. La primera armaci on del Teorema de Descomposici on de una TL lo que dice es que este diagrama es conmutativo. La segunda armaci on nos dice que fK es un isomorsmo de espacios vectoriales. Para cualquier transformaci on lineal f : E F, dim E = dim ker f + dim Im f.

Prueba. Por el teorema anterior Im f es isomorfo a un complementario de ker f. Un criterio de isomorsmo Recordemos un sencillo resultado de teor a de conjuntos: toda funci on inyectiva de un conjunto nito en otro con el mismo n umero de elementos es biyectiva. De hecho, esto lo usamos en el primer cap tulo para probar que Zp es un campo para p primo. El objetivo ahora, es mostrar que exactamente el mismo resultado (simple pero muy u til) se cumple para espacios vectoriales de dimensi on nita. Esto es una consecuencia del Teorema de Descomposici on de una TL (3.26). Sean E y F dos espacios de dimensiones nitas e iguales. Una TL f : E F es inyectiva si y solo si es sobreyectiva.

Prueba. Por 3.27 tenemos dim ker f = dim E dim Im f. Si f es sobreyectiva entonces, F = Im f. Por hip otesis dim F = dim E. De aqu , debido a que todas las dimensiones son nitas, dim ker f = 0 y por lo tanto ker f = {0}. De 3.25 concluimos que f es inyectiva. Si f es inyectiva entonces, la funci on f : E Im f es un isomorsmo y por lo tanto dim E = dim Im f. Por hip otesis dim F = dim E. Como Im f es un subespacio de F entonces, aplicando 2.17 (p agina 42) obtenemos F = Im f. Como consecuencia de este resultado probaremos que para comprobar que dos operadores lineales f y g en un espacio de dimensi on nita son el inverso uno del otro, solo es necesario comprobar una de las dos igualdades g f = I o f g = I. Sean f, g : E E dos OLs de un espacio nito dimensional. Entonces, f g = I si y solo si g f = I. Prueba. La funci on identidad es sobreyectiva. Luego, si f g = I entonces, f es sobreyectiva. Por 3.28 f es inyectiva y por lo tanto tiene inversa f1 . Componiendo con f1 obtenemos f1 f g = f1 I y por lo tanto g = f1 .

Secci on 3.6

El n ucleo y la imagen de una TL

85

Descomposici on can onica de transformaciones lineales Para aplicar el Teorema de Descomposicion de una TL necesitamos escoger (ya que hay muchos) un subespacio complementario K del n ucleo de f. Ya vimos (v ease 2.34) que cualquier tal subespacio es isomorfo al cociente E/ ker f. Queremos substituir K por E/ ker f en el Teorema de Descomposicion de una TL para as obtener otra versi on del mismo que no dependa de escoger nada, o sea que sea can onico. En el Teorema de Descomposicion de una TL est an inf volucradas tres funciones: la proyecci on K (que es sobreE F yectiva), la restricci on fK (que es biyectiva) y la inmersi on i ? i (que es inyectiva). Esta u ltima no depende de K y podemos E/ ker f Im f ? quedarnos con ella. As que todas nuestras incognitas est an representadas en el diagrama de la derecha. Cuales funciones podemos escoger para nuestras incognitas? No tenemos muchas variantes. El espacio cociente E/ ker f est a formado por todos los subespacios anes ker f + x . El espacio Im f est a formado por todas las imagenes x 7 ker f + x f (x). Luego, la u nica posible respuesta a nuestra pregunta son f (x) 7 ker f + x las funciones denidas en el recuadro a la izquierda. La primera de estas funciones tiene dominio E, codominio E/ ker f, se le llama funci on natural y se denota por nat. La funci on natural es una TL ya que nat (x + y) = ker f + x + y = ker f + x + ker f + y = nat (x) + nat (y) nat (x) = ker f + x = ker f + x = (ker f + x) = nat (x) y adem as es evidentemente sobreyectiva. La segunda de estas funciones es nuestra preocupaci on fundamental ya que tenemos que probar que es un isomorsmo. Esta funci on tiene dominio Im f, codominio E/ ker f y la denotaremos por g. La funci on g es una TL ya que g (f (x) + f (y)) = g (f (x + y)) = ker f + x + y = g (f (x)) + g (f (y)) g (f (x)) = g (f (x)) = ker f + x = (ker f + x) = g (f (x)) y es tambi en evidentemente sobreyectiva. Que quiere decir que g es inyectiva? Lo que quiere decir es que si los subespacios anes ker f + x y ker f + y son el mismo entonces, f (x) = f (y). Como para un subespacio af n E paralelo al ker f se cumple que (E = ker f + x) (x E) entonces, la inyectividad de g es equivalente a que la funci on f sea constante en cualquier subespacio af n paralelo al ker f. Los subespacios anes paralelos a ker f son precisamente los conjuntos de vectores en que la funci on f es constante. Prueba. Tenemos (y ker f + x) (a ker f | y = a + x) (f (y x) = 0) (f (y) = f (x)) lo que nos convence de la valid ez del resultado.

86

Cap tulo 3. Transformaciones lineales

Luego, g es un isomorsmo y por lo tanto tiene un isof morsmo inverso que denotaremos por f0 . El isomorsmo f0 E F es el que a un subespacio af n ker f + x le hace corresponder nat i f (x). As completamos nuestro diagrama como en el recua- E/ ker f Im f f0 dro a la derecha. Solo nos falta demostrar que este es conmutativo. Sin embargo esto es muy f acil porque la composici on 0 de funciones i nat f x 7 ker f + x 7 f (x) 7 f (x) es evidentemente igual a la funci on f.

3.7

Trasformaciones semilineales y coalineaciones

Una funci on f : E F de espacios vectoriales sobre K se le llama transformaci on semilineal si existe un automor- f(a + b) = f(a) + f(b) f (a) smo 7 del campo K tal que a, b E y K se f (a) = cumplen las propiedades del recuadro. Observese que las trasformaciones lineales son semilineales usando como automorsmo del campo la funci on identidad. Para construir otras trasformaciones semilineales necesitamos automorsmos del campo que no sean la identidad. El ejemplo m as importante es la conjugaci on a + bi 7 a bi en el campo de los n umeros complejos.

Ejercicio 70 Pruebe que para una transformaci on semilineal no nula f el correspon-

diente automorsmo del campo es u nico. [246] Trasformaciones semilineales reales En el caso del campo de los n umeros reales no hay trasformaciones semilineales que no sean lineales debido al siguiente resultado: El u nico automorsmo de R es la identidad. Prueba. Sea f un automorsmo de R. Supongamos que x > 0 y sea y = x entonces, f (x) = f(y2 ) = f (y)2 > 0. En particular si x = b a > 0 entonces f (b a) = f (b) f (a) > 0. En otras palabras, f es mon otona b > a f (b) > f (a). Como f1 tambi en es un automorsmo entonces, tambien es mon otona. Luego, f conmuta con el supremo y el nmo (v ease el ejercicio 71). Como f (1) = 1 y 1 es generador del grupo aditivo de Z obtenemos que f es la identidad en Z. Como f (a/b) = f (a) /f (b) obtenemos que f es la identidad en Q. Sea x un irracional y denotemos por A el conjunto de todos los racionales menores que x. Sabemos que x = sup A y por lo tanto f (x) = f (sup A) = sup f (A) = sup A = x.

Secci on 3.7 Trasformaciones semilineales y coalineaciones

87

son mon otonas y A R tal que sup A existe. Pruebe que f (sup A) = sup f (A). [246] Ejercicio 72 Sea f 6= I un automorsmo de C. Pruebe que las siguientes armaciones son equivalentes: 1. f es la conjugaci on compleja. 2. f es continua. 3. f es la identidad en R. [246] Propiedades de las transformaciones semilineales Al igual que las TL las transformaciones semilineales preservan subespacios. Toda trasformaci on semilineal transforma subespacios en subespacios. Prueba. Sea f : E F una trasformaci on semilineal y F un subespacio de E. Sean a, b F y K. Tenemos f(a + b) = f(a) + f(b) por lo que f (F) es cerrado para = . Tenemos f (a) = f (a) = f (a) o sea f (E) es la suma. Sea K tal que cerrado para el producto por escalares. Toda trasformaci on semilineal transforma subespacios anes en subespacios anes. Prueba. Sea f : E F una trasformaci on semilineal y F un subespacio de E. Si F + x es un subespacio af n entonces, f (F + x) = f (F) + f (x) que es tambi en un subespacio af n puesto que por el resultado anterior f (F) es un subespacio. Automorsmos semilineales. A diferencia de las TL las transformaciones semilineales no forman un espacio vec son dos automorsmos del campo torial. Esto es debido a que si 7 y 7 e e entonces 7 + no necesariamente es un automorsmo. A las transformaciones semilineales f : E E biyectivas las llamaremos automorsmos semilineales. La composici on de automorsmos semilineales es un automorsmo semilineal.

Ejercicio 71 Sean R un conjunto ordenado, f : R R una biyecci on tal que f y f1

Prueba. Sean f y g dos automorsmos semilineales. De la misma manera que para los operadores lineales se prueba que (f g) (a + b) = (f g) (a) + (f g) (b). Sean y 7 los automorsmos del campo correspondientes a f y g respectivamente. 7 e a = a y la prueba termina al observar que 7 e Tenemos que (f g) (a) = f siendo una composici on de automorsmos del campo es automorsmo del campo.

88

Cap tulo 3. Transformaciones lineales

ci on Kn 3 (x1 , . . . , xn ) 7 (x1 , . . . , xn ) Kn es un automorsmo semilineal. A tales automorsmos semilineales los llamaremos estandar. Pruebe que toda transformaci on n n semilineal de K en K es la composici on de un automorsmo semilineal estandar con una TL. [246]

un automorsmo del campo K. Pruebe que la transformaEjercicio 73 Sea 7

La inversa de un automorsmo semilineal es un automorsmo semilineal.. Prueba. Sea f : E E un automorsmo semilineal. Sean K y x, y E. Sean a, b E tales que f (a) = x , f (b) = y. Tenemos 1 f1 (x + y) = f f (b)) =f1 (f (a + b)) = a + b = f1 (x) + f1 (y) (f(a) + 1 1 f x = f f (a) = f1 (f (a)) = a =f1 (x) 7 es un automorsmo de K. solo queda observar que la funci on Estos dos u ltimos resultados signican que el conjunto de todos los automorsmos semilineales forman un grupo respecto a la composici on de funciones. Coalineaciones Una biyecci on f : E E en un espacio vectorial se le llama coalineaci on si la imagen de cualquier subespacio af n es un subespacio af n y la preimagen de cualquier subespacio af n es un subespacio af n de E. En otras palabras, tanto f como f1 transforman subespacios anes en subespacios anes. Obviamente, si f es una coalineaci on entonces f1 tambi en lo es. El siguiente resultado nos dice que la denici on de coalineaci on es posible hacerla de diversas maneras. Sea f : E F una biyecci on entre dos espacios anes. Entonces, las siguientes armaciones son equivalentes: 1. f y f1 transforman subespacios anes en subespacios anes. 2. f y f1 transforman generadores anes en generadores anes. 3. f y f1 transforman bases anes en bases anes. 4. f y f1 transforman conjuntos AI en conjuntos AI. n. 5. f y f1 conmutan con la cerradura af Prueba. (1 2) Sea A un conjunto generador af n de E y B = f (A). Sea C = f1 [B] que es un subespacio af n por ser la preimagen de un subespacio. Tenemos, B [B] y por lo tanto A = f1 (B) f1 [B] = C. Luego E = [A] C y por lo tanto C = E. De aqu f (E) = [B] y como f es sobreyectiva tenemos que B es generador. Por simetr a, si B es generador entonces f1 (B) tambi en lo es.

Secci on 3.7 Trasformaciones semilineales y coalineaciones

89

(2 3) Sea ahora A una base af n de E y B = f (A). Sabemos que B es generador af n. Si B no fuera AI entonces existir a b tal que B\b es generador y por lo tanto, 1 1 tendr amos que f (B\b) = A\f (b) es generador af n. Esto contradecir a que A es 1 una base af n. Por simetr a, si B es una base af n entonces f (B) tambi en lo es. (3 4) Sea ahora A un conjunto AI. Sea A0 una base af n que lo contiene. Sabemos que f (A0 ) es una base af n. Como f (A) f (A0 ) tenemos que f (A) es AI. Por simetr a, 1 si B es AI entonces f (B) tambi en lo es. (4 1) Sea A una base af n del subespacio af n [A]. Como A es AI entonces B = f (A) tambi en lo es. Si b [A] entonces A b es AD y por lo tanto B f (b) tambi en lo es. Luego, por el corolario ??, tenemos f (b) [B] y por lo tanto f [A] [B]. Si b [B] entonces B b es AD y por lo tanto A f1 (b) tambi en lo es. Luego, por el corolario ??, tenemos f1 (b) [A] y por lo tanto [B] f [A]. Esto signica que f transforma el subespacio [A] en el subespacio [B]. Por simetr a, f1 tambi en transforma subespacios en subespacios. (5 1) Si f [A] = [f (A)] entonces la imagen del subespacio af n [A] es el subespacio af n [f (A)]. O sea, f trasforma subespacios en subespacios. Por simetr a, f1 tambi en transforma subespacios en subespacios. (1 5) Sea f una coalineaci on. Sea A un conjunto de puntos. Como f transforma subespacios anes en subespacios anes la restricci on de f a [A] es una coalineaci on del espacio an [A] en el espacio an f [A]. Como esta restricci on transforma generadores en generadores tenemos que f (A) es generador de f [A]. Luego f [A] = [f (A)]. Para ver de que f1 conmuta con la cerradura af n usamos que f1 es una coalineaci on.

Ejercicio 74 Sea A un conjunto con un operador de cerradura y f : A A una biyecci on. Si f y f1 conmutan con el operador de cerradura entonces f es una isoton a del conjunto ordenado de cerrados.
Estructura de las coalineaciones La composici on de coalineaciones de un espacio af n es una coalineaci on. Lo mismo sucede con la inversa de una coalineaci on. Luego el conjunto de todas las coalineaciones de un espacio af n F es un grupo respecto a la composici on de funciones. Si dim E = 1 entonces cualquier biyecci on de E en E es una coalineaci on ya que en este caso todos los subespacios anes son puntos y la condici on de preservar puntos no es ninguna restricci on. Un importante subgrupo de colineaciones son las traslaciones o sea, las funciones de la forma ta : F 3 x 7 x + a F y de estas hay una para cada vector a en el espacio vectorial F. Como ta tb = ta+b observamos que el subgrupo de traslaciones es isomorfo al grupo aditivo del espacio vectorial F. on x 7 x + a. Sea f una coalineaci on en E. Denotemos a = f (0) y ta la traslaci Observemos que la coalineaci on f0 = ta f es tal que f0 (0) = 0. Luego, cualquier

90

Cap tulo 3. Transformaciones lineales

coalineaci on es la composici on f = ta f0 de una coalineaci on que preserva 0 seguida de una traslaci on. Si f es un automorsmo semilineal entonces f transforma subespacios anes en subespacios anes y por lo tanto es una coalineaci on que preserva 0. Ahora, comenzaremos a probar el resultado principal de esta secci on: que en dimensi on al menos 2 toda coalineaci on que preserva 0 es semilineal. En todo lo que sigue, E es un espacio vectorial de dimensi on al menos 2 sobre el campo K. Toda coalineacion en E preserva el paralelismo de rectas. Prueba. Sea f una coalineaci on y `, `0 dos rectas paralelas diferentes. Como f es un automorsmo del conjunto ordenado de subespacios anes dim [` `0 ] = dim f [` `0 ] = dim [f (`) f (`0 )] y por lo tanto f (`) y f (`0 ) son coplanares. Tambi en dim [` `0 ] = dim f [` `0 ] = dim [f (`) f (`0 )] y por lo tanto f (`) y f (`0 ) no se intersectan. Toda coalineacion en E que preserva 0 es un automorsmo del grupo aditivo de vectores. Prueba. Sea f una coalineaci on de E que preserva 0. Recordemos que para cualquier vector x el subespacio hxi es la recta por el origen que pasa por x. Y como f preserva 0 tenemos f hxi = hf (x)i o sea, f tambi en conmuta con la cerradura lineal. Sean a, b E dos vectores. Tenemos que probar que f (a + b) = f (a) + f (b). Esto es trivial si {a, b} contiene a 0 por lo que podemos suponer que a 6= 0 y b 6= 0. Supongamos primero que {a, b} es LI. Por la regla del paralelogramo sabemos que a + b = (hai + b) (hbi + a) , f (a) + f (b) = (hf (a)i + f (b)) (hf (b)i + f (a)) . Como f preserva el paralelismo f (hai + b) es una recta paralela a f (hai) = hf (a)i que pasa por f (b) , o sea f (hai + b) = hf (a)i + f (b). An alogamente, f (hbi + a) = hf (b)i + f (a). Como f conmuta con la intersecci on (el nmo) tenemos f (a + b) = f (hai + b)f (hbi + a) = (hf (a)i + f (b))(hf (b)i + f (a)) = f (a)+f (b) y esto concluye el caso de que {a, b} es LI. Es claro que si {a, b} es LI entonces, tambi en lo es {a b, b} y por lo tanto f (a) = f (a b + b) = f (a b) + f (b) . Luego, si {a, b} es LI entonces, f (a b) = f (a) f (b). Supongamos que {a, b} es LD. Entonces, hai = hbi. Como dim E > 1 existe c / hai tal que los conjuntos {a, c}, {b, c} son LI. Si b 6= a entonces, {a + c, b c} es LI y por el caso anterior tenemos que f (a + b) = f (a + c + b c) = f (a + c) + f (b c) = f (a) + f (b)

Secci on 3.7 Trasformaciones semilineales y coalineaciones

91

y en particular cuando b = a obtenemos f (2a) = 2f (a). Si b = a entonces, {a + c, b + c} es LI y tenemos que 2f (c) = f (2c) = f (a + c + b + c) = f (a + c) + f (b + c) = f (a) + f (b) + 2f (c) y por lo tanto f (a) + f (b) = 0 = f (0) = f (a + b).

Ejercicio 75 Complete la demostraci on del resultado anterior mostrando que si {a, c} es LI, b = a y 6= 1 entonces {a + c, b c} es un conjunto LI. [246]
Si f es una coalineaci on en E que preserva 0 entonces, existe un automor del campo K tal que f (a) = f (a) para todo vector a E. smo 7

Prueba. Sea a E\0. Como f preserva 0 tenemos que f (hai) = hf (a)i. Sabemos que a hai y por lo tanto f (a) hf (a)i. Como en hf (a)i est an precisamente los m ultiplos de f (a) existe un escalar que denotaremos a tal que f (a) = a f (a). De esta manera est a denida una funci on K 3 7 a K que es biyectiva pues f es una biyecci on de hai en hf (a)i. Queremos probar que a no depende de a. O sea que para cualesquiera a, b E\0 tenemos que a = b . Supongamos que {a, b} es LI. Usando 3.38 obtenemos que a f (a) + b f (b) = f (a) + f (b) = f (a + b) = = f ( (a + b)) = a+b f (a + b) = a+b f (a) + a+b f (b) y como {f (a) , f (b)} es LI obtenemos a = a+b = b . Supongamos que {a, b} es LD entonces, como dim E > 1 existe c tal que {a, c} y {c, b} son dos conjuntos LI. Por el caso anterior a = c = b . = a . Sabemos que para cualquier vector Como a no depende de a denotaremos f (a). Solo falta ver que 7 es un automorsmo de K. a E tenemos f (a) = Sea a un vector no nulo. Usando 3.38 obtenemos que f (a) + ( + )f (a) = f (( + ) a) = f (a + a) = f (a) + f (a) = f (a) f (a) = ()f (a) = f (a) = y = . + y como f (a) es no nulo obtenemos + = Resumiendo los dos u ltimos resultados obtenemos: Caracterizaci on de las coalineaciones Si dim E 2 entonces, cualquier coalineaci on en E que preseva 0 es un automorsmo semilineal. Combinando esto con 3.31 vemos que el caso de los reales es m as sencillo.

92

Cap tulo 3. Transformaciones lineales


Toda coalineaci on en un espacio vectorial real de dimensi on dos o m as es un automorsmo lineal seguido por una traslaci on.

Captulo cuarto

Determinantes
os determinantes son una funci on que a cada matriz cuadrada le hace corresponder un elemento del campo. Todo lo que se digamos acerca de la importancia de los determinantes en las matem aticas es poco. Este es uno de los conceptos sin los cuales realmente no se puede entender nada en las matem aticas superiores. En este cap tulo daremos la denici on de los determinantes, estudiaremos sus propiedades, m etodos de c alculo y seremos capaces, gracias a ellos, de resolver los sistemas de ecuaciones lineales de forma general.

4.1

Permutaciones

La denici on de determinante de una matriz pasa inevitablemente por la denici on del signo de una permutaci on. El lector debe entender bien esta secci on para poder pasar al estudio de los determinantes. El grupo sim etrico Sea N un conjunto nito. Una permutaci on de N es una biyecci on de N en N. on Al conjunto de todas las permutaciones de N lo denotaremos por SN . La composici de biyecciones es una biyecci on y toda biyecci on tiene inversa, por lo tanto, SN es un grupo respecto a la composici on. Al grupo (SN , ) se le llama el grupo sim etrico de N. Denotaremos por IN a la funci on identidad que es el neutro de SN . Es importante recordar nuestra notaci on de la composici on ( ) (a) = ( (a)) ya que la composici on no es conmutativa. Si |M| = |N| entonces los grupos SM y SN son isomorfos. Prueba. Sean M y N son dos conjuntos del mismo cardinal. Si : M N es una biyecci on entonces j andonos en el diagrama conmutativo del recuadro a la derecha obtenemos una funci on : SM 3 7 1 SN . Observemos, que tiene inversa SN 3 7 1 SM . M N M 1 N

94

Cap tulo 4. Determinantes

Adem as, () = 1 = 1 1 = () () y por lo tanto, es un isomorsmo de los grupos SM y SN . El lector debe interpretar este resultado como que, en el grupo SM podemos cambiarle el nombre a los elementos de M mediante la biyecci on : M N y obteniendo el grupo SN . En particular, el n umero de elementos de SN solo depende del n umero de elementos en N. El n umero de permutaciones de un conjunto con n elementos es n!. Prueba. Para la prueba es m as claro encontrar (n) el n umero de biyecciones f : M N donde |M| = |N| = n. Si n = 1 entonces (n) = 1 = 1!. Hagamos inducci on en n. Si i M entonces, el conjunto de biyecciones lo podemos partir en n partes disjuntas seg un cual sea j = f (i). Cada parte tiene tantos elementos como biyecciones f : M\i N\j y por hip otesis de inducci on este n umero es (n 1) !. Luego, (n) = n (n 1) ! = n!. Ejemplo. Supongamos que N = {1, 2, 3}. El permutaciones y estas son las siguientes: 1 7 2 1 7 1 1 7 1 I = 2 7 2 , = 2 7 3 , = 2 7 1 , = 3 7 3 3 7 2 3 7 3 I I I I I resultado anterior nos dice que hay 6 1 7 3 1 7 3 1 7 2 7 2 , 7 1 , = 2 2 7 3 , = 2 3 7 1 3 7 2 3 7 1

Ciclos y orbitas

La permutaci on I es la funci on identidad que es el neutro para la composici on. Haciendo unos pocos c alculos obtenemos que la tabla de composici on de estas permutaciones es la del recuadro. Observese que en cada rengl on y columna todas las entradas son diferentes. Esta propiedad se cumple para la tabla de la operaci on de cualquier grupo ya que no es nada m as que el reejo de que (a b = a c) (b = c).

Sea M = {x0 , . . . , xn 1 } N. A la permutaxi+1 mod n si y = xi ci on mostrada en el recuadro a la derecha se le (y) = y si y /M llama ciclo de orden n. A esta permutaci on se le denotar a por (x0 , . . . , xn1 ). Dos ciclos (x0 , . . . , xn 1 ) y (y0 , . . . , ym 1 ) se les llama disjuntos si ning un xi es igual a alg un yj . Es importante notar que la composici on de ciclos disjuntos es conmutativa (pru ebelo!) pero la composici on de ciclos en general no lo es. Tambi en debemos notar que debido a las propiedades de la funci on mod n se tiene que (a, . . . , b, c) es la misma permutaci on que (c, a, . . . , b) , o sea, siempre podemos escoger el principio del ciclo.

Secci on 4.1

Permutaciones

95

Sea SN una permutaci on. La relaci on en N denida n por n Z tal que a = (b) es de equivalencia. Prueba. Tenemos a = 1 (a) y por lo tanto es reexiva. Si a = n (b) y b = m (c) entonces a = n +m (c) y por lo tanto es transitiva. Si a = n (b) entonces, b = n (a) por lo que la relaci on es sim etrica. A las clases de equivalencia de esta relaci on se le llaman orbitas de la permutaci on. La restricci on de una permutaci on a una o rbita es un ciclo. Prueba. Supongamos que M es una orbita. Sea a M. Tenemos M = {n (a) | n Z}. El conjunto M no puede ser innito por lo que existe un natural p m as peque no tal que p (b) ya apareci o antes en la sucesi on a, (a) , . . .. Observemos que p (a) = a porque si no, habr a un n umero k mayor que cero y menor que p tal que p (a) = k (a) k o sea, (a) tendr a dos preimagenes diferentes k1 (a) 6= p1 (a) y esto no puede ser ya que es una biyecci on. Dividiendo con resto cualquier p n entre entero n r kp r tenemos que n = kp + r con 0 r < p. Luego, (a) = (a) = (a) n y Z on de a M es el ciclo M = { (a)p|n p }. Esto quiere decir que la restricci 1 a, (a) , . . . , (a) . Toda permutaci on es composici on de ciclos disjuntos. Prueba. Solo tenemos que tomar los ciclos correspondientes a todas las o rbitas y componerlos en cualquier orden. Observese que la descomposici on en ciclos disjuntos de una permutaci on es u nica salvo el orden de la composici on. Ejemplo. Sea = (1, 2, 3, 4) (4, 5) (2, 6, 3). Estos ciclos no son disjuntos y la permutaci on es la siguiente 1 7 2 , 2 7 6 , 3 7 3 , 4 7 5 , 5 7 1 , 6 7 4 Luego, la descomposici on en ciclos disjuntos es = (1, 2, 6, 4, 5) (3).

Ejercicio 76 Tome una permutaci on y descomp ongala en composici on de ciclos disjuntos. Repita el ejercicio hasta que entienda bien los conceptos de orbita y de descomposici on en ciclos disjuntos. Ejercicio 77 Cuantas orbitas tiene un ciclo? Cuantas orbitas tiene la identidad? Si tiene k orbitas, cuantas orbitas tiene 1 ?

96 El grupo alternante

Cap tulo 4. Determinantes

Una permutaci on se le llama par si en su descomposici on en ciclos disjuntos hay un n umero par de ciclos de orden par. En otro caso se le llama impar. En particular, los ciclos pares son los de orden impar. A los ciclos de orden 2 se les llama transposiciones. Las transposiciones son impares. La inversa de cualquier transposici on es ella misma. Al componer una permutaci on con una transposici on la paridad de la permutaci on cambia. Prueba. Sea una permutaci on y = (a, b) una transposici on. Distingamos dos casos: que a y b est an en una misma o rbita de o que no. Si est an en la misma o rbita M entonces escogiendo el principio del ciclo en M y renumerando los elementos de N podemos lograr que = (1, k) con k > 1 y que la restricci on de a M es (1, 2, . . . , n) con n k. Como ( (k 1)) = 1 y ( (n)) = k, obtenemos (1, k) (1, 2, . . . n) = (1, . . . , k 1) (k, . . . , n) .

Si n es par entonces, k 1 y n k + 1 tienen la misma paridad por lo que la paridad de cambia. Si n es impar entonces k 1 y n k + 1 tienen diferente paridad por lo que la paridad de cambia. Si est an en diferentes o rbitas M1 y M2 entonces escogiendo los principios de los ciclos en M1 , M2 y renumerando los elementos de N podemos lograr que = (1, k) con k > 1 y que la restricci on de a M1 es (1, . . . , k 1) y la restricci on de a M2 es (k, . . . , n). Como ( (k 1)) = k y ( (n)) = 1, obtenemos que (1, k) (1, . . . , k 1) (k, . . . , n) = (1, 2, . . . n) y ya vimos que (1, . . . , k 1) (k, . . . , n) tiene paridad diferente que (1, 2, . . . n). Con esto hemos demostrado que la paridad de es diferente a la de . La demostraci on de que a paridad de es diferente a la de es an aloga. Toda permutaci on es composici on de transposiciones. Prueba. Se comprueba f acilmente que (x0 , . . . , xn 1 ) = (xn 1 , x0 ) . . . (x2 , x0 ) (x1 , x0 ) y esto prueba que todo ciclo se descompone en composici on de transposiciones. La prueba se completa porque toda permutaci on es composici on de ciclos. Una permutaci on es par si y solo si es composici on de un n umero par de transposiciones. Prueba. Las transposiciones son impares. Aplicando repetitamente 4.6 obtenemos que las composiciones de un n umero par de transposiciones son pares y las composiciones

Secci on 4.2

Determinantes. Propiedades b asicas

97

de un n umero impar de transposiciones es impar. La prueba se completa con 4.7. Hay muchas descomposiciones de una misma permutaci on en composici on de transposiciones. El resultado anterior nos garantiza que en dos diferentes descomposiciones la paridad del n umero de transposiciones es la misma. Al conjunto de todas las permutaciones pares de N se le denotar a por AN . La composici on de dos permutaciones pares es par y la inversa de una permutaci on par es tambi en par. Luego AN es un grupo para la composici on y se le llama grupo alternante. Al conjunto de las permutaciones impares lo denotaremos por A N . Observese que AN y A tienen la misma cantidad de permutaciones e igual a n ! /2 ya que el N componer con una transposici on ja es una biyecci on entre AN y AN . El signo de una permutaci on En todo campo K hay dos elementos notables, 1 y 1. El primero es el neutro para el producto y el segundo es el opuesto para la suma del primero. Observese que estos dos elementos son diferentes si y solo si la caracter stica del campo es diferente de 2. El signo de una permutaci on es la funci on sgn : SN K que es 1 si la permutaci on es par y es 1 si la permutaci on es impar. sgn ( ) = sgn sgn sgn 1 = sgn Prueba. La composici on de dos permutaciones de la misma paridad es una permutaci on par. La composici on de dos permutaciones de diferente paridad es impar. Las orbitas de una permutaci on no cambian al tomar la inversa. La funci on sgn jugar a un papel vital en todo lo que sigue. En particular, en la denici on de determinante de una matriz los signos de los sumandos est an denidos precisamente mediante la funci on sgn. Por esto, el lector debe familiarizarse muy bien con la denici on de esta funci on y sus propiedades.
El resultado 4.9 lo que quiere decir es que la funci on sgn : SN K es un morsmo del grupo SN al grupo multiplicativo del campo. Su im agen es {1, 1} y su n ucleo es AN si el campo es de caracter stica diferente de dos.

4.2

Determinantes. Propiedades b asicas


x= db ac y=

Resolvamos el sistema de ecuaciones lineales de la izquierda. Denotemos = ad bc. Despejando x en la primera ecuaci on y substituyendo en la segunda obtenemos y. Substituyendo este y en alguna de las ecuaciones obtendremos x. Esta soluci on es la del recuadro a la derecha. ax + by = 1 cx + dy = 1

98 y

Cap tulo 4. Determinantes

Sean ahora u = (a, b) y v = (c, d) dos vectores en el plano R2 u + v como se muestra en la gura a la izquierda. Estos dos vectov ertices son 0, u, u + v, v. q res denen un paralelogramo cuyos v R2 Queremos calcular el area de este paralelogramo. Para esto, sea q el punto de intersecci on de la recta u, u + v con la recta u on 0 p x paralela al eje x que pasa por v. Sea p el punto de intersecci de la recta u, u + v con el eje x. Es f acil ver que el tri angulo v, q, u + v es igual al tri angulo 0, p, u. Luego, el paralelogramo 0, u, u + v, v tiene area igual a la del paralelogramo 0, v, q, p. En la gura a la dereR2 q cha los tri angulos p, a, u y 0, v,d tienen dos a ngulos iguales y v o sea son congruentes. Por el Teorema de Tales tenemos que d (b (a p) = d c) (pd = ad cb) . u Sabemos que, pd es el area (base por altura) del paralelo- b gramo 0, v, q, p. Luego, hemos demostrado que el area del 0 c pa x paralelogramo 0, u, u + v, v es igual a = ad bc. Estos dos ejemplos nos dan una idea de la importancia del n umero = ad bc para la soluci on de sistemas de dos ecuaciones lineales y para el c alculo de areas en R2 . Los determinantes son la generalizaci on de este n umero a dimensiones arbitrarias. Denici on de los determinantes Sea N un conjunto nito. Recordemos que SN es el conjunto de todas las las permutaciones de N. Si SN e i N entonces, denotaremos por i la imagen de i por la permutaci on , o sea i es una forma corta de escribir (i). El determinante de una matriz NN es por deX Y nici on el elemento del campo denido por la f ormula det NN = sgn ii en el recuadro de la derecha. A esta f ormula se la co SN iN noce como f ormula de Leibniz. En los cap tulos anteriores ya acostumbramos al lector a las sumatorias en las cuales el conjunto de ndices es un conjunto de vectores. A partir de ahora, el lector deber a acostumbrarse a usar sumatorias en las cuales el conjunto de ndices es un conjunto de permutaciones. Es oportuno enfatizar que el orden en que se efect ue la suma no es relevante ya que la suma en cualquier campo es conmutativa Recalquemos que el determinante de una matriz est a denido solo cuando los conjuntos de ndices de renglones y columnas coinciden y son nitos. Por este motivo en este cap tulo todos los espacios ser an de dimensi on nita y todos los conjuntos de ndices ser an nitos.

el conjunto de las permutaciones pares y A N el de las impares?.

Ejercicio 78 Como se reescribir a la denici on de determinante usando que AN es

Secci on 4.2

Determinantes. Propiedades b asicas

99

Determinantes de matrices peque nas Interpretemos esta denici on para conjuntos N con pocos elementos. Si |N| = 1 entonces la matriz NN consta de una sola entrada y su determinante es esta entrada. Si, digamos N = {1, 2} entonces tenemos 2 permutaciones de N que 11 12 son I y (1, 2). A la primera le corresponde el sumando 11 12 y a 21 22 + la segunda el sumando 12 21 . Gr acamente, cuando N = {1, 2} el determinante es la suma de los dos productos que se muestran en el recuadro. Pongamos ahora N = {1, 2, 3}. Hay 6 permutaciones de N y estas son I, (1, 2, 3), (1, 3, 2), (2, 3), (1, 2) y (1, 3). Las tres primeras son de signo positivo y se corresponden con los tres sumandos 11 22 33 , 12 23 31 y 13 21 32 . Gr aca- 11 12 13 mente, estos tres sumandos se pueden representar por la diagonal 21 22 23 principal de la matriz y los dos tri angulos con lados paralelos 31 32 33 a esta diagonal como se muestra en el recuadro de la derecha. Las otras tres permutaciones tienen signo negativo y se corresponden con los suman dos 11 23 32 , 12 21 33 y 13 22 31 . Gr acamente, estos 11 12 13 tres sumandos se pueden representar por la diagonal alterna de la 21 22 23 matriz y los dos tri angulos con lados paralelos a esta diagonal 31 32 33 como se muestra en el recuadro de la izquierda. El n umero de sumandos en la denici on del determinante es |SN | = |N| !. Este n umero crece r apidamente con |N| como se ve en la siguiente tabla 5 6 7 8 9 10 n 1 2 3 4 0 n! 1 2 6 24 120 720 5, 040 40, 320 362, 880 3 628, 800 Por esto, calcular determinantes con directamente de la denici on es muy ineciente. El determinante de la identidad Ya vimos que el conjunto de matrices NN es un algebra respecto al producto y suma de matrices y multiplicaci on por elementos del campo. El elemento neutro para el producto lo llamamos matriz identidad, denotamos INN y 1 si i = j es la matriz cuyas entradas son iguales al delta de Kronecker ij = 0 si i 6= j ij denido en el recuadro a la derecha. Cuando el conjunto de ndices est a ordenado, la matriz identidad se puede representar gr aca1 0 mente como una que tiene unos en la diagonal y ceros en todas las dem as 0 1 entradas como se muestra en el recuadro a la izquierda para una matriz de dos renglones y columnas. El determinante de la matriz identidad es 1. det INN = 1

Prueba. Si la permutaci on SN no es la identidad entonces hay un i N tal que

100 i 6= i y por lo tanto Q

Cap tulo 4. Determinantes


det INN = ii iNX
SN

= 0. Luego, Y Y sgn ii = sgn (IN ) ii = 1.


iN iN

Matrices con las nulas

Si una matriz tiene una columna o un rengl on nulo entonces, su determinante es cero. Q Prueba. Cada sumando de los determinantes iN ii contiene como factor una entrada de cada rengl on. Si un rengl on es nulo entonces, todos estos sumandos tienen un factor cero y por lo tanto la suma de todos ellos es cero. Lo mismo ocurre con las columnas. El determinante de la transpuesta Dada una matriz MN su transpuesta se dene como la matriz NM = T aca11 12 MN tal que ij = ji . Gr mente la operaci on de transponer una matriz es hacer 21 22 una reexi on con respecto a la diagonal de la matriz. 31 32 Observese que el conjunto de ndices de los renglones 41 42 T de la matriz NM es M y no N como se podr a pensar de los sub ndices. La notaci on es as porque pensamos la transpuesta como la aplicaci on de la operaci on de transposici on. El determinante no se altera al transponer una matriz. 14 24 34 44

13 23 33 43

det A = det AT

Prueba. Tenemos que demostrar que det NN = det T NN . Efectivamente, por la denici on X X Y Y cambio de variable T det NN = = sgn i i = sgn 1 (i)i = 1 = S S i N i N N N X Y cambio de variable = sgn j j = det NN . = j = 1 (i)
SN jN

El determinante del producto La siguiente propiedad b asica de los determinantes es probablemente la m as importante para el algebra lineal. Como la demostraci on de esta propiedad es laboriosa, le recomiendo al lector omitirla en una primera lectura. La complejidad de esta demostraci on es el precio que tenemos que pagar por dar una denici on directa del determinante.

Secci on 4.2

Determinantes. Propiedades b asicas

101

Teorema del determinante del producto El determinante del producto de dos matrices es igual al producto de los determinantes de las dos matrices. det AB = det A det B

Prueba. Sean A = NN y B = NN . Para el objeto de esta demostraci on denotemos por FN el conjunto de todas las funciones de N en N. Claramente SN FN . Sea, def adem as, TN = FN \ SN el conjunto de todas las funciones no biyectivas de N en N. Por la denici on de determinante y de producto de matrices tenemos X YX det AB = sgn ij ji y usando la f ormula det AB = X Q
iN

sgn

O sea, para completar la demostraci on tenemos que probar que = 0. Para esto

Denotando por el primer sumando nuestro determinante se convierte en X Y X cambio de variable sgn i i i i = = =+ = SN SN iN Y Y X X cambio de var = sgn ( ) i i j ( j ) = =+ k = j SN SN iN jN ! ! X Y Y X sgn i i sgn kk = + det A det B =+
SN iN SN k N

SN

TN iN

X Y

jN ij =

SN

i i i i +

FN

iN Q

jN

iN

i i (Sec. 1.6, p ag. 22) obtenemos sgn X Y i i i i

SN

SN iN

recordemos que AN es el subgrupo de las permutaciones pares e A N es el conjunto de todas las permutaciones impares. Si observamos detenidamente la denici on de X X Y = sgn i i i i
TN SN iN

Esto nos garantizar a que cada sumando positivo se cancele con otro negativo. Sea TN arbitraria pero ja. Como no es una biyecci on existen j, k N tales que (j) = (k) . Sea t AN la transposici on que intercambia j y k. Sea on f es biyectiva ya que su inversa es 7 t. f : AN 3 7 t AN . La funci Adem a s, tenemos Y Y Y i i i (t)i = j j j k k k k j i i i i = i i i i donde la u ltima igualdad es v alida porque j = k .
iN iN \{j,k } iN

vemos que para probar = 0 es suciente construir para cada TN una biyecci on f : AN A tal que si = f ( ) entonces, N Y Y i i i i = i i i i
iN iN

102

Cap tulo 4. Determinantes

Matrices con las iguales

Si una matriz tiene dos columnas o dos renglones iguales entonces su determinante es cero. Prueba. Supongamos que para NN se tiene que jM = kM o sea, las columnas j y k son iguales. Todo sumando del determinante depende exactamente de una entrada en la columna j y de otra en la columna j. Luego, podemos X Y escribir det NN = jj kk sgn ii . Denotemos la transposici on (j, k). La funci on : SN 3 7 SN es una biyecci on y el sumando correspondiente a es igual a Y jk kj sgn ( ) ii
iN \{j,k } SN iN \{j,k }

pero como jM = kM entonces, jk kj sgn ( ) = jj kk sgn . Esto signica que es una biyecci on que transforma a un sumando en su negativo y por lo tanto det NN = 0. La prueba para los renglones se obtiene transponiendo la matriz. Matrices de permutaciones Sean M y N dos conjuntos nitos y : M N una 1 si j = (i) biyecci on. Denotaremos por MN a la matriz cuyas en- ij = 0 en otro caso tradas est an denidas como en el recuadro. A esta matriz la llamaremos matriz de la biyecci on . Como es una biyecci on entonces la matriz MN tiene la misma cantidad de renglones y de columnas. Adem as, en cada columna as son cero. y cada rengl on de MN hay exactamente una entrada igual a 1 y las dem Haremos un buen uso de las matrices de biyecciones en la pr oxima secci on. Aqu estaremos interesados solo en el caso particular cuando N = M, o sea, que es una permutaci on. En este caso a NN se le llama matriz de la permutaci on . Si y son dos permutaciones de N entonces, el producto NN NN de las matrices de permutaciones es la matriz de la permutaci on . Prueba. Denotemos NN = NN NN . Tenemos que X 1 si j = ( (i)) ij = ik kj = (i)j = 0 en otro caso
k N def

y esta es la denicion de la matriz de la permutaci on = NN NN . El resultado anterior se puede escribir de forma corta como NN NN = ( )NN . 1 Qu e querr a decir NN ? Hay dos formas de interpretarlo y en el siguiente resultado se demuestra que ambas producen la misma matriz.

Secci on 4.2

Determinantes. Propiedades b asicas

103

La matriz de la inversa de una permutaci on es igual a la inversa de la matriz de la permutaci on.

1 NN = (NN )1

Prueba. Sea una permutacion de 1 . Por 4.15 1 NN su matriz y NN la matriz 1 tenemos que NN NN = NN = INN . O sea, NN = (NN ) .

Ejercicio 79 Cual es la TL de la matriz de una permutaci on? Que tienen que ver 4.15 y 4.16 con que la correspondencia entre matrices y TL es un morsmo de a lgebras? Ejercicio 80 Demuestre que la transpuesta de la matriz de la permutaci on es la matriz de la permutaci on 1 . Ejercicio 81 Pruebe que (AB)T = BT AT y AT 1 = A1 T .
El determinante de la matriz de una permutaci on es igual al signo de la permutaci on. det NN = sgn

su matriz. on tenemos que Prueba. Sea una permutaci on y NN X Y Por denici det NN = sgn ii . Por otro lado, por denici on de NN tenemos que Y 1 si = . ii = 0 en otro caso Usando estas dos igualdades obtenemos la prueba. Permutaciones de columnas y renglones Bueno, y qu e pasa si multiplicamos una matriz arbitraria por una matriz de permutaciones? Sea MN cualquier matriz y NN la matriz de la permutaci on . El resultado del producto MN NN es la matriz MN a la que se le han permutado las columnas usando la permutaci on . Prueba. Sea MN = MN NN . Tenemos X ij = ik kj = i 1 (j)
k N iN SN iN

y por lo tanto Mj = M 1 (j) o lo que es lo mismo M (j) = Mj . M as descriptivamente, ndice (j) en la matriz MN . la columna j de la matriz MN tiene

104 11 21 31 41

Cap tulo 4. Determinantes


12 22 32 42 13 23 33 43 En este recuadro se ilustra gracamente que es lo que pasa cuando se permuta una matriz gen erica de 4 renglones y 14 columnas usando la permutaci on 1 7 2 7 4 7 1. Los 24 principios de las echas marcan las columnas que se mover an 34 y los nales de las echas marcan el lugar donde quedar an 44 las columnas.

Al permutar las columnas de una matriz con la permutaci on , el determinante se multiplica por un factor igual a sgn . Prueba. Al permutar la columnas lo que estamos haciendo es multiplicar la matriz por la matriz de . Por 4.17 el determinante de la matriz de es igual al signo de . Usando el Teorema del determinante del producto concluimos la demostraci on. Qu e pasa con los renglones? Pues lo mismo, solo hay que multiplicar por el otro lado. El lector puede modicar los razonamientos anteriores para el caso de los renglones. Tambi en puede tomar la via r apida: permutar los renglones de una matriz es lo mismo T = T que permutar las columnas de la transpuesta y entonces T MM MN = MN MM 1 MM MN (v eanse los ejercicios 80 y 81). Esto quiere decir que si multiplicamos por 1 la izquierda con la matriz de permutaciones MM entonces los renglones se permutan mediante la permutaci on y el determinante cambia igual (ya que sgn = sgn 1 ).

4.3

Expansi on de Laplace

En esta secci on encontraremos una descomposici on de los determinantes como una combinaci on lineal de determinantes de matrices m as peque nas. Despu es veremos importantes consecuencias de esta expansi on, en particular que una matriz tiene inversa si y solo si esta tiene determinante diferente de cero. Cambios de ndices Sea MN una matriz y : N L una biyecci on. Sea NL la matriz de la biyecci on ormula ML = (v ease la p agina 102). Podemos construir una matriz ML por la f MN NL . A esta operaci on la llamaremos cambio de ndices de las columnas de on . De la misma manera se denen los cambios la matriz MN mediante la biyecci de ndices de los renglones. Observese que las permutaciones de las columnas y los renglones son un caso particular de los cambios de ndices cuando N = L. Si N 6= L entonces, podemos pensar que hacer un cambio de ndices de las columnas es darle nuevos nombres a estas. Una matriz cuadrada es una matriz cuyas cantidades de renglones y columnas coinciden. A este n umero com un se le llama orden de la matriz. Necesitaremos los cambios de ndices para denir los determinantes de las matrices cuadradas. As , si

Secci on 4.3

Expansi on de Laplace

105

: N M es una biyecci on entonces, podr amos denir det MN = det MN NM . El u nico pero es que, en principio, esta denici on no solo depende de la matriz NM sino tambi en de la biyecci on . El cuanto depende esta denici on de lo responde la siguiente proposici on. Si y son dos biyecciones de N en M enton1 ces, det MN NM = sgn det MN NM . Prueba. Usando Teorema del determinante del producto (4.13) obtenemos que 1 1 det MN NM = det MN NM NM NM = det MN NM det NM NM Ahora, observese que 1 es una permutaci on de M y que la matriz deesta per 1 mutaci on es NM NM cuyo determinante es igual (por 4.17) a sgn 1 .

No podemos poner la conclusi on de este resultado como sgn det M (N ) = sgn det M (N ) ya que como y son biyecciones de N en M ninguna de las dos tiene signo.

Como el signo de cualquier permutaci on es o 1 o 1 esto quiere decir que el determinante det NM est a denido salvo signo o sea, que hay un elemento a K tal que el determinante es a o es a. En un campo de caracter stica dos esto es irrelevante ya que en este caso 1 = 1. Sin embargo en los casos m as importantes (R y C) de que el campo sea de caracter stica diferente de dos tenemos una ambig uedad al denir el determinante det NM . Esta ambig uedad se resuelve en diferentes casos de varias maneras. En muchos casos no nos interesa el valor concreto det MN sino solamente saber si es cierto o no que det MN = 0. Si este es el caso entonces, en realidad no nos importa que biyecci on se escogi o para calcular el determinante. Por ejemplo, una matriz cuadrada MN se le llama singular si det MN = 0, en el caso contrario se le llama no singular. Es claro, que el ser singular o no singular NO depende de la biyecci on escogida para denir det MN . Otro ejemplo, es que si una matriz tiene una columna o rengl on nulo entonces su determinante es cero. En otros casos lo importante no es el valor de alg un determinante sino una igualdad entre estos. Al cambiar los ndices en ambos lados de la igualdad los determinantes cambian en el mismo signo y la igualdad es cierta independientemente de los cambios de ndices escogidos. Por ejemplo, las igualdades det MN = det T MN y det (LM MN ) = alidas independientemente de los cambios de ndices usados para det LM det MN son v denir los determinantes. En otros casos hay una biyecci on natural que nos dice cual debe ser el valor de det MN . Esto sucede por ejemplo si los conjuntos N y M son conjuntos de naturales. En este caso podemos siempre escoger la u nica biyecci on que conserva el orden. Por ejemplo si N = {2, 3, 7} y M = {1, 4, 5} entonces la biyecci on es 2 1, 3 4, 7 5.

106

Cap tulo 4. Determinantes


Y por que no escoger de los dos posibles valores el que sea mayor que cero? Primero, a veces se necesita el valor del signo del determinante y segundo qu e quiere decir que 0 < x Z5 ? La desigualdad 0 < x solo tiene sentido si el campo est a ordenado. Este es el caso de R pero no el de Zp ni el de C.

En muchos de los textos de algebra lineal esta ambig uedad se resuelve postulando que los conjuntos de ndices siempre tienen que ser conjuntos de naturales. Esto no solamente es innecesario, sino que tambi en hace la exposici on m as compleja y conceptualmente menos clara. Por ejemplo, las matrices de cambio de base est an naturalmente indexadas por conjuntos de vectores que no poseen un orden natural.

Complementos algebraicos Estos razonamientos nos interesan ahora por el siguiente caso particular en el cual todo es m as f acil. Sea NN una matriz y sean i, j N. La matriz N \i N \j se obtiene de la matriz NN eliminando el rengl on i y la columna j. Habr a una manera natural de denir el determinante de N \i N \j ?. Veremos que si. Sea : N\j N\i. una biyecci on cualquiera. Podemos denir (j) = i y de esta manera se convierte en una permutaci on de N. sgn det N \ i N \ j N \ jN \ i Denamos el determinante det N \i N \j con la expresi on del recuadro a la derecha. Parecer a que no hemos hecho nada ya que en principio esta denici on depende de . La expresi on sgn det N \i N \j N \jN \i no depende de . Prueba. Sea otra permutaci on de N tal que (j) = i. Aqu hay que tener cuidado. Por un lado es una biyecci on de N\j en N\i y por otro es una permutaci on de N. Otro tanto ocurre con . Para evitar confusiones, a las permutaciones de N las denotaremos en esta demostraci on por ^ y ^ respectivamente. Por 4.20 tenemos que 1 det N \i N \j N \jN \i = sgn det N \i N \j N \jN \i . Observese que 1 es una permutaci on de N\i. Que pasa con ^ ^ 1 ? Pues, en todo elemento coincide de N\i con 1 y adem as ^ ^ 1 (i) = i. Luego sgn 1 = sgn ^ ^ 1 y por ^ sgn ^ . Luego las propiedades de la funci on signo se tiene que sgn ^ ^ 1 = sgn det N \i N \j N \jN \i = sgn ^ sgn ^ det N \i N \j N \jN \i y pasando sgn ^ al otro lado de la igualdad terminamos la prueba. Ahora, podemos dar la siguiente denici on. Si ij es una entrada de la matriz A = NN entonces el complemento algebraico de ij es ij = sgn det N \ i N \ j N \ jN \ i donde es cualquier permutaci on de N tal que (j) = i. A los complementos algebraicos tambi en se les llama cofactores. La matriz NN cuyas entradas son los complemento algebraicos ij es la matriz de los complementos algebraicos de NN o matriz de cofactores de NN .

Secci on 4.3

Expansi on de Laplace

107

La expansi on de un determinante por sus renglones Teorema de Expansi on de Laplace Sea iN un rengl on arbitrario de la matriz NN . El determinante de NN es igual a la suma de las entradas del rengl on por sus cofactores. det NN = X
jN

ij ij

Prueba. Si i N entonces tenemos la partici on del grupo sim etrico en el j recuadro a la derecha donde Si = { S | ( i ) = j } . Luego, aplicando N N la denici on de determinante y sacando factor com un obtenemos X Y X det NN = ij sgn n n
jN
j Si N

jN

j Si N

n N \ i

Sea una permutaci on de N tal que (j) = i. Hagamos el cambio de variable i = en la sumatoria interior. Tenemos (i) = i o sea, Si N = SN \ i . Luego, X X Y X ij sgn sgn n 1 (n ) = ij det NN = ij
j N SN \ i n N \ i j N

donde la u ltima igualdad se obtiene por la denici on de ij . Como es natural hay un teorema exactamente igual a este correspondiente a las columnas. El lector debe observar que este teorema se expresa en forma m as compacta usando el producto escalar can onico de N-adas: det NN = iN iN . La expansi on de Laplace en forma gr aca El Teorema de expansi on de Laplace es la primera herramienta (aparte de la denici on) de que disponemos para calcular determinantes. Este reduce el problema a calcular varios determinantes de matrices m as peque nas. Es especialmente u til cuando hay renglones (o columnas) con muchos ceros. Sin embargo, todav a debemos precisar el como calcular los cofactores en forma gr aca. Si bien, la denici on de estos es sencilla necesitamos una biyecci on simple de N\i en N\j que facilite los c alculos cuando N est a ordenado o sea N = {1, ..., n}. Sea por ejemplo i = 2 y j = 7. En este caso, la biyec1 3 4 5 6 7 8 ... n ci on natural de N\2 en N\7 es la que se muestra en el recuadro y la llamaremos . Tenemos que denir 1 2 3 4 5 6 8 ... n (2) = 7 para completar una permutaci on de N. Sabemos que transforma 7 7 6 7 5 7 4 7 3 7 2 7 7 y que deja jos a todos los dem as elementos de N. Luego, es un ciclo de longitud j i + 1 (si i > j entonces es un ciclo de longitud i j + 1).

108

Cap tulo 4. Determinantes

Como todo ciclo de orden par tiene signo negativo y todo de + + i+ j orden impar tiene signo positivo obtenemos sgn = (1) lo + + que es muy sencillo ya que es la regla del tablero de aje- + + drez. A la derecha se muestra el sgn para una matriz con 4 + + renglones y columnas. Observese el parecido con el tablero. Con estas permutaciones, los complementos algebraicos tienen una interpretaci on gr aca muy sencilla. Si se quiere sacar el complemento algebraico de ij entonces achese el rengl on i, t achese la columna j, s aquese t el determinante de la matriz que queda y nalmente 11 12 13 14 21 22 23 24 multipl quese por el signo de la regla del tablero de det 31 32 33 34 ajedrez. As por ejemplo, en el recuadro se muestra una matriz de orden cuatro en la cual estamos 41 42 43 44 calculando el complemento algebraico de 23 . Al matem atico y f sico Pierre-Simon Laplace (Francia 17491827) se le conoce fundamentalmente por sus trabajos en mec anica celeste, ecuaciones diferenciales y teor a de las probabilidades. El public o la demostraci on del Teorema de Expansi on de Laplace (4.22) en 1772 en un art culo donde estudiaba las orbitas de los planetas interiores del sistema solar. En este art culo, Laplace analiz o el problema de soluci on de sistemas de ecuaciones lineales mediante el uso de determinantes.

Ejercicio 82 T ome una matriz y calcule su determinante usando el teorema de descomposici on de Laplace. Repita hasta que usted est e satisfecho. Ejercicio 83 Demuestre que el determinante de la matriz ij = Y 1 xi es igual a la expresi on en el recuadro a la derecha. A este (xj xi ) j determinante se le conoce como determinante de Vandermonde 1i<jn y la matriz tiene el mismo nombre. [246]
La expansi on de Laplace reduce el c alculo del determinante de una matriz al c alculo de determinantes de matrices m as peque nas. Por esto es tambi en usada para dar la denici on de determinante mediante inducci on. En este caso, la f ormula de Leibniz es una consecuencia de esta denici on.

Multinearidad de los determinantes El determinante se puede ver como una funci on del espacio de matrices en el campo. Ser a el determinante una TL? Se cumplir a que det (A + B) = det A + det B? La respuesta es NO. Para probar que no, basta ver un ejemplo. Para las siguientes matrices 1 0 0 0 A= 0 0 ,B= 0 1

Secci on 4.3

Expansi on de Laplace

109

tenemos det A + det B = 0 6= 1 = det (A + B). Sin embargo, los determinantes cumplen una propiedad bastante parecida. Sea E un espacio vectorial sobre el campo K. A las TL de E en K se le llama funcionales lineales del espacio E. En esta terminolog a vemos que la propiedad det (A + B) 6= det A + det B lo que quiere decir es que el determinante NO es un funcional lineal del espacio vectorial de las matrices. Pasemos a considerar una funci on f con valor en K de dos variables x, y que toman sus valores en E o sea, f : E2 3 (x, y) 7 f (x, y) K. Como E2 es un espacio vectorial sobre K entonces podr a suceder que f sea un funcional lineal. Sin embargo, hay una propiedad un poco m as sutil que podr a cumplir la funci on f y es que sea lineal en la primera variable. En otras palabras, que y E se cumple que f (a + b, y) = f (a, y) + f (b, y) y f (a, y) = f (a, y). An alogamente, se dene la propiedad de que f sea lineal en la segunda variable. Si f es lineal en las dos variables entonces, se dice que f es un funcional bilineal (el bi es porque son dos variables). Evidentemente todo esto se puede hacer cuando tenemos muchas variables en cuyo caso nos referiremos a los funcionales multilineales. M as rigurosamente, sea f : N E K una funci on donde N es un conjunto de variables. Sea i N una variable. Podemos pensar a f como una funci on de dos variables f : EN \i E K. Si y EN \i la funci on E 3 x 7 f (y, x) K es un funcional lineal entonces, diremos que f es lineal en la variable i. Diremos que f es un funcional multilineal si f es lineal en todas sus variables. Por ejemplo, la funci on f : R3 3 (x, y, z) 7 x + y + z R es un funcional lineal. La funci on g : R3 3 (x, y, z) 7 xyz R es un funcional multilineal 0 porque (x + x ) yz = xyz + x0 yz y tambi en para las otras variables. Observese que f no es multilineal y que g no es lineal. Ahora queremos ver que los determinantes son funcionales multilineales. El espacio N de matrices KNN es isomorfo a KN . Un isomorsmo de estos es el que a cada matriz le hace corresponder la N-ada de sus renglones. Luego, podemos pensar el determinante como un funcional cuyas variables son los renglones y que toma valores en el campo. El determinante es un funcional multilineal de los renglones. Prueba. Para probar que un funcional es multilineal hay que probar que es lineal en cada variable. Sea i N arbitrario pero jo en toda esta prueba. Sea A = NN una matriz tal que su i- esimo rengl on es la suma de dos N-adas xN y yN . Sea B la misma matriz que A excepto que su i- esimo rengl on es xN . Sea C la misma matriz que A excepto que su i- esimo rengl on es yN . Tenemos que probar que det A = det B + det C. (Si el lector no entiende porqu e entonces, debe regresar al principio de esta secci on y volver a pensar en la denici on de funcional multilineal.) Usando la descomposici on de Laplace por el rengl on i obtenemos det NN = iN iN = (xN + yN ) iN = xN iN + yN iN = det B + det C donde la u ltima igualdad se cumple porque los cofactores de las de las las entradas del

110

Cap tulo 4. Determinantes

rengl on i son los mismos en las matrices A, B y C (recuerdese que hay que tachar el rengl on i). Sea ahora A = NN una matriz tal que su i- esimo rengl on es xN . Sea B la misma matriz que A excepto que su i- esimo rengl on es xN . Usando la descomposici on de Laplace por el rengl on i obtenemos det NN = iN = x = det B . N iN iN Por transposici on el determinante es tambi en multilineal en las columnas.
Los determinantes son los u nicos funcionales multilineales de los renglones que son iguales a 1 en la matriz identidad y que cambian por un factor de sgn cuando se permutan los renglones con la permutaci on . Esto permite dar una denici on alternativa de los determinantes. El primer problema aqu es demostrar la existencia del determinante.

La inversa de una matriz


1 Recordemos que, dada una matriz MN decimos que MN es la matriz inversa de 1 1 MN si se cumple que MN MN = IMM y MN MN = INN . Mediante el isomorsmo 1 de las matrices con las TLs concluimos que MN y MN son la matrices de dos TLs una la inversa de otra y por lo tanto estas TLs son isomorsmos. Luego, si MN tiene inversa entonces, ella es cuadrada.

Si las matrices NL y MN tienen inver1 1 sa entonces, (MN NL )1 = NL MN .

(AB)1 = B1 A1

Sea : N M cualquier biyecci on y NM la matriz de esa biyecci on. La matriz 1 on . Usando el resultado NM siempre tiene inversa e igual a la matriz de la biyecci 1 1 anterior obtenemos que NM (MN NM ) = MN .O sea, cualquier cambio de ndices apropiado reduce el c alculo de matrices inversas al caso en que el conjunto de columnas coincide con el conjunto de renglones. Por esto, nos olvidaremos un poco de los ndices para poder enunciar m as f acilmente nuestros resultados. La siguiente proposici on nos dice que en ciertos casos para probar que una matriz es inversa de otra es suciente comprobar una de las dos igualdades involucradas en la denici on. Aqu , la clave es que las matrices son nitas y cuadradas lo que signica que sus TLs son entre espacios de la misma dimensi on nita. Si AB = I entonces, BA = I. Prueba. Sean f, g : KM KM las TLs de las matrices A y B respectivamente. Mediante el isomorsmo de las matrices con las TLs concluimos que f g = I. De 3.29 (p agina 84) obtenemos que g f = I y por lo tanto BA = I.

Prueba. Usando el isomorsmo de las matrices con las TL la prueba se reduce a la ya conocida por nosotros igualdad (f g)1 = g1 f1 .

Secci on 4.3

Expansi on de Laplace

111

Si una matriz tiene inversa entonces ella es no singular. Adem as, det A1 = (det A)1 . Prueba. Por denici on de matriz inversa y el Teorema del determinante del producto tenemos que 1 = det I = det AA1 = det A det A1 . De esta igualdad obtenemos que det A 6= 0 y det A1 = (det A)1 . Para probar que el rec proco de esta armaci on tambi en es cierto, lo que haremos es construir la matriz inversa en el caso de que el determinante sea diferente de cero. Si A es una matriz no singular entonces, su inversa es la transpuesta de la matriz de sus cofactores dividida por el determinante de A. A1 = AT det A

Prueba. Para hacer la demostraci on lo que hay que hacer es multiplicar. Sea MM = 1 T A y B = MM = (det A) A . Tenemos Mj = (det A)1 on jM y de la denici de producto de matrices obtenemos que la entrada ij de la matriz AB es igual a iM Mj = (det A)1 iM on de Laplace del jM . Si i = j entonces iM jM es la expansi det A por el rengl on i de lo que obtenemos que iM Mj = 1. Solo queda probar que iM jM = 0 si i 6= j. Si nos jamos atentamente, vemos que esta es la expansi on de Laplace por el rengl on j del determinante de la matriz C obtenida de la matriz A substituyendo el rengl on j por el rengl on i. Como la matriz C tiene dos renglones iguales entonces, su determinante es cero y necesariamente iM jM = 0. El determinante de un operador lineal Sea f End E un OL. Si escogemos una base de E entonces en esta base el OL f tiene por coordenadas una matriz A. Podr amos denir det f = det A. Sin embargo, no nos queda claro si esta denici on depende o no de como hallamos escogido la base. Si A y B son las matrices de f End E en dos bases entonces, det A = det B. Prueba. Sean A = MM y B = NN las matrices de f en las bases M y N respectiva1 mente. Por la f ormula del cambio de bases para matrices (3.23) tenemos B = NM A NM donde NM es la matriz de de cambio la base M a la base N. Tenemos 1 1 det NN = det NM MM NM = det NM det MM det NM = det MM ya que por 4.26 la igualdad det NM (det NM )1 = 1 es cierta e independiente del cambio de ndices que se utilize para denir el determinante de NM .

112

Cap tulo 4. Determinantes

El determinante de un OL f en un espacio de dimensi on nita! es por denici on el determinante de su matriz en alguna base y este escalar no depende de la base escogida. Esta denici on nos permite traducir propiedades de las matrices a los OLs. Por ejemplo, un OL es biyectivo si y solo si su determinante es diferente de cero.
El determinante de un OL en Rn tiene una importante interpretaci on geom etrica: Si A es un subconjunto de Rn que tiene volumen n-dimensional (su medida de Lebesgue) igual a vol A R+ y f es un OL entonces vol f (A) = |det f| vol A. En particular, los OLs de determinante 1 o 1 son los que preservan el volumen. Si el lector se intimida con lo de volumen n-dimensional, entonces es mejor que piense en el area en el plano R2 . El signo del determinante de un OL en Rn tiene otra importante interpretaci on geom etrica. El espacio Rn es un espacio orientado. Esto, intuitivamente, lo que quiere decir es que por mucho que alquien trate de convertir su mano derecha en su mano izquierda no lo lograr a, a menos que use un espejo. Matem aticamente, las reexiones invierten la orientaci on del espacio. Todo lo que es derecho se convierte en izquierdo y rec procamente. Por eso las reexiones tienen en R3 determinante negativo. Los OLs en Rn que tienen determinante positivo son los que preservan la orientaci on y los que tienen determinante negativo son los que invierten la orientaci on

4.4

La expansi on generalizada de Laplace

Ahora generalizaremos dram aticamente el teorema de expansi on de Laplace. Sea NN una matriz y I, J subconjuntos de N de la misma cardinalidad. Para ahorrarnos mucha escritura, denotemos I0 = N\I y J0 = N\J. Adem as, denotemos por IJ = det IJ el determinante de la matriz cuyas columnas son las de J y cuyos renglones son los de I. Claro, este determinante est a denido solo salvo signo. De los signos no nos preocuparemos ahora sino solo m as adelante. Por otro lado, denotemos por IJ = det I0 J0 el determinante de la matriz cuyas columnas son las que no est an en J y cuyos renglones son los que no est an en I (no nos preocupemos por los signos). En estas notaciones, un sumando del Teorema de expansi on de Laplace es de la forma IJ IJ donde I y J son subconjuntos de cardinal 1. Nos gustar a tener un teorema de expansi on donde los subconjuntos sean de un cardinal jo pero arbitrario. Para esto, ahora s nos tenemos que preocupar por los signos. Sin embargo, la siguiente proposici on nos dice que esto realmente no es un problema. Sea cualquier permutaci on de N tal que (J) = I y por lo tanto (J0 ) = I0 . La restricci on de a J y la restricci on de a J0 son biyeccciones y sus matrices se denotar an por JI y J0 I0 respectivamente. La expresi on sgn det IJ JI det I0 J0 J0 I0 no depende de la permutaci on . Prueba. Sea otra permutaci on tal que (J) = I. Observese que = 1 es

Secci on 4.4

La expansi on generalizada de Laplace

113

una permutaci on de N tal que (I) = I y (I0 ) = I0 . Sea x el signo de la restricci on de 0 0 a I y y el signo de la restricci o n de a I . Como los conjuntos I y I son disjuntos tenemos que sgn 1 = xy. Por 4.20 tenemos det IJ JI = x det IJ JI y det I0 J0 J0 I0 = y det I0 J0 J0 I0 . Multiplicando estas dos igualdades obtenemos det IJ JI det I0 J0 J0 I0 = sgn 1 det IJ JI det I0 J0 J0 I0 y usando las propiedades de la funci on sgn obtenemos la prueba. Ahora, para I, J subconjuntos de N denamos IJ y IJ = det IJ IJ JI con las f ormulas de la derecha donde denota una permu- = sgn det 0 0 0 0 IJ IJ JI taci on (arbitraria pero la misma para las dos deniciones) tal que (J) = I (y en consecuencia (J0 ) = I0 ). Esta denici on no es correcta en el sentido de que ambos IJ y IJ dependen de . Sin embargo IJ IJ no depende de y esto es lo importante. Expansi on Generalizada de Laplace Si I un conjunto de p renglones de la matriz NN enP tonces, det NN = IJ IJ donde la suma recorre todos los subconjuntos de columnas J de cardinalidad p. det NN = X IJ IJ

|J |=p

Prueba. Si I N y |I| = p entonces, tenemos la partici on del gruJ po sim etrico a la derecha donde SI = { S | ( I ) = J } . Aplicando la N N denici on de determinante obtenemos X X Y det NN = sgn n n
|J |=p SI J
N

|J |=p

J SI N

n N

Como (I) = I entonces, (I ) = I . Luego se puede descomponer en la composici on de dos permutaciones donde SI y SI0 . Substituyendo por la suma se convierte en suma doble y si sacamos factores comunes obtendremos: ! X X Y Y X sgn sgn i 1 ( ) sgn i 1 ( ) det NN =
n n

Sea una permutaci on de N tal que (J) = I. Hagamos el cambio de variable = . X X Y Entonces, det NN = sgn sgn i 1 (n )
0 |J | = p 0
I I SN

n N

|J |=p

Lo contenido en el primer par entesis es det I (J) = IJ . Lo contenido en el segundo par entesis es det I0 (J0 ) y este determinante multiplicado por sgn es IJ .

SI

n I

SI 0

n I 0

Como ya es costumbre tediosa, hagamos la observaci on de que tambi en es v alida la Expansi on Generalizada de Laplace cuando la hacemos por un conjunto de columnas.

114

Cap tulo 4. Determinantes

Matrices diagonales y triangulares por bloques Sea MM una matriz. Supongamos que existe una partici on M1 Mt = M y que ij = 0 si i y j pertenecen a bloques diferentes. Entonces decimos que MM es diagonal por bloques. Si cada Mi contiene un solo ndice entonces decimos que MM es diagonal. Supongamos ahora que, para la partici on M1 Mt = M se cumple que si i Mp , j Mq y p < q entonces ij = 0. En este caso, decimos que MM es triangular por bloques. Si cada Mi tiene un solo ndice entonces decimos que MM es triangular. Es claro de las deniciones que toda matriz diagonal por bloques es triangular por bloques. En particular, toda matriz diagonal es triangular. Si MM es una matriz triangular por bloques entonces, Q det MM = t i=1 det M i M i .

Prueba. Haremos la prueba por inducci on en el n umero de bloques t. Para t = 1 la 0 proposici on es trivial. Denotemos M = M\M1 . Aplicando la expansi Pon generalizada de Laplace al conjunto de renglones I = M1 obtenemos det MM = |J|=|I| IJ IJ . Si J 6= I entonces, en IJ hay una columna j / M1 y por lo tanto j Mq con 1 < q. Luego, por denici on de matriz triangular, i I = M1 se tiene que ij = 0. O sea, la columna j es cero en IJ e independientemente de la biyecci on que se escoja para calcular el deteminante tenemos IJ = 0. Luego, det MM = II II = det M 1 M 1 det M 0 M 0 . La matriz M0 esQ triangular por bloques con un bloque menos y por hip otesis de inducci on det M 0 M 0 = t det . Mi Mi i= 2

Ejercicio 84 Cuales de las siguentes matrices son triangulares?


a 0 0 a 1 1 a 1 1 A = 1 b 0 B = 0 b 1 C = 0 b 0 1 1 c 0 0 c 0 1 c

[247]

Ejercicio 85 Sean M = {1, . . . , 5} y MM una matriz triangular por los bloques


M1 = {1, 2}, M2 = {3} y M3 = {4, 5}. Cual es el aspecto de MM en forma gr aca? [247] La expansi on generalizada de Laplace en forma gr aca Ahora, precisaremos los signos de las biyecciones en la expansi on generalizada de Laplace cuando la matriz est a dada en forma gr aca. Como esto es u til solo para calcular el determinante de matrices concretas y hacerlo as es por lo general extremadamente ineciente y complicado, recomiendo omitir en una primera lectura lo que resta de esta secci on. Si N = {1, . . . , n} entonces, entre dos cualesquiera subconjuntos I, J N del mismo

Secci on 4.4

La expansi on generalizada de Laplace

115

cardinal hay una biyecci on natural que conserva el orden. Para esto, introduscamos la notaci on {m1 , m2 , . . . , mt }< para se nalar que p {2, . . . , t} se tiene que ip1 < ip . Ahora, si I = {i1 , . . . , it }< y J = {j1 , . . . , jt }< entonces, la biyecci on es 1 : I 3 ip 7 jp J. Tambi en, tenemos una biyecci on natural entre los complementos de I y J. Para esto sean K = N\I = {k1 , . . . , ks }< y L = N\J = {`1 , . . . , `s }< y denamos 2 : K 3 kp 7 `p L. Luego, para cualesquiera subconjuntos I, J N del mismo cardinal la permutaci on J I = 1 2 cumple lo necesario para calcular el signo de un J sumando de la expansi on generalizada de Laplace, o sea J I (I) = J y I (N\I) = N\J. Observese, que la biyecci on 1 es la natural de renglones a columnas que se obtiene si en una matriz NN tachamos todos los renglones con ndices en K y todas las columon de renglones a columnas nas con ndices en L. De la misma manera 2 es la biyecci si tachamos todos los renglones con ndices en I y todas las columnas con ndices en J. J on (normal) de Laplace en forma Calculemos el signo de I . Al estudiar la expansi gr aca vimos que si I = {i} y J = {j} entonces, (j, j 1, , i + 1, i) si j > i j J I = i es el ciclo que se muestra a la derecha y (j, j + 1, , i 1, i) si j < i i +j por lo tanto sgn j (la regla del tablero i = (1) de ajedrez).
j1 1 sgn J I = sgn i1 sgn I \ i1 . J\j

1 J\ j I\i1 . Tenemos que demostrar que sgn = (1)i1 +j1 . Prueba. Sea = J I 1 Para esto, recordemos que K = N\I = {k1 , . . . , ks }< y L = N\J = {`1 , . . . , `s }< . Sea p el menor ndice tal que i1 < kp y sea q el menor ndice tal que j1 < `q (es admisible que p = s + 1 y/o q = s + 1). Usando la denici on de (kp , kp+1 , , kq1 , i1 ) si p < q calculamos que esta permutaci on es igual a la (kp1 , kp2 , , kq , i1 ) si p > q del recuadro a la izquierda. Luego, es siempre I si p = q un ciclo de longitud |p q| + 1 y por lo tanto sgn = (1)p+q . as peque nos de I y J respectivamente entonces, teComo i1 y j1 son los elementos m nemos que {k1 , . . . , kp1 , i1 }< = {1, . . . , p 1, p} y {`1 , . . . , `q1 , j1 }< = {1, . . . , q 1, q} y de aqu nalmente, p = i1 y q = j1 .
j1 j2 jt Iterando este resultado obtenemos sgn J I = sgn i1 sgn i2 sgn it . Observese que ir jr son las entradas en la diagonal de la submatriz IJ de NM . Luego, para hallar sgn J I lo que hay que hacer es multiplicar los signos de la regla del tablero de ajedrez de los en se puede hacer, calculando la P elementos P en la diagonal de IJ . Tambi paridad de iI i + jJ j. Ejemplo. Calculemos el determinante de una matriz NN del re4 5 1 1 1 2 3 2 cuadro a la izquierda haciendo la expansi on generalizada de Laplace 4 5 2 3 por el conjunto I del segundo y cuarto renglones. Tenemos que re1 2 3 4 correr todos los subconjuntos J de dos columnas.

116

Cap tulo 4. Determinantes

Observese, que si la columna 4 no est a en J entonces la matriz IJ tiene dos renglones iguales por lo que todos los sumandos correspondientes en la expansi on ser an cero. Adem as, para J = {3, 4} la matriz N \I N \J tiene dos renglones iguales por lo que tambi en el correspondiente sumando es cero. Solo nos quedan dos sumandos cuando J = {1, 4} y J = {1, 4} J = {2, 4} cuando J = {2, 4}. Para ellos podemos extraer del table- + + + ro de ajedrez las submatrices del recuadro a la derecha + + + y multiplicando los signos en las diagonales obtenemos {1,4 } { 2,4 } sgn I = 1 y sgn I = 1. Luego, por la expansi on generalizada de Laplace el determinante de nuestra matriz es igual a 2 2 4 1 1 2 5 1 2 4 4 2 1 4 5 2 = 4 4 2 5 = 6 donde usamos las barras verticales para ahorrar espacio al denotar los determinantes.

4.5

El rango de una matriz

En esta secci on deniremos las bases de una matriz como las submatrices m as grandes con determinante diferente de cero. Probaremos que las bases de una matriz denen y est an denidas por las bases de los espacios de columnas y renglones. Esto es el fundamento de los diversos m etodos de solucion de los sistemas de ecuaciones lineales. Matrices no singulares Agrupemos en un solo resultado lo que hemos probado para las matrices no singulares. Caracterizaci on de Matrices No Singulares Para cualquier matriz cuadrada A las siguientes armaciones son equivalentes: 1. A tiene inversa, 3. los renglones de A son LI, 2. A es no singular, 4. las columnas de A son LI. Prueba. La implicaci on 12 es el resultado 4.26. La implicaci on 21 es el resultado 4.27. La equivalencia 14 es el resultado 3.21 (p agina 79). De aqu , 24 y como los determinantes no cambian por transposici on obtenemos 23. Espacios de columnas y renglones Al subespacio de KN generado por los renglones de la matriz MN se le llama espacio de renglones de la matriz. Aqu tenemos un peque no problema: es posible

Secci on 4.5

El rango de una matriz

117

que halla renglones iguales y los conjuntos no distinguen elementos iguales. Por esto, diremos que un conjunto de renglones es LI si ellos son distintos dos a dos y es LI en el espacio de renglones de la matriz. Un conjunto de renglones distintos dos a dos que es una base del espacio de renglones lo llamaremos base de los renglones de MN . An alogamente se dene el espacio de columnas de una matriz, los conjuntos de columnas LI y las bases de las columnas. Sea f : KN 3 N 7 MN N KM la TL de la matriz MN . El espacio de columnas de MN es la imagen de la TL de MN . Prueba. La imagen de f (y de cualquier TL) es igual a hf (B)i donde B es cualquier onica obtenemos que f (B) base de KN . En particular si tomamos B igual a la base can es el conjunto de columnas de MN . Debido a este resultado, frecuentemente al espacio de columnas de una matriz se le llama imagen de la matriz. Obviamente, el espacio de renglones de una matriz es la imagen de la TL correspondiente a la transpuesta de la matriz. Una consecuencia importante de 4.34 es que los espacios de columnas y renglones son propiedades de TLs. En otras palabras si hacemos cambios de base en KN y KM la nueva matriz tendr a los mismos espacios de columnas y renglones que la original. Las dimensiones del espacio de columnas y del espacio de renglones de una matriz coinciden. Prueba. Sea MN una matriz y f su TL. Sean A una base de ker f y A0 una base def de cualquier subespacio complementario a ker f. Sabemos que I = A A0 es una base de KN . Por el Teorema de Descomposici on de una TL sabemos que la restricci on def 0 0 f : hA i Im f es un isomorsmo y por lo tanto B = f (A ) es una base de Im f. Sea def B0 una base de cualquier subespacio complementario a Im f. Sabemos que J = B B0 es una base de KM . Como es JI la matriz de f en las bases I y J? Por denici on, las columnas de JI son las J-adas A0 A de las im a genes de los vectores en I . O sea f ( i ) = 1 0 0 0 P . . . . .. .. jJ ji j. Si i A ker f entonces f (i) = 0 y por . . B . . . . . . . . lo tanto todos los ji con i A son cero. Si i A0 0 1 0 0 entonces entonces f (i) B y por lo tanto los ji 0 0 0 0 . . . . .. .. con i A0 son iguales a f(i)i . Luego, ordenando las B0 . . . . . . . . . . bases adecuadamente JI es en forma gr aca la que 0 0 0 0 se muestra en el recuadro a la derecha. Es claro que la dimension del espacio de columnas y renglones de IJ coinciden y son iguales a la cantidad de vectores en A0 . Como estas dimensiones no cambiaron al cambiar las bases, la tesis tambi en es v alida para MN .

118

Cap tulo 4. Determinantes

A la dimensi on com un de los espacios de renglones y columnas se le llama rango de la matriz. Lema de aumento de matrices no singulares

El siguiente lema es parte importante de las demostraciones de los que siguen. Su demostraci on es cl asica e ingeniosa. Este lema es en cierta manera an alogo al lema de aumento de conjuntos LI que vimos en el Cap tulo 2. Lema de Aumento de Submatrices No Singulares Sea IJ una submatriz cuadrada no singular de MN . Sea m M\I tal que el conjunto de renglones indexado por I m es LI. Entonces, existe n N tal que la matriz Im Jn es no singular. Prueba. Denotemos Bn = Im Jn . Al absurdo, supongamos que n N\J se cumple que det Bn = 0. Si n J entonces, denotemos por Bn la matriz Im J a la que articialmente le agregamos otra columna n. En este caso Bn tiene dos columnas iguales y por lo tanto tambi en det Bn = 0. Para cualquier n, podemos pensar la matriz Bn gr acamente como se muestra en el recuadro. Sean Bin los IJ In cofactores de las entradas de la u ltima columna en la matriz Bn = mJ mn Bn . Observemos que en la denici on de los Bin no est an involucradas las entradas de la u ltima columna. Luego, Bin no depende de n y podemos denotar Bin = i K. De la expansi on de Laplace por la u ltima columna en la matriz Bn obtenemos: X X 0 = det Bn = in Bin = in i . Como esto es v alido n N concluimos que M MN = 0N . Como m = det IJ 6= 0 esto signica que los renglones de MN est an en una combinaci on lineal nula con coecientes no todos nulos. Esto contradice la hip otesis de que sus renglones son LI.
iM iM

Bases de una matriz

Sea MN una matriz. Entre las submatrices cuadradas no singulares de MN tenemos la relaci on de contenci on (I0 J0 IJ ) (I0 I y J0 J) Una base de MN es una submatriz no singular maximal por contenci on.

Secci on 4.5

El rango de una matriz

119

Caracterizaci on de las Bases de una Matriz Una submatriz IJ es una base de una matriz si y solo si el conjunto de renglones indexado por I es una base de los renglones y el conjunto de columnas indexado por J es una base de las columnas. Prueba. Sea IJ una submatriz de MN . Es conveniente IJ IY denotar X = M \ I y Y = N \ J y pensar que MN es de MN = XJ XY la forma en el recuadro a la derecha. Supongamos que IJ es cuadrada y que es una base de MN . Entonces, por la Caracterizaci on de Matrices No Singulares (4.33) los renglones y las columnas de IJ son LI y con m as raz on los renglones de IN y las columnas de MJ son LI . Si estos renglones de IN no son una base de los renglones de MN entonces, existe otro rengl on indexado por m X tal que el conjunto de renglones indexado por I m es LI y por el Lema de Aumento de Submatrices No Singulares (4.36) existe n Y tal que Im Jn es no singular y esto contradice la suposici on de que IJ es una base. Luego, los renglones de IN son una base de los renglones y por 4.35 las columnas de MJ son una base del espacio de columnas. Rec procamente, supongamos que los renglones de IN y las columnas MJ son bases de los renglones y las columnas de MN respectivamente. Por 4.35, la submatriz IJ es cuadrada. Sabemos que los renglones de IN son LI. Las columnas de MJ es un generador del espacio de columnas de MN y con m as raz on las columnas de IJ son un generador del espacio de columnas de IN . Aplicando 4.35 a la matriz IN obtenemos que las columnas de IJ son un generador con la misma cantidad de vectores que la dimensi on del espacio y por lo tanto son LI. Por la Caracterizaci on de Matrices No Singulares (4.33) la matriz IJ es no singular. Si hubiera una submatriz Im Jn no singular entonces por la Caracterizaci on de Matrices No Singulares (4.33) sus renglones ser an LI y con m as raz on los renglones de Im N ser an LI. Esto contradice que los renglones de IN es una base de los renglones de MN . Luego, IJ es una base de la matriz MN . Una consecuencia importante de la Caracterizaci on de las Bases de una Matriz (4.37) es que todas las bases de una matriz tienen orden igual al rango de la matriz.

xi E, yi F y zi G. Pruebe que si los yi son LI entonces los xi son LI. Pruebe que si los xi son generadores entonces los yi son generadores. Esto es lo que se usa en la prueba de la Caracterizaci on de las Bases de una Matriz (4.37) cada vez que se usa la frase con m as raz on.

Ejercicio 86 Sean E = F G espacios vectoriales y xi = (yi , zi ) vectores donde

120

Cap tulo 4. Determinantes Sistemas de ecuaciones lineales

4.6

Sea A = NM una matriz y xM = xM1 una columna. El producto X de estas matrices es nuevamente una columna NM xM1 = bN1 = bN . ij xj = bi Si desarrollamos este producto por la denici on de producto de ma- jM trices entonces obtenemos para cada i N la igualdad en el recuadro a la derecha. Como ya es usual podemos interpretar la columna xM como un vector x en el espacio vectorial KM y a bN como un vector b en el espacio KN y en estas notaciones la igualdad se escribe en una forma m as simple Ax = b. Supongamos que A es una matriz ja. Si hacemos variar x en KN entonces esta igualdad la podemos pensar como una TL de KM en KN . Como es l ogico, si conocemos x entonces como sabemos multiplicar matrices hallamos b = Ax. M as dif cil es el problema inverso, si se conoce b entonces, como hallar x tal que Ax = b? A una igualdad de la forma Ax = b donde A y b son conocidos y x es inc ognita se le llama sistema de ecuaciones lineales. Oh, gran confusi on! porqu e sistema? porqu e ecuaciones en plural si nada m as tenemos UNA?. La respuesta a estas preguntas no es gran misterio, es un problema hist orico. Cuando sobre la faz de la Tierra a un no viv an las matrices y los vectores, los humanos necesitaban encontrar unos numeriP tos xj tales que para cualquier i N se cumpla que jM ij xj = bi . Obs ervese que se necesitan encontrar |M| numeritos. En el caso de que |N| = 1 se dec a que tenemos que resolver una ecuaci on lineal. Para el caso |N| > 1 los numeritos xj deber an de cumplir todas y cada una de las ecuaciones (para cada i N) y entonces, se dec a que se necesitaba resolver un sistema (conjunto, colecci on, cualquier cosa que signique que hay muchas) de ecuaciones lineales. De hecho, para acercarnos m as a la verdad, debemos substituir en todo lo dicho los se dec a por se dice en presente. Luego, hay dos formas de ver los sistemas de ecuaciones lineales: Tenemos que encontrar |M| elementos del campo xj tales P que para cualquier i, se cumple la igualdad jM ij xj = bi , Tenemos que encontrar un vector x KM tal que Ax = b. Ambas formas son en esencia la misma ya que encontrar un vector x es lo mismo que encontrar todas sus coordenadas xj . Sin embargo, la elegancia de la segunda forma hace que nuestra manera de pensarlo sea mucho m as simple y sistem atica (a costo de aprender sobre matrices y vectores). Por ejemplo, si ocurre que la matriz A es no singular entonces multiplicando por A1 a la izquierda obtenemos Ax = b A1 Ax = A1 b x = A1 b y como ya sabemos encontrar la matriz inversa y sabemos multiplicar matrices la soluci on del sistema de ecuaciones lineales est a a la mano. Esto no signica que ya sepamos resolver todos los sistemas de ecuaciones lineales ya que para que una matriz sea no singular se necesita primero que sea cuadrada y que adem as el determinante sea diferente de cero.

Secci on 4.6
Regla de Cramer

Sistemas de ecuaciones lineales

121

Sea Ax = b un sistema de ecuaciones lineales. A la matriz A se le llama matriz del sistema y al vector b lo llamaremos vector de coecientes libres. Denotaremos por A (j) la matriz obtenida de la matriz del sistema substituyendo la j- esima columna por el vector de coecientes libres. Un ejemplo de esta substituci on es el siguiente 1 7 3 7 1 2 3 . , A (2) = , b= A= 4 8 6 8 4 5 6 Regla de Cramer Si la matriz A es no singular entonces, la j- esima coordenada xj del vector x es igual al determinante de A (j) dividido entre el determinante de A. xj = det A (j) det A

Prueba. Sea NM es una matriz no singular. Ya observamos que en este caso ne1 1 cesariamente x = NM b. Denotemos por ij las entradas de NM entonces, tenemos xj = jN bN . Por 4.27 tenemos que jN = xj det NM = bN Nj / det NM y de aqu Nj . Para terminar la demostraci on basta observar que la expresi on a la derecha de la igualdad es la expansi on de Laplace de A (j) por la columna j. Gabriel Cramer (Suiza 1704-1752) public o su famosa regla en el art culo Introducci on al an alisis de las curvas algebraicas (1750). Esta surgi o del deseo de Cramer de encontrar la ecuaci on de una curva plana que pasa por un conjunto de puntos dado. El escribe su regla en un ap endice del art culo y no da prueba alguna para ella. Este es uno de los or genes hist oricos del concepto de determinante. Es curioso (y educativo) ver con que palabras Cramer formula su regla: Uno encuentra el valor de cada indeterminada formando n fracciones el com un denominador de las cuales tiene tantos t erminos como las permutaciones de n cosas. Cramer contin ua explicando como se calculan estos t erminos como productos de ciertos coecientes de las ecuaciones y como se determina el signo. El tambi en se nala como los numeradores de las fracciones se pueden encontrar substituyendo ciertos coecientes de los denominadores por los coecientes libres del sistema. Para nosotros, con m as de dos siglos de ventaja, es mucho m as f acil. Las n fracciones son det A (j) / det A y el com un denominador es det A (que tiene tantos sumandos como las permutaciones de n cosas).

122

Cap tulo 4. Determinantes

La Regla de Cramer (4.38) tiene fundamentalmente un inter es hist orico por ser uno de los or genes del concepto de determinante. Es necesario recalcar que esta regla solo funciona para el caso de que la matriz es no singular. O sea, cuando en el sistema se tienen tantas incognitas como ecuaciones y el determinante de la matriz del sistema no es nulo. Existencia de soluciones Cuando se tiene un sistema de ecuaciones se deben contestar tres preguntas: Existe una soluci on? Como encontrar una soluci on en el caso de que exista? Como encontrar TODAS las soluciones? La Regla de Cramer da la respuesta a las tres preguntas para cuando A es una matriz no singular: la soluci on existe, es u nica y se halla por la Regla de Cramer. Ahora responderemos en general la primera pregunta. Primero, una denici on. Si Ax = b es un sistema de ecuaciones lineales entonces la matriz ampliada del sistema denotada por (A|b) es la matriz que se obtiene de la matriz del sistema a nadiendo el vector columna de coecientes libres b. Teorema de Existencia de Soluciones El sistema Ax = b tiene una soluci on si y solo si el rango de la matriz del sistema coincide con el rango de la matriz ampliada. Prueba. Por denici on de rango de una matriz siempre se tiene que rank A rank (A|b) . Que coincidan es equivalente por la Caracterizaci on de las Bases de una Matriz (4.37) a que b sea combinaci on lineal de las columnas de A. El que b sea combinaci on lineal de las columnas de A es equivalente a la existencia de escalares xj tales que iN xN = bi o sea a que Ax = b tenga al menos una soluci on. Eliminaci on de ecuaciones dependientes Lema de Eliminaci on de Ecuaciones Dependientes Sea I el conjunto de ndices de una base de renglones de la matriz ampliada (MN |bM ). Entonces, el conjunto de soluciones de MN xN = bM es exactamente el mismo que el de IN xN = bI . as ecuaciones que IN xN = bI entonces cada Prueba. Como MN xN = bM tiene m soluci on de MN xN = bM es soluci on de IN xN = bI .

Secci on 4.6

Sistemas de ecuaciones lineales

123

Rec procamente, sea xN tal que IN xN = bI y m M\I. El rengl on (mN |bm ) es combinaci on lineal de los indexados por I. Luego existen escalares mN = I IN i tales que se cumplen las igualdades a la derecha. Multiplicando bm = I bI la primera igualdad por xN y usando la denici on de xN obtenemos mN xN = I IN xN = I bI = bm y por lo tanto xN satisface todas las ecuaciones del sistema MN xN . Otra manera, m as algor tmica, de ver este lema es que si tenemos un sistema de ecuaciones MN xN = bM y un rengl on de este sistema es combinaci on lineal de los dem as entonces, debemos eliminar la ecuaci on correspondiente a este rengl on. El Lema de Eliminaci on de Ecuaciones Dependientes (4.40) nos garantiza que esta operaci on no altera el conjunto de soluciones. Repitiendo esta operaci on una cierta cantidad de veces, obtenemos una matriz ampliada con renglones LI. El n ucleo y la imagen de una matriz Sea MN una MN-matriz. Ella es la matriz de la TL f : KN 3 xN 7 MN xN KM . Luego, podemos denir la imagen de la matriz MN como Im MN = Im f y el n ucleo de la matriz MN como ker MN = ker f. Pasemos ahora a analizar la imagen. Por denici on de imagen tenemos Im MN = {M | xN MN xN = M }. O sea, Im MN es el conjunto de vectores M tales que el sistema de ecuaciones lineales P MN xN = M tiene al menos una soluci on. Tenemos MN xN = iN Mi xi que es una combinaci on lineal de las columnas. Luego, Im MN es el subespacio generado por las columnas de la matriz MN . Adem as, si N es una soluci on de MN xN = M entonces, 3.30 (p agina 85) nos dice que el conjunto de todas sus soluciones es el subespacio af n N + ker MN . Resumamos todo lo dicho en 4.41 para referencias futuras. El subespacio ker MN es el conjunto de soluciones de MN xN = 0M . El subespacio Im MN es el generado por las columnas de MN . Si N es una soluci on de MN xN = M entonces, el conjunto de todas sus soluciones es el subespacio af n N + ker MN .

Bases del subespacio af n de soluciones Ahora daremos la soluci on general de los sistemas de ecuaciones lineales. Sea MN xN = bM un sistema de ecuaciones. Primero, podemos suponer que la matriz del sistema MN tiene el mismo rango que la matriz ampliada [MN |bM ] porque si no entonces, el conjunto de soluciones es vac o. Segundo, podemos suponer que la matriz ampliada [MN |bM ] tiene renglones linealmente independientes porque si no, entonces podemos descartar aquellos que son combinaci on lineal de otros.

124

Cap tulo 4. Determinantes

Luego existe un conjunto de columnas J M tal que MJ es una base de la matriz ampliada [MN |bM ]. Denotando por Y al conjunto de columnas que no est an en la base podemos representar nuestro sistema de ecuaciones lineales MJ xJ + MY xY = bM como se muestra en el recuadro a la izquierda. Aqu las inc ognitas xJ y xY son aquellas que se corresponden con las columnas en J y Y respectivamente. Por ejemplo, en el sistema de ecuaciones 2x1 + 1x2 + 1x3 + 0x4 = 5 3x1 + 2x2 + 0x3 + 1x4 = 5 podemos tomar J al conjunto de las dos primeras columnas y Y al conjunto de la tercera y cuarta columnas. Luego a este sistema lo podemos escribir como 2 1 x1 1 0 x3 5 + 0 1 = 5 . 3 2 x x
2 4

Esto describe en forma par am etrica el conjunto de todas las soluciones, para cual1 1 quier vector xY hay una soluci on MJ bM MJ MY xY , xY del sistema. Otra manera de describir el conjunto soluci on es ponerlo en la forma descrita en 4.41. Para encontrar una soluci on ponemos xY = 0 y en nuestro ejemplo el vector soluci on es (5, 5, 0, 0). Para encontrar el n ucleo de la matriz del sistema ponemos bM = 0. Para encontrar una base del n ucleo recorremos con xY a la base can onica de KY . En nuestro ejemplo (x3 , x4 ) = (1, 0) (x1 , x2 ) = (7, 8) (x3 , x4 ) = (0, 1) (x1 , x2 ) = (4, 3) y nalmente obtenemos que el conjunto de soluciones (x1 , x2 , x3 , x4 ) es el subespacio af n (5, 5, 0, 0) + (1, 0, 7, 8) + (0, 1, 4, 3) donde y son escalares cualesquiera.

Ahora, como la matriz MJ tiene inversa, lo que hacemos es simplemente despejar 1 1 xJ y obtenemos xJ = MJ bM MJ MY xY . En nuestro ejemplo obtenemos x1 5 2 1 x3 2x3 x4 + 5 = 5 + 3 2 = 3x + 2x 5 x x
2 4 3 4

4.7

M etodo de eliminaci on de Gauss

La idea del m etodo de eliminaci on de Gauss es realizar ciertas transformaciones de las matrices que no cambian lo que se pretende calcular y que convierte a las matrices en otras con muchas entradas iguales a cero. Este es el m etodo m as universal y eciente (al menos manualmente) para calcular los determinantes, el rango, el n ucleo, las matrices inversas, etc. Aqu , estudiaremos brevemente este m etodo. Transformaciones elementales Sea MN una matriz. Sean iN , jN dos renglones de MN y K un escalar. Denotemos jN = iN + jN y sea MN la matriz obtenida de MN reemplazando

Secci on 4.7

M etodo de eliminaci on de Gauss

125

el rengl on jN por la N-ada jN . A la operaci on que dados MN , i, j y obtenemos MN se le llama transformaci on elemental de los renglones. Otra manera u til de pensar las transformaciones elementales de los renglones es que en la matriz MN al rengl on jN le sumamos el rengl on iN multiplicado por . De forma an aloga, se denen las transformaciones elementales de las columnas. Una transformaci on elemental es de renglones o de columnas. Las transformaciones elementales no cambian los determinantes. on indePrueba. Sean MM , MM y MM matrices que se diferencian solo en el rengl xado por j para el cual se tiene que jM = iM + jM y jM = iM . Como el determinante es un funcional lineal de los renglones tenemos det MM = det MM + det MM y como la matriz MM tiene dos renglones iguales entonces, det MM = det MM . La prueba termina al recordar que el determinante no cambia por transposici on de la matriz. Las bases y el rango de una matriz dependen exclusivamente de los determinantes de sus submatrices y por lo tanto no son afectados por las transformaciones elementales. Sin embargo, las trasformaciones elementales de las columnas cambian los n ucleos y el subespacio af n soluci on de un sistema de ecuaciones lineales. Para las transformaciones elementales de los renglones la situaci on es diferente. Las transformaciones elementales de los renglones de la matriz ampliada no cambian el subespacio af n soluci on de un sistema de ecuaciones lineales. Prueba. Sea MN xN = bM un sistema de ecuaciones lineales. Sea MN xN = cM otro sistema que se diferencia solo en la ecuaci on j para la cual se tiene jN = iN + jN y cj = bi + bj . Si N es una soluci on del primer sistema entonces, jN N = iN N + jN N = bi + bj = cj por lo que N es una soluci on del segundo sistema. Si N es una soluci on del segundo sistema entonces, jN N = jN N iN N = cj bi = bj por lo que N es una soluci on del primer sistema. Ejemplo El m etodo de Gauss se puede precisar en todo detalle para convertirlo en un algoritmo programable en una computadora. Pero como tratamos de ense nar a humanos y no a computadoras la mejor manera no es dar todos los detalles sino dejar a la creatividad individual y a la imitaci on de ejemplos el como aplicar las transformaciones elementales. La matriz ampliada siguiente arriba a la izquierda representa un sistema de ecuaciones lineales. Despues de las 4 transformaciones elementales de los renglones que se muestran obtenemos la matriz de abajo a la derecha. La soluci on del sistema de esta

126 u ltima es obvia.


1 1 0 2 3 4 3 3 1

Cap tulo 4. Determinantes


! 3 2 1 ! 3 4 1 ! 3 28 8 ! 3 4 8

r 2 :=r 2 2r 1

1 1 0 0 1 4 3 3 1 1 1 0 0 1 0 0 0 1

r 3 :=r 3 3r 1

1 1 0 0 1 4 0 0 1 1 0 0 0 1 0 0 0 1

r 2 :=r 2 4r 3

r 1 :=r 1 r 2

Aqu las transformaciones elementales realizadas est an marcadas en las echas. Por on le sumamos ejemplo, la primera es r2 := r2 2r1 lo que signica que al segundo rengl el primero multiplicado por 2. Observese que despu es de dos transformaciones ya vemos que el determinante de la matriz del sistema es 1 porque en una matriz triangular el determinante es el producto de las entradas diagonales. El caso general Para el c alculo de los determinantes no hay mucho m as que decir. Podemos utilizar transformaciones elementales de columnas y renglones para convertir nuestra matriz cuadrada en matriz triangular. Si en el proceso nos aparece un rengl on o columna cero entonces el determinante es cero. Para resolver los sistemas de ecuaciones lineales trabajamos con la matriz ampliada y solo podemos realizar transformaciones elementales de los renglones. Podemos adem as multiplicar un rengl on por un escalar porque esto no afecta la ecuaci on correspondiente al rengl on. Si nos aparece un rengl on cero podemos descartarlo como combinaci on lineal de los otros. Si nos aparece un rengl on que es cero en la matriz del sistema pero su coeciente libre no es cero entonces el sistema no tiene soluci on porque el rango de la matriz ampliada es mayor que el rango de la matriz del sistema. Finalmente, si en alg un momento nos aparece una conguraci on del tipo a 0 b 0 0 c

! 25 28 8

Para este sistema procedemos como en la secci on anterior y pasamos restando las inc ognitas que sobran como par ametros hacia la parte derecha del sistema de ecuacio-

donde a, b, . . . , c son diferentes de cero entonces las primeras columnas forman una base de la matriz y tenemos m as inc ognitas que ecuaciones. En este caso debemos seguir diagonalizando la parte correspondiente a las primeras columnas hasta obtener 1 0 0 0 1 0 . 0 0 1

Secci on 4.7

M etodo de eliminaci on de Gauss

127

nes. Tomemos el mismo ejemplo de la secci on anterior


2 1 1 0 3 2 0 1

y por lo tanto la soluci on de este sistema es x1 = 5 2x3 + x4 y x2 = 5 + 3x3 2x4 donde x3 y x4 pueden tomar cualquier valor. Aqu es cuando el lector se preguntar a Para qu e diagonalizar la primera y segunda columna si ya la tercera y cuarta est an en forma diagonal? Pues tiene toda la raz on, simplemente est a escogiendo otra base de la matriz. La soluci on del sistema se obtiene directamente de la matriz ampliada original en la forma x3 = 52x1 x2 y x4 = 53x1 2x2 donde x1 y x2 pueden tomar cualquier valor. Que es mejor es cuesti on de gustos u otras necesidades. Por ejemplo, si se necesita substituir x1 y x2 en otras f ormulas entonces, la mejor soluci on es la primera. Si por el contrario se necesita substituir x3 y x4 en otras f ormulas entonces, la mejor soluci on es la segunda. Soluci on de ecuaciones matriciales, matriz inversa Si tenemos varios sistemas de ecuaciones lineales MN xN1 = bM1 , . . . , MN xN` = bM` todos con la misma matriz del sistema MN entonces, podemos denotar L = {1, . . . , `} y escribirlos todos en la forma MN xNL = bML . Esta ecuaci on matricial tiene la matriz ampliada [MN |bML ] y podemos aplicarle a esta matriz la eliminaci on de Gauss para resolver todos nuestros sistemas al mismo tiempo. Esto lo podremos hacer porque en la eliminaci on de Gauss no se reordenan columnas y solo se aplican transformaciones elementales a los renglones, as que no nos importa cuantas columnas halla despu es de la barra vertical. En particular, si M = N entonces, la u nica soluci on posible (si existe) a la ecuaci on 1 matricial MM xMM = IMM ser a xMM = MM . Esta es la forma en que con el m etodo de eliminaci on de Gauss se calculan las matrices inversas. Por ejemplo: ! 1 0 0 0 1 0 0 0 1 ! 1 1 0 1 0 0 0 1 0 10 1 4 0 0 1 3 0 1
1 1 0 2 3 4 3 3 1
r 2 :=r 2 2r 1 r 3 :=r 3 3r 1

r r 5 r2 :=3r2 2r1 5 5 r 1 := 1 2 2 2 1 1 0 1 0 2 1 5 0 1 3 2 5 0 1 3 2 5

1 1 0 0 1 4 0 0 1 1 0 0 0 1 0 0 0 1

r 1 :=r 1 r 2

! 1 0 0 2 1 0 3 0 1

r 2 :=r 2 4r 3

y por lo tanto

1 1 0 2 3 4 3 3 1

9 1 4 10 1 4 3 0 1

! 9 1 4 10 1 4 3 0 1
1 0 0 0 1 0 0 0 1

128

Cap tulo 4. Determinantes

Ejercicio 87 Tome un sistema de ecuaciones lineales y resuelvalo por el m etodo de


eliminaci on de Gauss. Rep ta cuantas veces le sea necesario. No est a de m as recalcar aqu que el m etodo de eliminaci on de Gauss funciona en espacios vectoriales sobre cualquier campo sea este Q, R, C, Zp u otro campo cualquiera. Solo hay que realizar las operaciones de suma, producto y divisi on como est an denidas en el campo en particular.

Captulo quinto

Polinomios
pesar de que t ecnicamente, el estudio de los polinomios no es parte del Algebra Lineal, ellos son una herramienta ineludible para la clasicaci on de las transformaciones lineales y de los productos bilineales. Es por esto que necesitamos aprender algunas de las cosas m as b asicas sobre ellos.

5.1

Polinomios sobre campos

Hay muchas maneras de ver los polinomios. La manera m as sencilla de n verlos es que un polinomio de grado n en la literal x es una expresi on X ai xi formal del tipo en el recuadro a la derecha donde los coecientes a0 , ..., an i =0 son elementos de cierto campo K y an 6= 0. Al coeciente an se le llama coeciente principal del polinomio. Todos los elementos del campo son polinomios de grado cero. Dos polinomios se consideran iguales solo cuando todos sus coecientes son iguales. Suma y producto de polinomios Aunque el lector seguramente conoce las deniciones de suma y producto de polinomios, nos parece apropiado recordar el porqu P e ide las mismas. Si interpretamos a x como un elemento del campo K entonces, ai x tambi en es un elemento del campo P K. Esto quiere decir que un polinomio dene una funci on K 3 x 7 ai xi K y en esta interpretaci on x no es una literal sino una variable. Siendo esta interpretaci on de los polinomios fundamental, necesitamos que la suma y producto de polinomios concuerde con la denici on de suma y producto de funciones (f + g) (x) = f (x) + g (x), (fg) (x) = f (x) g (x). Por esto, tenemos n n n n X X X i X (ai + bi ) xi ai xi + bi xi = ai x + bi xi =
i= 0 i =0 i =0 i =0

donde la primera igualdad se da por asociatividad y conmutatividad y la segunda por distributividad. O sea, interpretamos al polinomio como la imagen por la funci on de evaluaci on de la variable x que toma sus valores en el campo. Para el producto, usando

130

Cap tulo 5. Polinomios


m n(n,k )

donde la segunda igualdad se obtiene haciendo el cambio de variable k = i + j y usando asociatividad, conmutatividad y distributividad. Se puede saber sumar y multiplicar polinomios sin saberse estas f ormulas. Lo importante es saber aplicar sistem aticamente asociatividad, conmutatividad y distributividad para obtener el resultado deseado. El conjunto de todos los polinomios sobre un campo arbitrario K forma un anillo conmutativo (para ser campo solo le falta la existencia de inversos multiplicativos). A este anillo se lo denota por K [x]. El lector debe observar en la f ormula del producto que el coeciente principal del producto de dos polinomios es an bm xn+m . Como en un campo no hay divisores de cero entonces an bm 6= 0 y por lo tanto el grado del producto de dos polinomios es igual a la suma de sus grados. La funci on de evaluaci on Pn i Sea p (x) = i=P 0 ai x un polinomio en K [x] . Sea b un elemento arbitrario del n campo. Obviamente i=0 ai bi es tambi en un elemento del campo ya que la suma, la multiplicaci on y P las potencias est an bien denidas en un campo arbitrario. Es natural n i denotar p (b) = i=0 ai b . Esto nos da una funci on K 3 b 7 p (b) K llamada la funci on de evaluaci on del polinomio p. Rec procamente, diremos que una funci on f : K K es polinomial si existe un polinomio p (x) K [x] tal que f es la funci on de evaluaci on del polinomio p, o sea que b K se tiene que f (b) = p (b). Identicar los polinomios con las funciones polinomiales es un craso error. As por ejemplo, hay solo 4 funciones de Z2 en Z2 pero hay una cantidad innita de polinomios en Z2 [x]. Sin embargo, si el campo es innito esto no sucede. Un polinomio de grado n est a predeterminado por su evaluaci on en n + 1 diferentes elementos del campo. P i Prueba. Sea p (x) = n i=0 ai x y b0 , . . . , bn diferentes elementos del campo entonces, en forma matricial tenemos Si conocemos las evaluaciones p (b0 ) , . . . , p (bn ) entonces, para encontrar los coecientes a0 , ..., an tenemos que resolver este sistema de ecuaciones lineales. La matriz de este sistema es una matriz de Vandermonde cuyo determinante es diferente de cero
bn 0 b1 . . . bn
1 bn 0 b1 . . .

la forma general de la ley distributiva tenemos n ! m ! n n + m m X X XX X ai xi bj xj = ai bj xi+j =


i= 0 j=0 i= 0 j= 0 k =0

i=m ax(0,k m )

ai bki xk

.. .

b0 b1 . . .

1 1 . . . 1

bn

bn

an an 1 . . . a0

p (b0 ) p (b1 ) . . .

p (bn )

Secci on 5.1

Polinomios sobre campos

131

si y solo si todos los bi son diferentes (v ease el ejercicio 83). Esto quiere decir que el sistema tiene una soluci on u nica, o sea los ai est an predeterminados por los p (bi ). De este resultado se deduce f acilmente, que en el caso de campos innitos, la correspondencia entre funciones polinomiales y polinomios es biyectiva y m as a un, que esta correspondencia es un isomorsmo de anillos. Por esto, es frecuente que se identiquen los polinomios reales con las funciones polinomiales reales.
Un problema que frecuentemente aparece en aplicaciones de las matem aticas es que se tiene una funci on real de la cual no se sabe mucho salvo su valor en n puntos. Entonces esta funci on se aproxima con el u nico polinomio de grado n 1 que pasa por estos puntos. Hay diferentes f ormulas para esto pero todas son equivalentes a sacar la matriz inversa de la matriz de Vandermonde. Estas f ormulas se diferencian en que tan buenas y/o estables son computacionalmente.

Divisi on de polinomios Divisi on con Resto de Polinomios Sea q un polinomio de grado al menos 1 y sea p otro polinomio. Existen polinomios c y r tales que: 1. p = cq + r 2. El grado de r es estrictamente menor que el grado de q. P P Prueba. Sea p = ai xi un polinomio de grado n y q = bi xi un polinomio de grado m 1. Si n < m entonces poniendo c = 0 y r = p terminamos. Supongamos m n. Sea c1 como en el recuadro a la izquierda. Saxn m an cando cuentas nos podemos convencer de que el grado de r1 = p c1 q c1 = bm es estrictamente menor que el grado de p. Si el grado de r1 es menor que el grado de q entonces ya terminamos, si no entonces, haciendo c alculos similares podemos escribir r1 = c2 q + r2 y vamos disminuyendo el grado de ri hasta que este sea menor que el grado de q. Luego, existe un i tal que p = (c1 + ... + ci )q + ri y el grado de ri es estrictamente menor que el grado de q. Al polinomio c se le llama cociente de la divisi on de p entre q. Al polinomio r se le llama resto de la divisi on de p entre q. Divisibilidad Sean p y q dos polinomios. Si existe un polinomio c tal que p = cq entonces se dice que q divide a p, o que q es un divisor de p, o que p es un m ultiplo de q. Obviamente, cualquier polinomio no cero de grado cero divide a cualquier otro polinomio (en un campo hay inversos).

132

Cap tulo 5. Polinomios


Para denotar la relaci on de divisilidad entre polinomios usaremos los s mbolos a y `. O sea, p a q signica que p divide a q. Por otro lado p ` q se lee como p es m ultiplo de q.

La tradici on exige que la relaci on de divisibilidad se denote por el s mbolo |. Nosotros no seguiremos la tradici on por dos razones. Primero en este libro ese s mbolo se utiliza sistem aticamente para denotar tal que. Segundo, ese s mbolo sugiere que la relaci on es sim etrica y no lo es para nada, todo lo contrario. Sin embargo, es importante que el lector conozca esto para poder leer satisfactoriamente otros libros. Si p a q y q a p entonces existe un elemento del campo tal que p = q. Prueba. Tenemos que existen polinomios a y b tales que p = aq y q = bp y por lo tanto p = abp. El grado de la parte derecha de esta igualdad es la suma de los grados de a, b y p. As vemos que necesariamente los polinomios a y b tienen que tener grado cero, o sea, son elementos del campo. La relaci on de divisibilidad entre polinomios es obviamente reexiva y transitiva. pero no es ni sim etrica ni antisim etrica. Debido a que en un campo hay siempre inversos multiplicativos, todo polinomio p se expresa de forma u nica como p0 donde es el coeciente principal y p0 es un polinonio m onico o sea, un polinomio cuyo coeciente principal es igual a 1. Del resultado anterior se puede deducir f acilmente que la relaci on de divisibilidad entre polinomios m onicos es antisim etrica y por lo tanto es una relaci on de orden (parcial). Este simple hecho ser a fundamental para nosotros ya que frecuentemente usaremos la antisimetr a para probar que dos polinomios m onicos son iguales. Adem as, esto signica que el conjunto de polinomios con la relaci on de divisibilidad es un conjunto parcialmente ordenado y por lo tanto a el se aplican los conceptos tales como m aximo y m nimo; cotas superiores e inferiores; elementos maximales y minimales; supremos e nmos (v ease el glosario). Especial inter es tienen el supremo y el nmo los cuales para este caso se traducen como el m nimo com un m ultiplo y el m aximo com un divisor.

Ejercicio 88 Encuentre todos los divisores m onicos del polinomio (x + 1)2 (x + 2).
Organ celos de tal manera que se vea claramente la relaci on de orden entre ellos. Factores y raices Diremos que q es un factor de p si q a p, el grado de q es al menos uno y.q es m onico. Los ceros de la funci on de evaluaci on son las raices del polinomio p, o sea son los elementos del campo b tales que p (b) = 0. Al conjunto de todas las raices de p lo

Secci on 5.1

Polinomios sobre campos

133

llamaremos n ucleo de p y lo denotaremos por ker p (en ingl es n ucleo es kernel). Las raices y los factores de un polinomio est an enlazados por el siguiente resultado: Para que b sea una ra z de p es necesario y suciente que (x b) sea un factor de p. Prueba. Dividamos con resto p entre (x b). Sean c y r tales que p (x) = c (x) (x b)+ r. Como (x b) es de grado uno r tiene que ser de grado cero. Evaluando en b obtenemos p (b) = c (b) (b b) + r = r. Luego, si b es ra z entonces, r = 0 y rec procamente. Sea b una ra z del polinomio p. Si n 1 es el mayor natural tal que (x b)n es factor de p entonces a n se le llama multiplicidad de la ra z b. Es muy inc omodo trabajar con el concepto de multiplicidad. Por ejemplo, tomemos la armaci on: Si b1 y b2 son dos raices del polinomio p entonces (x b1 ) (x b2 ) es un factor de p. Esta armaci on es cierta no solo para cuando b1 6= b2 sino tambi en cuando son iguales pero la ra z tiene multiplicidad mayor que 2. Es mucho m as c omodo pensar que si una ra z tiene multiplicidad n entonces hay n diferentes raices todas del mismo valor. Este abuso del lenguaje ser a com un en este libro y a partir de ahora no tendremos necesidad de usar continuamente el concepto de multiplicidad. Le dejamos al lector interesado la desagradable tarea, de ajustar los hechos expuestos a un lenguaje m as riguroso. Ahora el n ucleo de un polinomio no es exactamente un conjunto sino una colecci on de elementos del campo en la cual por ejemplo puede haber elementos repetidos. As 3 2 tenemos Ker x 6x + 9x 4 = {1, 1, 4}. Ajustada nuestra terminolog a, podemos establecer una importante consecuencia del resultado anterior. Un polinomio de grado n 1 tiene a lo m as n raices. Prueba. Si elQ polinomio p tiene como raices a b1 , . . . , bn +1 entonces p tiene, por 5.4, +1 como factor a n i=1 (x bi ) que es un polinomio de grado n + 1. Esto contradice que p tiene grado n. Ideales de polinomios Un conjunto I de polinomios se llama ideal si se cumplen las dos siguientes propiedades: Si p, q I entonces p + q I. Si p I y r K [x] entonces rp I. En otras palabras, la suma es una operaci on binaria dentro del ideal y cualquier

134

Cap tulo 5. Polinomios

m ultiplo de un elemento del ideal tambi en est a en el ideal. Los ideales m as sencillos son los que se forman tomando todos los m ultiplos de un polinomio jo p. Si qp y q0 p son dos tales m ultiplos entonces qp + q0 p = (q + q0 ) p tambi en es un m ultiplo de p. Esto demuestra la propiedad 1. La propiedad 2 se cumple obviamente. Estos ideales se les llama ideales principales. Lo asombroso es que todo ideal es as . Todo ideal de polinomios es principal.

Prueba. Sea I un ideal. Sea ahora m un polinomio no nulo de grado m nimo tal que m I y denotemos por el conjunto de todos los m ultiplo de m o sea, Im = {m | K [x]}. Por denici on de ideal se tiene que Im I. Probemos que Im I. Efectivamente, si g I entonces dividiendo g entre m obtenemos polinomios c, r tales que g = cm + r donde el grado de r es menor que el grado de m. Tenemos r = g cm y por denici on de ideal r I. De la minimalidad del grado de m obtenemos r = 0. y por lo tanto g = cm Im . Esto prueba que Im = I o sea, que I es principal. Observese que facilmente podemos denir los ideales en cualquier anillo conmutativo. Sin embargo, no siempre cualquier ideal es principal. Este es el caso por ejemplo, para el anillo de polinomios de dos variables K [x, y]. Una primera consecuencia de 5.6 es el Teorema de Bezout, el cual tendremos much simas oportunidades para utilizarlo. Teorema de Bezout Sean p y q dos polinomios sin factores comunes. Existen polinomios y tales que p + q = 1.

Prueba. Denotemos por Ipq = {p + q | , K [x]}. Probemos que Ipq es un ideal. Veamos primero que la suma de elementos de Ipq est a en Ipq . Efectivamente, 0 0 0 (p + q) + ( p + q) = ( + ) p + ( + 0 ) q = 00 p + 00 q ultiplos de los donde 00 = ( + 0 ) y 00 = ( + 0 ). Ahora, comprobemos que los m 0 elementos de Ipq est an en Ipq . Tenemos, (p + q) = p + q = p + 0 q donde 0 0 = y = y con esto concluimos que Ipq es un ideal. Como todo ideal de polinomios es principal, existe m tal que Ipq = {m | K [x]}. Como p, q Ipq , existen polinomios y tales que p = m y q = m. Como p y q no tienen factores comunes, esto signica que m es de grado cero y por lo tanto Ipq = K [x]. En particular, 1 Ipq .

Secci on 5.1

Polinomios sobre campos

135

Etienne Bezout (Francia, 1730-1783). Famoso en su epoca sobre todo por los seis vol umenes de su libro de texto Cours complet de math ematiques a ` lusage de marine et de lartillerie que por muchos a nos fueron los libros que estudiaban los que aspiraban a ingresar a la Ecole Polytechnique. Su investigaci on matem atica la dedic o al estudio de los determinantes y de las soluciones de ecuaciones polinomiales.

Ejercicio 89 Demuestre el teorema de Bezout para Z: Sean p y q dos enteros sin


factores comunes. Entonces, existen dos enteros y tales que p + q = 1. [247] Ejercicio 90 Demuestre que si p y q son dos polinomios tales que el m aximo com un divisor de p y q es r entonces, existen polinomios y tales que p + q = r. [247] Unicidad de la factorizaci on en irreducibles. Diremos que un factor q es factor propio del polinomio m onico p, si p 6= q. Un polinomio se le llama irreducible si este es m onico, tiene grado al menos 1 y no tiene factores propios. En otras palabras, cuando no se puede descomponer no trivialmente en producto de dos factores. Cualquier polinomio p se puede descomponer como p1 p2 . . . pn donde es su coeciente principal y p1 pn son polinomios irreducibles. La prueba de esto es obvia. Si un polinomio no es irreducible puedo descomponerlo en producto de dos factores. Si estos factores no son irreducibles puedo descomponer en factores cada uno de ellos y as sucesivamente llegamos a factores irreducibles. Si p y q son dos polinomios y r es un factor irreducible de pq entonces r es un factor de p o de q. Prueba. Supongamos que r no es un factor de p y probemos que es un factor de q. Como r es irreducible p y r no tienen factores comunes. Por el teorema de Bezout existen polinomios y tales que r + p = 1. Multiplicando por q obtenemos que rq + pq = q. Como la parte izquierda de esta igualdad se divide entre r entonces r es un factor de q. Sea p = p1 pn una descomposici on en factores irreducibles de p. Si q es cualquier factor irreducible de p entonces, q es igual a alguno de los pi . Prueba. Por inducci on en n. Si n = 1 entonces q divide a p1 y como p1 y q son irreducibles obtenemos que p1 = q. Sea n > 1. Por 5.8 o q es un factor de pn o q es un factor de p1 pn1 . En el primer caso q = pn y en el segundo el resultado se sigue por hip otesis de inducci on.

136

Cap tulo 5. Polinomios

Teorema de Factorizaci on de Polinomios Cualquier polinomio p se descompone como p1 p2 . . . pn donde es su coeciente principal y p1 pn son polinomios irreducibles. Esta descomposici on es u nica salvo el orden de los factores. Prueba. Solamente debemos probar la unicidad. Adem as, sacando como factor el coeciente principal podemos suponer que p es m onico. Si p es de grado 1 entonces no hay nada que probar ya que entonces p es irreducible y la u nica descomposici on de p es el mismo. Supongamos que el teorema es cierto para cualquier polinomio de grado estrictamente menor que k. Sea p m onico de grado k que tiene dos descomposiciones en irreducibles p1 . . . pn = p01 . . . p0m . Como pn es irreducible entonces de 5.9 obtenemos que tiene que existir un j tal que pn es un factor de p0j . Como p0j es irreducible p0j = pn . Luego, para p/pn = p/p0j tenemos dos descomposiciones que por hip otesis de inducci on son iguales salvo orden. El conjunto ordenado de polinomios m onicos

jm 1 j2 Sea p = pj on factores irreducibles 1 p2 . . . pm la descomposici del polinomio m onico p. Entonces, todos los divisores m onicos k1 k2 km de p son de la forma p1 p2 . . . pm con 0 ki ji . jm 1 j2 Prueba. Sea q un divisor m onico de p = pj 1 p2 . . . pm . Por el resultado 5.9 y la transitividad de la relaci on de divisibilidad cualquier factor irreducible de q es factor km 1 k2 irreducible de p y por lo tanto q = pk 1 p2 . . . pm para ciertos ki 0. Supongamos k1 jm 2 que k1 > j1 . Entonces como p1 no divide a pj 2 . . . pm obtenemos que p1 no divide a p. Esto contradice que q divide a p. Este mismo argumento funciona si suponemos que para cierto i se tiene que ki > ji .

Sean p y q dos polinomios m onicos. Sea {p1 , . . . , pm } el conjunto de los polinomios irreducibles que son factores de p o de q. Entonces por el Teorema de Factorizaci on k1 jm km 1 de Polinomios encontramos descomposiciones u nicas p = pj . . . p y q = p . . . p m m 1 1 donde los exponentes son naturales algunos posiblemente iguales a cero. k1 jm km 1 onicos descompuestos Si p = pj 1 . . . pm y q = p1 . . . pm son dos polinomios m m ax(j1 ,k 1 ) m ax(j ,k ) . . . pm m m es el de la manera anterior, entonces de 5.11concluimos que p1 m n(j ,k ) m n(j ,k ) m nimo com un m ultiplo de p y q; y que p1 1 1 . . . pm m m es el m aximo com un divisor de p y q. Esto prueba que cualesquiera dos polinomios tienen m aximo com un divisor y m nimo com un m ultiplo. Este mismo argumento se puede usar para convencernos de que cualquier conjunto nito de polinomios tiene m nimo com un m ultiplo y m aximo com un divisor.Este asunto

Secci on 5.1

Polinomios sobre campos

137

es un poco m as complejo cuando el conjunto de polinomios es innito. As por ejemplo, el conjunto de polinomios x, x2 , x3 , . . . no tiene m nimo com un m ultiplo. Sin embargo, cualquier conjunto de polinomios (nito o innito) si tiene m aximo com un divisor. La prueba de este hecho es en esencia la misma que la anterior, solo hay que observar que cualquier conjunto de naturales (nito o inn to) tiene m nimo.

Ejercicio 91 Pruebe que cualquier conjunto de polinomios m onicos tiene m aximo


com un divisor. m Ejercicio 92 Sea p = pj11 pj22 . . . pjm la descomposici on factores irreducibles del polinomio m onico p. Cuantos divisores m onicos tiene p? Desarrollo de Taylor Brook Taylor (Inglaterra 1685-1731). Entre las contribuciones de este matem atico, se destacan: La invenci on de la rama de las matem aticas que hoy en d a se conoce como C alculo en Diferencias, la invenci on de la integraci on por partes, y la f ormula llamada por su nombre. En 1772 Lagrange proclam o esta f ormula como el principio b asico del c alculo diferencial. A esta f ormula, enunciada en la siguiente proposici on, se le llama Desarrollo de Taylor alrededor del punto x0 . Como el lector sabe de los cursos de c alculo, este desarrollo es mucho m as general y se cumple en cierta clase de funciones. Sin embargo para polinomios, su demostraci on es independiente del campo y puramente algebraica (no requiere del concepto de continuidad). Desarrollo de Taylor Para cualquier polinomio p (x) y cualquier elemento del campo x0 existen unos u nicos coecientes 0 , 1 , . . . , n tales que p (x) = 0 + 1 (x x0 ) + + n (x x0 )n . P Prueba. Sea p (x) = ak xk un polinomio de grado n. Si x0 = 0 entonces, k = ak . Supongamos que x0 6= 0. Por el binomio de Newton tenemos n ! j n n n X X X X X j j k j j k j k x (x0 ) = (x0 ) j xk j (x x0 ) = j k k j= 0 j =0 k=0 k=0 j =k

y para encontrar los coe cientes j tenemos el sistema de ecuaciones lineales ak = Pn j k j . Observese que bkk = 1 por lo que la matriz de j=k bkj j donde bkj = k (x0 ) nuestro sistema de ecuaciones es triangular con unos en la diagonal y por lo tanto su determinante es distinto de cero. Luego, el sistema tiene soluci on u nica. En otras palabras el desarrollo de Taylor para polinomios lo que arma es que

138 Cap tulo 5. Polinomios 1, (x x0 ) , (x x0 )2 , . . . es una base del espacio vectorial de polinomios. Esto no es algo muy notable. Lo que s es notable es la forma que toman los coecientes i en t erminos de las derivadas del polinomio (v eanse los ejercicios que siguen).

Ejercicio 93 Pruebe que si P = {p0 , p1 , p2 , . . .} es un conjunto de polinomios tales que


i N el grado de pi es i entonces, P es una base del espacio vectorial de polinomios. P jk j i ( ) Ejercicio 94 Demuestre que la expresi on i 1 es igual a la funci on j =k k j delta de Kronecker ik o sea, es cero si i 6= k y es uno si i = k. [247] Ejercicio P 95 Demuestre que los coecientes del Desarrollo de Taylor (5.12) del Pn i jij k polinomio ak x son iguales a j = i=j j ai x0 . [248]

Ejercicio 96 Pruebe que los coecientes j del Desarrollo de Taylor (5.12) del polinomio p (x) son iguales a p(j) (x0 ) /j! donde p(j) (x) denota el polinomio derivado j veces. [248]

5.2

Polinomios complejos. Teorema de Gauss

Johann Carl Friedrich Gauss (Alemania 1977-1855) fu e el m as grande matem atico de su epoca. Este teorema que lleva su nombre fu e demostrado por primera vez en su tesis doctoral (1799). Este teorema es conocido como el teorema fundamental del a lgebra. En este libro hemos mencionado otros resultados de Gauss y cualquiera que se dedique a estudiar matem aticas, estad sticas, f sica o astronom a oir a de este cient co en m as de una ocasi on. En esta secci on demostraremos que el campo de los n umeros complejos es algebraicamente cerrado. Como esta demostraci on no es algebraica sino anal tica necesitaremos introducir algunos conceptos b asicos de an alisis complejo. Para esto, presupondremos que el lector conoce los correspondientes conceptos de an alisis real. Si bi en, el contenido de esta secci on no es b asico para la comprensi on del a lgebra lineal, por otro lado, si es fundamental que el lector conosca a la perfecci on el enunciado del teorema de Gauss: todo polinomio complejo de grado al menos 1 tiene una ra z.

Forma polar. Igualdad de Moivre

Secci on 5.2

Polinomios complejos. Teorema de Gauss

139

Todo n umero complejo z se puede representar en la forma polar z = r (cos + i sin ) donde r es la longitud del vector 0z en el plano complejo y es el angulo que forma dicho vector con el eje real de este plano (vease la gura). Al n umero r se le llama m odulo del n umero complejo y es com un que se denote por kzk. Al a ngulo se le llama argumento del n umero complejo. La forma polar hace mucho m as f acil calcular el producto y las potencias de n umeros complejos. Para hallar el producto de dos n umeros complejos hay que multiplicar sus m odulos y sumar sus argumentos.

r r cos

r sin

Prueba. Sean r (cos + i sin ) y (cos + i sin ) dos complejos. Tenemos r (cos + i sin ) (cos + i sin ) = r ((cos cos sin sin ) + (cos sin + cos sin ) i) = r (cos ( + ) + i sin ( + )) que es lo que se necesitaba probar. Aplicando este resultado al caso de la potencia de n umeros complejos obtenemos la igualdad mostrada en el recuadro a la izquierda. Esta igualdad se conoce como la Igualdad de Moivre. Una de sus consecuencias m as importantes es el siguiente resultado. zn = rn (cos n + i sin n) Los polinomios zn a tienen exactamente n raices complejas. umePrueba. Sea a = r (cos + i sin ). Para k {0, 1, ..., n 1} denotemos xk el n ro complejo con m odulo n r y argumento ( + 2k) /n. Por la Igualdad de Moivre tenemos n + 2k + 2k n n cos n + i sin n = r (cos + i sin ) = a r xk = n n que es lo que se necesitaba probar. Abraham de Moivre (Francia 1667-1754). Uno de los fundadores de la Geometr a Anal tica y de la Teor a de las Probabilidades. A pesar de su exelencia cient ca, nunca tuvo la oportunidad de tener un puesto en alguna universidad. Sus ingresos proven an de dar clases privadas de Matematicas y muri o en la pobreza. Moivre tambi en es famoso por haber predicho el d a de su muerte. Descubri o que dorm a 15 minutos m as cada noche y sumando la progresi on aritm etica calcul o que morir a en el d a que dormir a 24 horas. Tuvo raz on!

140

Cap tulo 5. Polinomios

Ejercicio 97 Pruebe que el conjunto de raices complejas del polinomio zn 1 es un


grupo para el producto. Que grupo es este? [248]

Continuidad

Una funci on f : C C es continua en el punto z0 si para todo real positivo existe otro real positivo tal que se cumple que (kz z0 k < ) (kf (z) f (z0 )k < ). Una funci on continua en todo punto del plano complejo se le llama continua. La funci on m odulo z 7 kzk es continua.

Prueba. Veamos la desigualdad kz z0 k kkzk kz0 kk. Esta desigualdad es equivalente a la siguiente: En un tri angulo el valor absoluto de la diferencia de dos de sus lados siempre es menor o igual que el tercero. La prueba de esta la dejaremos en calidad de ejercicio. Por esta desigualdad, tenemos que > 0 = tal que si kz z0 k < entonces, kkzk kz0 kk kz z0 k < y esto prueba nuestra tesis.

Ejercicio 98 Pruebe que en un tri angulo el valor absoluto de la diferencia las longitudes de dos de sus lados siempre es menor o igual que la longitud del tercero. [248]

La suma y el producto de funciones continuas en un punto z0 son continuas en el punto z0 . Prueba. Sean f y g funciones continuas en z0 . Con el objetivo de ahorrar espacio denotemos fz = f (z), f0 = f (z0 ), gz = g (z) y g0 = g (z0 ). Para todo > 0 existen 1 y 2 tales que (kz z0 k < 1 ) (kfz f0 k < ) (kz z0 k < 2 ) (kgz g0 k < ) y en particular para el m nimo (que llamaremos ) de 1 y 2 se cumplen las dos desigualdades a la derecha. Sumando y aplicando la desigualdad del tri angulo obtenemos: = 2 > kfz f0 k + kgz g0 k kfz f0 + gz g0 k = k(f + g) (z) (f + g) (z0 )k Luego, para todo > 0 existe tal que (|z z0 | < ) |(f + g) (z) (f + g) (z0 )| < con lo que se prueba que la suma de continuas es continua.

Secci on 5.2

Polinomios complejos. Teorema de Gauss

141

Por otro lado, por la desigualdad del tri angulo y 5.13 tenemos k(fg) (z) (fg) (z0 )k = kfz gz f0 g0 k = k(fz f0 ) (gz g0 ) + (fz f0 ) g0 + (gz g0 ) f0 k kfz f0 k kgz g0 k + kfz f0 k kg0 k + kgz g0 k kf0 k < < 2 + |g0 | + |f0 | < (1 + |g0 | + |f0 |) = c = donde la u ltima desigualdad se da para < 1. Como c es una constante que no depende de z obtenemos que para todo > 0 existe tal que (|z z0 | < ) |(fg) (z) (fg) (z0 )| < lo que prueba que el producto de continuas es continua. Para cualquier polinomio complejo p la funci on de evaluaci on C 3 z 7 p (z) C es continua.

Prueba. La funci on de evaluaci on de un polinomio se obtiene usando sumas y productos de funciones constantes y la funci on identidad f (z) = z. Estas funciones son continuas y de 5.16 obtenemos la prueba. Sea g una funci on continua en el punto z0 y f una funci on continua en el punto g (z0 ) entonces, la composici on f g es continua en el punto z0 . Prueba. Por la continuidad de f en g (z0 ) tenemos que > 0 (kz g (z0 )k < ) kf (z) f (g (z0 ))k < . Por otro lado, de la continuidad de g en z0 sabemos que > 0 0 (ky z0 k < 0 ) kg (y) g (z0 )k < . Componiendo estas dos propiedades obtenemos > 0 0 (ky z0 k < 0 ) kf (g (y)) f (g (z0 ))k < que es lo que necesitabamos. El m odulo de un polinomio es una funci on continua. Prueba. Por 5.18 y porque los polinomios y el m odulo son funciones continuas. L mite de sucesiones complejas mite z = a + bi si las Una sucesi on de n umeros complejos {zj } = {aj + bj i} tiene l sucesiones reales {aj } y {bj } tienen l mites a a y b respectivamente. Esto es equivalente a que los m odulos y los argumentos de la sucesi on converjan al m odulo y al argumento del l mite. Tambi en, esto es equivalente a que > 0 N tal que k > N kzk zk < . Una sucesi on es convergente si esta tiene l mite. Por una propiedad an aloga para las sucesiones reales se tiene que toda subsucesi on de una sucesi on convergente es convergente y converge al mismo l mite. Una sucesi on {zj } = {aj + bj i} es acotada si ambas sucesiones {aj } y {bj } son acotadas. Esto es equivalente a que la sucesi on

142

Cap tulo 5. Polinomios

real {kzj k} sea acotada. Es claro que una sucesi on no acotada no puede tener l mite. Tambi en, que toda sucesi on acotada tiene una subsucesi on convergente pues esta misma propiedad se cumple para sucesiones reales. Expongamos otras dos propiedades que son un poco m as dif ciles de probar. Sea f una funci on continua en z0 y {zk } una sucesi on de n umem f (zk ) = f (l m zk ). ros complejos que converge a z0 . Entonces, l Prueba. Como f es continua en z0 y l m zk = z0 entonces tenemos que > 0 (kz z0 k < ) (kf (z) f (z0 )k < ) . > 0 N (k > N) (kzk z0 k < ) Por la transitividad de la implicaci on obtenemos que > 0 N (k > N) kf (zk ) f (z0 )k < y esto quiere decir que l m f (zk ) = f (z0 ). Si {zk } es no acotada y p es un polinomio de grado al menos 1 entonces, la sucesi on {kp (zk )k} es no acotada. Prueba. tenemos Sea p (z) un polinomio de grado n > 1. Por la desigualdad triangular,

Como {zk } no es acotada, tampoco lo son {kan k kzk k } y {kp (zk )k}. Teorema de Gauss

n n n 1 X X i X i n kp (z)k kai k kzk = kan k kzk + kai k kzki kan k kzkn ai z = i= 0 i =0 n i =0

Ya estamos listos para demostrar el Teorema de Gauss pero antes, veamos un resultado preliminar que hace la mayor a del trabajo. Sea p un polinomio complejo de grado al menos 1. Si z0 no es una ra z de p entonces, existe z C tal que kp (z)k < kp (z0 )k. Prueba. Hagamos el desarrollo de Taylor de p (z) alrededor del punto z0 . Tenemos n n X X p (z) = j (z z0 )j = p (z0 ) + j (z z0 )j
j =0 j =1

ya que 0 = p (z0 ) . Sea k el primero de los {j | j > 0} diferente de cero y escojamos ease 5.14) de las raices de la ecuaci on k xk + p (z0 ) = 0 z = z0 + t donde es una (v y t es un real tal que 0 < t < 1 que deniremos despues. Por la denici on de , z y k

Secci on 5.2
tenemos

Polinomios complejos. Teorema de Gauss


k k n X n X k j t = p (z0 ) 1 t + j j tj j j j= k + 1

143

p (z) = p (z0 ) + k t +

j =k +1

y por lo tanto, de la desigualdad del tri angulo obtenemos: n X j j k j t = kp (z0 )k + tk q (t) kp (z)k 1 t kp (z0 )k +
j =k +1

n X j j k donde q (t) denota el polinomio (con coecientes rej t k p ( z ) k + 0 ales) del recuadro a la derecha. Observemos que se j =k +1 cumple la desigualdad q (0) = kp (z0 )k < 0. Por continuidad (de los polinomios reales) existe un t0 > 0 sucientemente peque no k tal que q (t0 ) < 0. Luego, kp (z0 + t0 )k kp (z0 )k + t0 q (t0 ) < kp (z0 )k.

Ejercicio 99 Donde se usa en la demostraci on anterior que t < 1? [248]


Teorema de Gauss Todo polinomio de grado mayor que cero tiene al menos una ra z compleja. Prueba. Sea p un polinomio. Denotemos A = {kp (z)k : z C}. El conjunto A es un conjunto de reales acotado inferiormente pues kp (z)k 0. Luego (por un teorema cl asico de an alisis matem atico), A tiene un nmo que denotaremos por . Demostremos que es el m nimo o sea, que A. Como es nmo hay una sucesi on {aj } de elementos de A que converge a y por lo tanto hay una sucesi on de complejos {zj } tales que l m kp (zj )k = . Si la sucesi on {zj } no estuviera acotada entonces, por a lo que contradice que esta sucesi on converge 5.21 la sucesi on {kp (zj )k} tampoco lo ser a . Luego, {zj } es acotada y podemos escoger una subsucesi on convergente que podemos suponer la misma. Denotemos y = l m zj . Como el m odulo de un polinomio es una m zj )k = kp (y)k. funci on continua entonces, por 5.20 tenemos = l m kp (zj )k = kp (l Luego, A. Si 6= 0 entonces, por 5.22 existir a un y0 tal que kp (y0 )k < kp (y)k = lo que contradice que es el m nimo de A. Luego, kp (y)k = 0 y por lo tanto p tiene una ra z.

144

Cap tulo 5. Polinomios Factorizaci on de polinomios complejos y reales

5.3

En esta secci on utilizaremos el teorema de Gauss para averiguar cuales son todos los polinomios irreducibles con coecientes complejos y los polinomios irreducibles con coecientes reales. Esto nos dar a la posibilidad de encontrar la descomposici on en factores ( unica salvo orden de los factores) de los polinomios complejos y reales. Caso Complejo Clasicaci on de los polinomios complejos irreducibles Los polinomios complejos irreducibles son exactamente los m onicos de grado uno. Prueba. Al absurdo supongamos que un polinomio irreducible tiene grado mayor que uno. Por el Teorema de Gauss (5.23) este polinomio tiene una ra z . Por 5.4 el polinomio se divide entre (x ) y esto contradice que el polinomio es irreducible. Este resultado nos da la posibilidad de factorizar completamente los polinomios complejos. Por el Teorema de Factorizaci on de an (x j )n j Polinomios (5.10) cada polinomio complejo p ( x ) se tiene que desj =1 componer como en el recuadro a la izquierda. En esta f ormula, an es el coeciente principal del polinomio. Los complejos j son las diferentes raices de P p (x). El natural nj es la multiplicidad de la ra z j y n = ni es el grado de p (x). Nuevamente, por el Teorema de Factorizaci on de Polinomios (5.10) esta descomposici on es u nica salvo orden de los factores.
k Q

Caso real Recordemos que si a+bi es un n umero complejo entonces su =z el complejo 1. z R z complejo conjugado es abi. Denotaremos por z +u conjugado del n umero complejo z. Es f acil comprobar que la 2. z + u = z 3. zu = z u operaci on de conjugaci on cumple las propiedades del recuadro a la derecha. Las propiedad 1 es trivial de la denici on. Las propiedades 2 y 3 signican que la conjugaci on compleja es un automorsmo del campo de los n umeros complejos.

Ejercicio 100 Demuestre que la conjugaci on es un automorsmo. [248]

Sea p un polinomio con coecientes reales y una ra z es tambi compleja de p. Entonces en una ra z de p.

Secci on 5.3 Factorizaci on de polinomios complejos y reales

145

P Prueba. Como es ra z de p = ai xi y por las propiedades de la conjugaci on tenemos X X X = i = i ai i = ai ai 0=0 que es lo que se quer a probar. Clasicaci on de los polinomios reales irreducibles Si p es un polinomio real irreducible entonces p es de la forma x o es de la forma (x a)2 + b2 con b 6= 0. Prueba. Si p es de grado 1 entonces necesariamente es igual a x para cierto n umero real . Si p es de grado 2 entonces por el teorema de Gauss este tiene un factor x para cierto complejo. Si fuera real esto contradecir a que p es irreducible. Luego, = a + bi con b 6= 0. Por la proposici on anterior a bi tambi en es una ra z de p por lo que p (x) = (x (a + bi)) (x (a bi)) = (x a)2 + b2 Si p es de grado al menos 3 entonces, por el teorema de Gauss este tiene una ra z compleja . Si fuera real entonces x ser a un factor de p. Si = a + bi con b 6= 0 entonces (x a)2 + b2 ser a un factor de p. En ambos casos se contradice la suposici on de que p es irreducible. Ahora, ya podemos descomponer completamente en factores los polinomios con coecientes reales. Cada polinomio real p (x) se tiene que expresar como: p (x) = an
k Y j =1

(x j )nj

k m ` Y (x a` )2 + b2 ` `=1

En esta f ormula, an es el coeciente principal del polinomio. Los n umeros reales j son las diferentes raices reales de p (x). El n umero natural nj es la multiplicidad de la ra z j . Los n umeros complejos (a` + b` i) y (a` b` i) son las diferentes raices complejas de p (x). El n umero m` es la multiplicidad de la ra z compleja (a` + b` i). P natural P Obviamente, n = ni + 2 m` es el grado de p (x). Nuevamente, por el Teorema de Factorizaci on de Polinomios (5.10) esta descomposici on es u nica salvo orden de los factores. La diferencia fundamental entre los n umeros reales y los n umeros complejos se expresa de manera muy evidente en los resultados de esta secci on. Esta diferencia har a que posteriormente nos sea mucho m as f acil clasicar los operadores lineales en un espacio vectorial complejo que en un espacio vectorial real. En general, todo es m as f acil para los campos que cumplen el Teorema de Gauss o sea, los campos algebraicamente cerrados.

146

Cap tulo 5. Polinomios Campos de fracciones. Funciones racionales

5.4

Sea (A, +, ) un anillo conmutativo y denotemos por 0 el neutro aditivo y por 1 el neutro multiplicativo respectivamente . Queremos construir un campo que contenga a A. Esta es una situaci on an aloga a cuando construimos el campo de los racionales Q para que contenga al anillo conmutativo Z . Funcionar a esta misma construcci on en el caso general? Investiguemos para lograr una respuesta. Campos de fracciones Lo primero es denir las fracciones. Consideremos con- a c = (ad = bc) junto de todas las fracciones a/b donde a A y b b d A \ {0}. Dos fracciones las consideraremos iguales si se cumple la igualdad en el recuadro a la derecha.

Ejercicio 101 Pruebe que la igualdad de fracciones es una relaci on de equivalencia.


[248] Ahora, necesitamos denir las operaciones entre fracciones. Primero el producto porque es el m as f acil. Denamos el producto por la f ormula en el recuadro a la izquierda. Nos tenemos que convencer primero de que esta denici on es correcta. O sea que si las fracciones son iguales sus productos son iguales. M as precisamente, necesitamos ver que se cumple lo siguiente: a a0 c ac c0 a0 c0 = 0 y = 0 = b b d d bd b0 d0 y efectivamente de las hip otesis de esta implicaci on tenemos ab0 = a0 b , cd0 = c0 d y multiplicando estas dos igualdades obtenemos acb0 d0 = a0 c0 bd, lo que es equivalente a la tesis de la implicaci on. Este producto es conmutativo y asociativo ya que ambas propiedades se cumplen en los numeradores y en los denominadores. La fracci on 1/1 es neutro para el producto y cualquier fracci on a/b donde a 6= 0 tiene inverso multiplicativo b/a ya que ab/ba = 1/1 por la conmutatividad del producto en A. Todo esto signica que el conjunto de fracciones con numerador distinto de cero forman un grupo conmutativo. Denamos ahora la suma de fracciones por la f ormula en el a c ad + cb recuadro a la derecha. Para convencernos que la denici on es b + d = bd correcta tenemos que probar que las sumas de fracciones iguales son iguales. O sea que: a a0 c ad + cb a0 d0 + c0 b0 c0 = 0 y = 0 = b b d d bd b0 d0 y efectivamente haciendo algunos c alculos inteligentes obtenemos 0 0 ab = a b 0 = (ab0 a0 b) dd0 = (ad + cb) b0 d0 = cd0 = c0 d = (c0 d cd0 ) bb0 = 0 = (a0 d0 + c0 b0 ) bd ac ac = b d bd

Secci on 5.4

Campos de fracciones. Funciones racionales

147

que era lo que se necesitaba probar. La comprobaci on de que esta suma es conmutativa es obvia. La asociatividad se comprueba calculando que a c u adv + cbv + ubd + + = b d v bdv independientemente del orden en que se haga la suma. La fracci on 0/1 es neutro para la suma y cualquier fracci on a/b tiene opuesto a/b (para esto u ltimo es necesario observar que 0/1 = 0/v para todo v 6= 0). Luego, el conjunto de todas las fracciones es un grupo abeliano respecto a la suma. Solo nos falta la distributividad para comprobar que las fracciones con las operaciones denidas forman un campo y esto se comprueba con los siguientes c alculos: uad + ucb uad ucb ua uc u a u c u a c + = = + = + = + . v b d vbd vbd vbd vb vd vb vd Por u ltimo observemos que si identicamos al elemento a A con la fracci on a/1 podemos pensar que el anillo A es un subconjunto de las fracciones ya que que la suma y el producto de estas fracciones coinciden con la suma y el producto dentro de A. Hemos hecho todas estas pruebas detalladamente para no equivocarnos al armar que esto que hemos demostrado sirve para cualquier anillo conmutativo. El lector deber a analizar cuidadosamente cada igualdad en los razonamientos anteriores para convencerse de que todas ellas se desprenden de los axiomas de anillo conmutativo y de las deniciones de las operaciones entre fracciones. Al conjunto de todas las fracciones con las operaciones as denidas se le llama el campo de fracciones del anillo conmutativo A. MENTIRA, no hay tal campo de fracciones para cualquier anillo conmutativo. Puede usted encontrar el error? Si cree que puede regrese arriba y b usquelo, si no, siga leyendo. El problema es el siguiente. Al denir el producto (a/b) (c/d) = (ac/bd) con b y d distintos de cero supusimos que necesariamente bd es DISTINTO DE CERO. Esto no es cierto en cualquier anillo conmutativo, por ejemplo en Z6 tenemos 2 3 = 0. Si en el anillo hay tales elementos no podemos denir adecuadamente el producto de fracciones (tampoco la suma). Ya vimos, que si un anillo conmutativo es tal que para cualesquiera b y d distintos de cero se tiene que bd es distinto de cero entonces, se dice que este anillo es un dominio de integridad. Ahora si, todo dominio de integridad tiene su campo de fracciones. El ejemplo evidente de dominio de integridad es Z. Su campo de fracciones es Q. Funciones racionales

El ejemplo por el cual hemos escrito esta secci on es el siguiente:

148

Cap tulo 5. Polinomios


Todo anillo de polinomios con coecientes en un campo es un dominio de integridad.

Prueba. Tenemos que probar que el producto de dos polinomios diferentes de cero es diferente de cero (recuerdese que un polinomio es cero cuando todos sus coecientes son cero). P Pm i i Sean p (x) = n a x y q ( x ) = polinomios cualesquiera de grados n i i= 0 i=0 bi x dos P + m i y m respectivamente. Denotemos p (x) q (x) = n ormula del producto i=0 ci x . Por la f de polinomios, tenemos cn+m = an bm . Como an 6= 0, bm 6= 0 y todo campo es dominio de integridad obtenemos cn+m 6= 0 y por lo tanto p (x) q (x) 6= 0.
Observese que en la demostraci on no se us o el hecho de que en el campo K hay inversos multiplicativos. Eso quiere decir que de hecho, hemos demostrado algo mucho m as fuerte: Los anillos de polinomios con coecientes en un dominio de integridad son dominios de integridad.

Como el anillo de polinomios K [x] es un dominio de integridad este tiene su campo de fracciones que se denota por K (x) . N otese la diferencia entre K [x] y K (x). A los elementos de K (x) se les llama funciones racionales (en la variable x). Las funciones racionales son fraciones de polinomios p (x) /q (x) que se suman y multiplican mediante las reglas a las que todos estamos acostumbrados.

Ejercicio 102 Conoce usted un campo innito de caracter stica 2? [249] Ejercicio 103 Que pasa si construimos el campo de fracciones de un campo? [249]

5.5

Formas

Esta es una secci on que es practicamente solo de deniciones. El objetivo de esta es familiarizar al lector con el concepto de forma como cierto tipo de polinomios de muchas variables. De las distintas propiedades de las formas nos acuparemos cuando en el cap tulo 7 estudiemos los funcionales. Las formas son en cierto sentido el caso particular de los funcionales cuando en un espacio vectorial de dimensi on nita se se escoge una base. Polinomios de muchas variables Denamos los polinomios de muchas variables. Sea K un campo y {x, y, . . . , z} un conjunto nito de variables (hay muchas maneras de interpretarlas: indeterminadas, letras, etc). Un monomio es una expresi on del tipo xi yj . . . zk donde K y i, j, . . . , k son n umeros naturales. Al n umero se le llama coeciente del monomio y puede ser cero. Dos monomios se consideran iguales al reordenar sus factores, o sea se asume

Secci on 5.5

Formas

149

que el producto de variables es conmutativo. Dos monomios se multiplican mediante i j la regla x y . . . zk x` ym . . . zn = () xi+` yj+m . . . zk+m la cual es consecuencia de la conmutatividad (asumida por denici on) de las variables. i j k Si 6= 0 entonces el grado del monomio x y . . . z es por denici on i + j + + k. Un polinomio es la suma formal de un conjunto nito de monomios. El producto de polinomios se dene postulando que este es asociativo, conmutativo y distributivo respecto a la suma. Esto reduce el c alculo del producto de polinomios al c alculo de productos de monomios. El grado de un polinomio es el m aximo de los grados de sus monomios. De esta manera el conjunto de todos los polinomios K [x, y, . . . , z] en las variables {x, y, . . . , z} con coecientes en K es por denici on un anillo conmutativo. Las reglas mediante las cuales se suman y multiplican polinomios son las que todos estamos acostumbrados desde ya hace mucho tiempo. Los anillos de polinomios en muchas variables comparten muchas propiedades con el anillo de polinomios en una sola variable. En particular K [x, y, . . . , z] es un dominio de integridad y en K [x, y, . . . , z] se cumple la unicidad de la descomposici on en factores irreducibles. Sin embargo, K [x, y] es esencialmente mucho m as complicado que K [x] y esto se debe fundamentalmente a que no todo ideal en K [x, y] es principal.

Ejercicio 104 Encuentre un ideal de K [x, y] que no es principal. [249]


La evaluaci on de un polinomio Cada polinomio p (x) en K [x] nos da una funci on p : K 3 7 p () K substituyendo la variable x por el escalar . Ya vimos como se hace esto. De la misma manera cada polinomio p (x, y) K [x, y] nos da una funci on p : K2 3 (, ) 7 p (, ) K substituyendo la variable x por el escalar y substituyendo la variable y por el escalar . En general, si p es un polinomio de n variables entonces, este dene una funci on de Kn en K substituyendo cada una de las variables por un elemento del campo. A esta funci on se le llama la evaluaci on del polinomio en una n-ada. Aqu lo importante es notar que la funci on de evaluaci on de un polinomio toma valores en el espacio vectorial de las n-adas. As por ejemplo, las raices del polinomio 2 2 x + y 1 R [x, y] son el c rculo de radio 1 con centro en el origen de R2 . Formas lineales Una forma lineal es un polinomio tal que todos sus monomios tienen grado 1. Las formas lineales son las combinaciones lineales no nulas de las variables. Las formas lineales son un subespacio del espacio de polinomios ya que la suma de dos de ellas es

150

Cap tulo 5. Polinomios

una forma lineal y tambi en el producto por un escalar. La funci on n X i xi 7 (1 , . . . , n )


i =1

es evidentemente un isomorsmo can onico entre el espacio de las formas lineales y Kn . A la funcion de evaluaci on de una forma lineal se le llama funcional lineal. Cualon lineal (TL). Rec procamente, quier funcional lineal f : Kn K es una transformaci nuestro viejo teorema de que cualquier TL es la multiplicaci on por una matriz se conn vierte en este caso en que cualquier TL f : K K es un funcional lineal. Esto nos d a un isomorsmo can onico entre el espacio de formas lineales y el espacio Mor (Kn , K). Formas cuadr aticas

es evidentemente un isomorsmo can onico entre el espacio de las formas cuadr aticas y el espacio de matrices triangulares superiores. La forma triangular es una consecuencia de la conmutatividad de las variables. Formas bilineales

Una forma cuadr atica es un polinomio tal que todos sus monomios tienen grado 2. Las formas cuadr aticas son las combinaciones lineales no nulas de los productos de dos variables. Si agregamos el polinomio cero entonces, las formas cuadr aticas son un subespacio del espacio de polinomios ya que la suma de dos de ellas es una forma cuadr atica y tambi en el producto por un escalar. La funci on 11 1n n X n X . .. . . ij xi xj 7 . . . .
i =1 j =i

nn

Una forma bilineal es una forma cuadr atica para la cual existe una partici on {y1 , . . . , ym } tal que cualquier del conjunto de variables en dos partes {x1 , . . . , xn } monomio es de la forma ij xi yj . Si agregamos el polinomio cero entonces, las formas bilineales (respecto a una partici on ja) son un subespacio del espacio de las formas cuadr aticas ya que la suma de dos de ellas es una forma bilineal y tambi en el producto por un escalar. La funci on n m 11 1m XX . .. . . ij xi yj 7 . . . .
i =1 j =1

n1

es evidentemente un isomorsmo can onico entre un espacio de matrices y el espacio de las formas bilineales (respecto a una partici on ja). Formas multilineales

m n

Una forma de grado n es un polinomio tal que todos sus monomios tienen grado n. Las formas de grado n son las combinaciones lineales no nulas de los productos de n variables. Si agregamos el polinomio cero entonces, las formas de grado n son un

Secci on 5.5

Formas

151

es evidentemente un isomorsmo can onico entre un espacio de tensores de grado n y el espacio de las formas n-lineales (respecto a una partici on dada). Aqu , un tensor es un arreglo multidimensional de elementos del campo. En otras palabras una funci on X Y Z 3 (x, y, . . . , z) 7 xyz K o lo que es lo mismo un conjunto de elementos del campo indexado con muchos ndices. Los tensores de grado cero son los elementos del campo. Los de grado 1 son las n-adas y los de grado 2 son las matrices. No hay nombres especiales para los tensores de grado 3. Ejemplo. Veamos que los determinantes son formas multilineales Tenemos x11 x12 = x11 x22 x21 x12 det x x
21 22

subespacio del espacio de polinomios ya que la suma de dos de ellas es una forma de grado n y tambi en el producto por un escalar. Y Z una partici Sea X on del conjunto de variables en n partes. Una forma n-lineal (respecto a esta partici on) es una forma de grado n tal que cada monomio es de la forma xyz xy z donde x X, y Y , . . . , z Z. Si agregamos el polinomio cero entonces, las formas n-lineales (respecto a una partici on dada) son un subespacio del espacio de las formas formas de grado n ya que la suma de dos de ellas es una forma n-lineal y tambi en el producto por un escalar. La funci on XX X xyz xy z 7 XY...Z
x X y Y z Z

{x12 , x22 } y observamos que si tomamos la partici on dada por las columnas {x11 , x21 } entonces, este determinante es una forma bilineal. Tambi en, si tomamos la partici on {x21 , x22 } entonces, este determinante es una forma dada por los renglones {x11 , x12 } bilineal. Esto muestra que una forma puede ser multilineal respecto a diferentes particiones. Esto tambien se cumple para matrices de cualquier tama no. Para probar esto solo hay que observar que en cualquier monomio del determinante aparece una y solo una variable de cada columna y lo mismo para los renglones.

152

Captulo sexto

Descomposicin de Operadores Lineales


ay dos teoremas que son muy conocidos por el lector y que son muy parecidos. El primero es que todo n umero natural se descompone de forma u nica salvo orden de los factores en producto de n umeros primos. El segundo es que todo polinomio se descompone de forma u nica salvo orden de los factores en producto de polinomios irreducibles. Para los operadores lineales hay un teorema parecido todo operador lineal se descompone en suma directa de OLs irreducibles, el tipo de tal descomposici on es u nico. En este cap tulo daremos la demostraci on de este teorema y lo que es m as importante, encontraremos cuales son todos los OLs irreducibles de un espacio vectorial de dimensi on nita.

6.1

Suma directa de operadores lineales

Recordemos que el acr onimo OL signica para nosotros un operador lineal, o sea una transformaci on lineal de un espacio en si mismo. Con otras palabras, un endomorsmo del espacio. Usaremos sistem aticamente este acr onimo. Sin embargo, al conjunto de todos los OLs de un espacio vectorial E lo denotaremos por End (E). Ya vimos que el conjunto End (E) es un algebra para la suma de funciones, la multiplicaci on por escalares y la composici on de OLs. El conjunto End (E) contiene el neutro para la suma que es el operador lineal O que a cualquier vector le hace corresponder el vector 0. Tambi en contiene al neutro para la composici on de funciones I que es la identidad I (a) = a. En este cap tulo todos los espacios vectoriales ser an de dimensi on nita. Si f : E E y g : F F son dos OLs entonces, a la funci on f g : E F 3 (a, b) 7 (f (a) , g (b)) E F se le llama suma directa de los OLs f y g. Es f acil comprobar que la suma directa de dos OLs es un OL.

154

Cap tulo 6. Descomposici on de operadores lineales

Ejercicio 105 Pruebe que la suma directa de OLs es siempre un OL. [249]
El lector no debe confundir la suma directa de OLs con la habitual suma de funciones. Si f : E E y g : E E son dos OLs entonces su suma se dene como (f + g) (a) = f (a) + g (a).

Veamos ahora un ejemplo. Sea f : R2 R2 la rotaci on en el [f g] [a, b, c] angulo en contra de las manecillas del reloj o en otras palabras 2c (1, 0) 7 (cos , sin ) y (0, 1) 7 ( sin , cos ). Sea g : R R c f [a, b] la dilataci on de factor 2 o sea z 7 2z. El espacio R2 R lo [ a, b, c ] 3 podemos pensar como R en el cual el primer sumando es el plano x, y y el segundo es el eje z. Sabemos como transforma f [a, b] el plano x, y (rotando) y como transforma g el eje z (dilatando). Vease la gura a la derecha. Ahora si (a, b, c) es un vector arbitrario de R3 entonces podemos rotar a (a, b) en el plano xy obteniendo (a cos b sin , b cos + a sin ) y dilatar c en el eje z obteniendo 2c. De esta manera, obtenemos el OL de todo R3 que a (a, b, c) le hace corresponder (a cos b sin , b cos + a sin , 2c) . Este OL es precisamente f g.

Ejercicio 106 Dado f g End (E F) podemos denir a f0 = f I y g0 = I g.


Pruebe que f g = f0 g0 = g0 f0 . Esto signica que podemos pensar la suma directa como la composici on de dos OLs que conmutan. [249] Subespacios invariantes, componentes irreducibles A partir de ahora y en todo este cap tulo la funci on h : E E es un OL del espacio vectorial nito dimensional E. La dimensi on de h es por denici on la dimensi on de E. La simplicidad de la operaci on de suma directa de OLs nos lleva a querer descomponer h en suma directa de otros OLs. La pregunta es: Dado h ser a posible encontrar OLs f y g tales que h = f g?. Detallemos un poco m as el problema. Si F y G son subespacios complementarios de E entonces, por el isomorsmo can onico entre la suma de subespacios complementarios y la suma directa de subespacios tenemos E = F + G = F G. La pregunta es cuando existen OLs f : F F y g : G G tales que h = f g? Supongamos que efectivamente h = f g y sea a un vector en F. Por denici on de f g para calcular h (a) tenemos que expresar a como suma de un vector en F y otro en G. Esta descomposici on es u nica y en este caso es a = a + 0 por lo que h (a) = f (a) + g (0) = f (a) + 0 = f (a). De aqu deducimos que h (a) F y como esto se hizo para un vector arbitrario en F obtenemos que h (F) = {h (a) | a F} F.

Secci on 6.1

Suma directa de operadores lineales

155

De la misma manera se demuestra que h (G) G. Esto nos lleva a la siguiente denici on. Diremos que F E es un subespacio invariante de h (o que F es h-invariante) si se cumple que h (F) F.
6.1

Un OL se descompone como suma directa de dos OLs si y solo si el tiene dos subespacios invariantes complementarios.

Prueba. Ya demostramos la necesidad. Demostremos la suciencia. Para esto supongamos que h : E E tiene dos subespacios invariantes complementarios F y G. Tenemos E = F G, h (F) F y h (G) G. Sean f : F F y g : G G las restricciones de la funci on h a los subespacios F y G respectivamente. Obviamente f y g son OLs. Sea x un vector arbitrario en E. Existen unos u nicos a F, b G tales que x = a + b y por linearidad tenemos h (x) = h (a + b) = h (a) + h (b) = f (a) + g (b) por lo que h = f g.

Acabamos de traducir nuestro problema original al de la existencia de subespacios invariantes complementarios pero hay un caso degenerado que no nos facilita en nada las cosas. Todo el espacio E es invariante pues obviamente h (E) E. Igualmente el subespacio {0} formado solo por el origen es invariante ya que h (0) = 0. Adem as, los subespacios {0} y E son complementarios y en este caso h se descompone como la suma directa de f : 0 7 0 y g = h. Tal descomposici on siempre existe, pero no nos da nada ya que g = h. Un subespacio se le llama no trivial si el no es ni todo el espacio y ni el origen. Un OL se le llama reducible si el tiene dos subespacios invariantes complementarios no triviales y en otro caso se le llama irreducible. A la restriccion de h a un subespacio invariante no trivial que tiene un complementario invariante se le llama componente de h. En otras palabras, f es una componente de h si existe g tal que h = f g y esta descomposici on es no trivial. Los OLs irreducibles son exactamente aquellos cuya u nica descomposici on como suma directa de dos es la trivial o sea, aquellos que no tienen componentes. Si un OL es reducible entonces, este se descompone como suma directa de dos componentes. Si alguna de las componentes es reducible entonces podemos descomponerla. Asi, vemos que cualquier OL es suma directa de componentes irreducibles.

Ejercicio 107 Sea un escalar y f un OL. Pruebe que si f es irreducible entonces


f es irreducible. Ejercicio 108 Se dice que dos operadores f y g son conjugados si existe un OL biyectivo tal que f = g 1 . Pruebe que la relacion de conjugaci on es de equivalencia. Ejercicio 109 Pruebe que f y g son conjugados si y solo si existen bases A y B del espacio tales que la matriz de f en la base A es igual a la matriz de g en la base B.

156

Cap tulo 6. Descomposici on de operadores lineales

Ejercicio 110 Pruebe que si f es irreducible y g es un conjugado de f entonces, g tambi en es irreducible.


Ejemplos en dimensi on 2 Todo OL de dimensi on 1 es irreducible pues los u nicos subespacios posibles son los triviales. Veamos que sucede en dimensi on 2. Supongamos que E es de dimensi on 2. Si h es reducible entonces, E = F G y necesariamente F y G son subespacios h-invariantes de dimensi on 1. Por la proposici on 3.2 las restricciones f y g de h a F y G respectivamente son homotecias, o sea, existen escalares y tales que f es la multiplicaci on por y g es la multiplicaci on por . Si {x} es una base de F y {y} es una base de G y 0 entonces la matriz de h en la base {x, y} es la del R2 0 recuadro a la izquierda, o sea es diagonal. Hemos x demostrado que cualquier operador lineal reducible de dimensi on 2 cumple que existe una base en la cual su matriz es diagonal. En la gura de la derecha est a representada x 7 3x y 7 2y el OL de este tipo cuando E = R2 , {x, y} es la base can onica, = 3 y = 2. angulo en contra de las manecillas del reloj es obviaUna rotaci on de R2 en un mente irreducible para / {0 , 180 } ya que en este caso, ninguna recta por el origen se queda en su lugar. O sea, las rotaciones no tienen subespacios invariantes no triviales. Otro ejemplo es el que surge si a un cuadrado le apli- y R2 1 camos dos fuerzas en sentido contrario a dos de sus 0 lados opuestos. M as precisamente, al OL que tiene co2 x mo matriz en la base can onica de R la del recuadro a la derecha la llamaremos -deslizamiento. La gura de la izquierda muestra intuitivamente como se mueven los puntos de R2 al aplicar un 1-deslizamiento. De esta gura, se ve que la u nica recta por el origen que es invariante es el eje x. Luego un -deslizamiento es irreducible ( 6= 0) ya que el eje x no tiene complementario invariante.

Ejercicio 111 Ser a cierto que si un operador es irreducible entonces es biyectivo? [249]
Las matrices y los subespacios invariantes Sea F es un subespacio invariante del OL h : E E. Sea G un subespacio complementario a F. Escojamos bases A y B de F y G respectivamente. Sabemos que A B es una base de todo el espacio. Sea x un vector en la base A. Podemos hallar las

Secci on 6.2

Polinomios de operadores lineales

157

y como h (x) hAi entonces, todas las coordenadas b son iguales a cero. Estas coordenadas forman una columna de la matriz de h en la base M A B y por lo tanto despues de ordenar las bases, esta matriz tiene 0 que verse como en el recuadro a la izquierda. La matriz M es la de la restricci on de h a F. El 0 representa una submatriz con entradas cero con |A| columnas y |B| renglones. Finalmente, los * representan submatrices de las dimensiones apropiadas. Resumiendo para futuras referencias:
6.2

coordenadas de h (x) en la base A B X X h (x) = a a + b b


a A b B

Si F es un subespacio invariante de h y A es una base de todo el espacio que contiene a una base B de F entonces, la matriz de h en la base A es triangular por bloques y el bloque superior izquierdo es la matriz de la restricci on de h a F en la base B.

Si adem as, G es h invariante entonces, el mismo razonamiento nos M 0 hace ver que el * superior derecho es una submatriz con entradas 0 M0 cero con |B| columnas y |A| renglones. En este caso la matriz tiene que verse como en el recuadro a la derecha. La matriz M0 es la de la restricci on de h a G. Resumiendo para futuras referencias:
6.3

Si F y G son subespacios invariantes complementarios de h y los conjuntos A y B son bases de F y G respectivamente entonces, la matriz de h en la base A B es diagonal por bloques y los bloques diagonales son las matrices de las restricci ones de h a F en la base A y de h a G en la base B respectivamente.

Ejercicio 112 Demuestre que (f g)2 = f2 g2 . Traduzca esta igualdad al lenguaje


de matrices.

6.2

Polinomios de operadores lineales

En esta secci on introduciremos una herramienta para el c alculo de los subespacios invariantes de un OL a saber, los polinomios de OLs. Se recomienda que el lector lea (o vuelva a leer) la secci on 5.1 en la cual se introducen los ideales de polinomios y se demuestra que todo ideal de K [x] es principal.

158

Cap tulo 6. Descomposici on de operadores lineales

El morsmo de K [x] en End (E) Para cualquier n umero natural n el operador hn n veces z }| { se dene como en el recuadro a la derecha. De aqu , n h ... h si n > 0 h = como sabemos sumar OLs y multiplicar por escalares I si n = 0 a los OLs, vemos que una expresi on como por ejemplo 2 1 h 2h + 5I es un OL que conocemos si tan solo conocemos a h P i arbitrario con coecientes En general si p (x) = n i=0 i x K [x] es un polinomio Pn i en el campo del espacio vectorial E, entonces ph = i=0 i h es un OL bien denido. Al proceso de substituir la variable x por el OL h y de esta manera convertir el polinomio p (x) en el OL ph se le llama evaluaci on de p en h. El lector debe prestar atenci on a la notaci on. Usaremos ph y no p (h) aunque al parecer esta u ltima es m as natural. El problema es que tendremos que evaluar polinomios en operadores lineales y a su vez estos en vectores. Si usaramos la notaci on p (h) tendr amos que escribir p (h) (a) y estos son demasiados par entesis en comparaci on con ph (a). Recordemos de la secci on 3.2 que un a lgebra es un espacio vectorial con un producto de vectores asociativo, distributivo, con elemento neutro y que conmuta con el producto por escalares. Ya vimos, que el espacio vectorial End (E) es un algebra para la composici on de OL. Tambi en vimos que el espacio vectorial de todos los polinomios K [x] es un algebra para el producto de polinomios. Una subalgebra es un subconjunto de una algebra que es a lgebra para las operaciones inducidas en el subconjunto. Un subconjunto de una algebra es sub algebra cuando es subespacio del espacio vectorial, es cerrado para el producto y contiene el 1. Una transformaci on lineal entre dos algebras es un morsmo de algebras si esta conmuta con el producto y preserva el 1.
6.4

La funci on de evaluaci on de polinomios en un operador lineal es un morsmo de algebras.

Prueba. La funci on de evaluaci on K [x] 3 p (x) 7 ph End (E) es una funci on cuyo dominio y codominio son algebras. Sean 0 , ..., n y 0 , ..., n los coecientes de dos polinomios p y q respectivamente. Tenemos la misma cantidad de coecientes en ambos polinomios ya que siempre podemos agregar sucientes ceros. Sea un escalar. n n P P Tenemos (p)h = i hi = i hi = ph (p + q)h =
i =0

y esto muestra que la evaluaci on en h es una TL.

n P

i =0

(i + i ) h =

i =0

n P

i= 0

i hi +

i =0

n P

i hi = ph + qh

Secci on 6.2

Polinomios de operadores lineales

159

n n P P i hi j hj = ph qh i hi j hj = = i =0 j= 0 i= 0 j= 0 y nalmente, con 1h = x0 h = h0 = I terminamos la prueba.

Por denici on polinomios, tenemos de producto de! n n P n P n n n PP P P (pq)h = i j xi+j = i j hi+j = i j hi hj =


i =0 j =0 n P n P h i= 0 j=0 i= 0 j=0

La sub algebra K [h]

El morsmo de evaluaci on en h tiene como im agen el conjunto de todos los OL que son la evaluaci on en h de alg un polinomio de K [x]. Este conjunto de OLs se denotar a por K [h]. Esto reeja que en la evaluaci on lo que hacemos es substituir la variable x por el OL h.
6.5

K [h] es una sub algebra conmutativa del a lgebra de operadores lineales.

Prueba. Como la im agen de una transformaci on lineal es un subespacio, obtenemos que K [h] es un subespacio de End (E). Como 1 (h) = I, obtenemos que I K [h]. Como on. La conmutatividad ph qh = (pq)h obtenemos que K [h] es cerrado para la composici se sigue de la conmutatividad del producto de polinomios. Efectivamente, ph qh = (pq)h = (qp)h = qh ph y por lo tanto, los OLs en K [h] conmutan entre ellos. La conmutatividad de K [h] es un hecho trivial pero muy notable. Los operadores lineales en general, no son conmutativos para la composici on. Sin embargo, los que est an en K [h] si conmutan entre ellos. Esto jugar a un papel importante en lo que sigue.
Cada vez que se tiene un morsmo de algebras, la im agen de este morsmo es una sub algebra del codominio del morsmo. Si el dominio del morsmo es un algebra conmutativa entonces la imagen es una sub algebra conmutativa.

El polinomio m nimo El morsmo de evaluaci on en h tiene como n ucleo el conjunto de todos los polinomios p tales que ph = O.
6.6

El n ucleo del morsmo de evaluaci on en h es un ideal de K [x].

Prueba. El n ucleo de una transformaci on lineal es un subespacio y por lo tanto si ph = qh = O entonces (p + q)h = O. Sea r (x) cualquier polinomio. Necesitamos mostrar que (rq)h = O. Para cualquier a E tenemos (rq)h (a) = (rh qh ) (a) = rh (qh (a)) = rh (0) = 0 y esto es todo lo que quer amos probar.

160

Cap tulo 6. Descomposici on de operadores lineales

Por 5.6 todo ideal de K [x] es principal y por lo tanto existe un u nico polinomio h (n otese la letra g otica) de coeciente principal 1 (o sea, m onico) tal que si ph = O entonces, p es un m ultiplo de h. En s mbolos matem aticos {p (x) K [x] | ph = O} = {qh | q K [x]}. Al polinomio h se le llama polinomio m nimo de h. El polinomio m nimo de h es el polinomio m onico de grado m as peque no que al evaluarlo en h se obtiene el OL nulo O. Por ahora, no sabemos mucho del polinomio m nimo de h, solo sabemos que existe y que es u nico. Otra manera m as descriptiva de ver el polinomio m nimo es la siguiente. Consi2 deremos la sucesi on innita de operadores I, h, h , . . .. Todos los elementos de esta sucesi on no pueden ser LI en el espacio vectorial End (E) porque este espacio es de dimensi on nita e igual a (dim E)2 . Esto quiere decir que hay un primer natural n y unos coecientes escalares i tales que hn = 0 h0 + 1 h1 + + r1 hn 1 . Denotando p (x) = xn r1 xn1 1 x1 0 x0 vemos que ph = O y que este es el u nico polinomio m onico de grado m as peque no que cumple esto. Luego, p es el polinomio m nimo de h. El per odo de un vector Si p es un polinomio entonces ph es un OL. Si a es un vector entonces a la imagen por ph de a se le denotar a por ph (a). Luego, ph (a) se obtiene en dos pasos: primero tomamos el polinomio p lo evaluamos en h y as obtenemos ph ; segundo la funci on ph la evaluamos en a y as obtenemos ph (a).
6.7

Para cualquier vector a, el conjunto de todos los polinomios p tales que ph (a) = 0, es un ideal.

Prueba. Si ph (a) = qh (a) = 0 y r es cualquier polinomio entonces (p + q)h (a) = (ph + qh ) (a) = ph (a) + qh (a) = 0 (rp)h (a) = rh (ph (a)) = rh (0) = 0 y esto es todo lo que se requer a probar. Nuevamente, como todo ideal de polinomios es principal entonces, existe un u nico polinomio m onico q tal que el conjunto {p K [x] | ph (a) = 0} es exactamente el conjunto de todos polinomios que son m ultiplos de q. Al polinomio q se le llama el h-per odo del vector a o sencillamente el per odo de a si est a impl cito cual es el operador h. En otras palabras, el per odo de a es el polinomio q m onico de grado m as peque no tal que qh (a) = 0. M as descriptivamente. En la sucesi on innita de vectores a, h (a) , h2 (a) , . . . todos los elementos no pueden ser LI porque el espacio E es de dimensi on nita. Esto quiere decir que hay un primer natural n y unos coecientes escalares i tales que hn = 0 h0 (a) + + r1 hn 1 (a). Denotando p (x) = xn n 1 xn 1 1 x1 0 x0 vemos que ph (a) = 0 y que este es el u nico polinomio m onico de grado m as peque no que cumple esto. Luego, p (x) es el per odo de a.

Secci on 6.2

Polinomios de operadores lineales

161

Ejercicio 113 Pruebe que 0 es el u nico vector cuyo per odo es de grado cero. [249] Ejercicio 114 Pruebe que los vectores no nulos cuyo per odo es el polinomio x son
exactamente aquellos que est an en el n ucleo de h. [249]

Anuladores Sea ahora A E un conjunto arbitrario de vectores. El h-anulador de A es el conjunto de polinomios {p K [x] | a A ph (a) = 0}. Previamente ya hab amos considerado dos anuladores. En el caso de que A es todo el espacio entonces el anulador es el ideal usado para denir el polinomio m nimo. En el caso de que A es un solo vector entonces el anulador es el ideal usado para denir el per odo del vector. An alogamente a las pruebas de 6.6 y 6.7 podemos probar que cualquier anulador es un ideal. Esto nos permite denir el h-per odo de un conjunto de vectores como el polinomio generador de su anulador. El anulador de un conjunto de vectores es el conjunto de polinomios que son m ultiplos de su per odo. De aqu en lo adelante denotaremos por perh (A) al h-per odo de un conjunto de vectores A. As , perh (a) es el h-per odo del vector a y perh (E) es el h-per odo de todo el espacio o sea, el polinomio m nimo de h. Propiedades del per odo.

6.8 6.9

El h-anulador de A es el conjunto de los m ultiplos comunes a los per odos de los vectores en A.

Prueba. Sea A0 = {p K [x] | a A ph (a) = 0} el h-anulador de A. Sea A1 = {p K [x] | a A p ` perh (a)} el conjunto de los m ultiplos comunes a los per odos de los vectores en A. Si p A1 y a A, entonces existe q tal que p = q perh (a) y por lo tanto ph (a) = qh (perh (a)h (a)) = qh (0) = 0. Luego, A1 A0 . Rec procamente, sean p A0 y a A entonces ph (a) = 0 y por denici on de per odo perh (a) a p. Luego, A0 A1 . Una consecuencia directa de esto son los siguientes dos resultados: perh (A) es el m nimo com un m ultiplo de los per odos de los vectores en A.

162
6.10

Cap tulo 6. Descomposici on de operadores lineales


El polinomio m nimo de h es el m nimo com un m ultiplo de los per odos de todos los vectores.

6.11 6.12

Si h = f g entonces el polinomio m nimo de f es igual al m nimo com un m ultiplo de los polinomios m nimos de f y g.

Prueba. Sea E = E1 E2 la descomposici on en subespacios invariantes de tal manera que f y g son las restricciones de h a E1 y E2 respectivamente. Sean a E1 y b E2 . Si p es un com un m ultiplo de los polinomios m nimos de f y g entonces ph (a + b) = pf (a) + pg (b) = 0 y por lo tanto p est a en el h-anulador de todo el espacio. Reciprocamente si p est a en el h-anulador de todo el espacio, entonces tiene que anular a todos los vectores en E1 y por lo tanto es un m ultiplo del polinomio m nimo de f. Por la misma raz on es un m ultiplo del polinomio m nimo de g. Luego el h-anulador de todo el espacio es igual al conjunto de los m ultiplos comunes de los polinomios m nimos de f y g. Lo que se quiere demostrar es una consecuencia directa de esto. monoton a del per odo Si A B entonces, perh (A) a perh (B).

Prueba. Sea A0 el h-anulador de A. Si p es el per odo de B entonces ph (b) = 0 para cualquier b B y por lo tanto ph (a) = 0 para cualquier a A. Luego p A0 y por lo tanto es un m ultiplo del per odo de A.

6.3

Subespacios radicales

N ucleos de polinomios de operadores lineales Los n ucleos de los polinomios evaluados en un OL son un objeto importante para la descomposici on de ese OL en componentes irreducibles. Su importancia est a dada por el siguiente resultado. invariancia de los n ucleos
6.13

El n ucleo de cualquier operador en K [h] es un subespacio h-invariante.

Prueba. Sabemos que el n ucleo de cualquier OL es un subespacio. Demostremos la

Secci on 6.3

Subespacios radicales

163

invariancia. Sea p un polinomio y a ker ph . Entonces ph (a) = 0. Por la conmutatividad de los OL en K [h] tenemos ph (h (a)) = h (ph (a)) = h (0) = 0. O sea, h (a) ker ph . monoton a de los n ucleos
6.14 6.15

Si p a q entonces Ker ph Ker qh .

Prueba. Sea q = p0 p. Si x Ker ph entonces qh (x) = p0h (ph (x)) = p0h (0) = 0 y por lo tanto x Ker qh .

En lo que sigue muy frecuentemente nos encontraremos parejas de polinomios sin factores comunes. Necesitamos hacer un aparte para hablar de estas parejas. Primero, les daremos un nombre m as corto. Dos polinomios p y q se les llama coprimos si cualquier divisor com un a ambos es de grado 0. O sea, no tienen factores comunes no triviales. Dos polinomios p y q son coprimos si y solo si los factores irreducibles de p son diferentes a los factores irreducibles de q. Lema de Descomposici on de N ucleos Si p y q son polinomios coprimos entonces, ker (pq)h = ker ph ker qh .

Prueba. Todos los n ucleos involucrados son subespacios. Lo que hay que probar es que ker ph ker qh = {0} y que ker (pq)h = ker ph + ker qh . O sea, es una suma directa. Por el Teorema de Bezout existen polinomios r, s tales que rp + sq = 1. Sea x ker ph ker qh . Tenemos que x = 1h (x) = (rp + sq)h (x) = rh (ph (x)) + sh (qh (x)) = rh (0) + sh (0) = 0 lo que prueba que ker ph ker qh = {0}. Sea x ker (pq)h y denotemos y = (sq)h (x), z = (rp)h (x). Como rp + sq = 1 tenemos z + y = x. Adem as, por la conmutatividad tenemos que ph (y) = (psq)h (x) = sh ((pq)h (x)) = sh (0) = 0 qh (z) = (qrp)h (x) = rh ((pq)h (x)) = rh (0) = 0 o sea, y ker ph y z ker qh . Luego ker (pq)h ker ph + ker qh . Para probar la otra inclusi on sean a ker p (h) y b ker q (h). Tenemos que (pq)h (a + b) = ph (qh (a + b)) = ph (qh (a) + qh (b)) = = ph (qh (a)) = qh (ph (a)) = qh (0) = 0 y por lo tanto ker ph + ker qh ker (pq)h . Operadores lineales radicales Por la invariancia de los n ucleos (6.13) y el Lema de Descomposici on de N ucleos (6.15) si (pq)h = O y p, q son coprimos entonces, h tiene dos subespacios invariantes complementarios ker ph y ker qh y podr amos tener (si la descomposici on es no trivial)

164

Cap tulo 6. Descomposici on de operadores lineales

que h es reducible. El candidato que tenemos para el polinomio pq es el polinomio m nimo de h. Un polinomio p se descompone en producto de dos factores coprimos si y solo si p tiene al menos dos factores irreducibles distintos. Esto nos lleva a la siguiente denici on. Diremos que h es radical de tipo p si el polinomio m nimo de h tiene un solo factor irreducible e igual a p. Equivalentemente, h es radical si el per odo de cualquier vector m es de la forma p donde p es un polinomio m onico sin factores no triviales.
En la teor a de anillos el radical de un ideal I es el conjunto de todos los elementos x tales que para cierto natural m se tiene que xm I. El radical de cualquier ideal es un ideal. En este lenguaje, un operador es radical de tipo p (irreducible) si el radical del anulador del espacio es el ideal generado por p.

6.16 6.17

Si h es irreducible entonces, es radical.

Prueba. Si h no es radical entonces el polinomio m nimo h de h se descompone no trivialmente como un producto h = pq donde p y q son coprimos. Por el Lema de Descomposici on de N ucleos (6.15) tenemos E = ker (pq)h = ker ph ker qh siendo ker ph y ker qh subespacios invariantes de h (por la invariancia de los n ucleos (6.13)). Como p es un factor propio de h que es el m nimo com un m ultiplo de los per odos de todos los vectores entonces, ker ph 6= E y por la misma raz on ker qh 6= E. Esto quiere decir que la descomposici on ker ph ker qh es no trivial y por lo tanto h es reducible. Este resultado no alcanza para caracterizar a los operadores lineales irreducibles. Por ejemplo la identidad en R2 tiene polinomio m nimo x 1 o sea, es radical. Sin embargo, es evidentemente la suma directa de la identidad en el eje x y la identidad en el eje y. Componentes radicales Un vector se le llama radical de tipo p si su per odo es igual a pm y p es irreducible. Un conjunto de vectores se le llama radical de tipo p si todos sus vectores son radicales de tipo p. Si p es factor irreducible de multiplicidad m del polinomio m nimo de h m entonces, ker ph es el conjunto de todos los vectores radicales de tipo p.

Prueba. Sea a un vector de per odo pk . Si k > m entonces pk = perh (a) no divide al polinomio m nimo y esto no puede ser. Luego k m. De la monoton a de los m m n ucleos (6.14) obtenemos ker pk ker p y por lo tanto a ker p . Rec procamente, h h h m entonces p ( a ) = 0 y por lo tanto per ( a ) es un divisor de pm . Como si a ker pm h h h k p es irreducible, necesariamente perh (a) es igual a p para cierto k m.

Secci on 6.3

Subespacios radicales

165

Por el teorema de descomposici on de un polinomio en factores irreducibles el poliQ nomio m nimo de h es igual a un producto pP pm p donde P es el conjunto de sus factores irreducibles y mp es la multiplicidad del polinomio irreducible p. Por el resulm tado anterior, los espacios ker ph p son los subespacios radicales maximales de h. De la invariancia de los n ucleos (6.13) sabemos que los subespacios radicales maximales son invariantes. A la restricci on de h a un subespacio radical maximal se le llama componente radical de h. Teorema de Descomposici on en Componentes Radicales
6.18 6.19

Todo operador lineal es la suma directa de sus componentes radicales.

Q Prueba. Sea h = pP pm p el polinomio m nimo de h. Si en P hay un solo polinomio irreducible entonces h es radical y no hay nada que probar. Hagamos inducci on en el n umero de polinomios irreducibles en P. Sea irreducible jo pero Qr un polinomio mp arbitrario en P. Denotemos q = rm r y q0 = p . Tenemos que h = qq0 y p P \ r on de N ucleos (6.15) obtenemos la que q, q0 son coprimos. Del Lema de Descomposici descomposici on en subespacios invariantes complementarios E = F G donde F = ker qh y G = ker q0h . Sean f y g las restricciones de h a F y G respectivamente. Tenemos que f = f g y que f es una componente radical. De 6.11 el polinomio m nimo de g es q. Como q tiene menos factores irreducibles que h, podemos aplicar hip otesis de inducci on. Como la descomposici on de un polinomio en polinomios irreducibles es u nica salvo orden de los factores entonces, la descomposici on de un operador lineal en componentes radicales es u nica salvo orden de los sumandos. Existencia de un vector de per odo m aximo La descomposici on en componentes radicales nos permite limitarnos a considerar el caso en que el operador lineal h es radical. Esto simplica mucho las cosas por la simplicidad de la relaci on de divisibilidad entre los divisores de los polinomios tipo pn cuando p es irreducible. Esta relaci on orden es total. Por ejemplo, si A es un conjunto n de divisores de p entonces se cumple que el m nimo com un multiplo de A es un polinomio en A. Para cualquier operador lineal h existe un vector tal que su per odo es igual al polinomio m nimo de h.

Prueba. Sea h el polinomio m nimo de h : E E. Primero para el caso cuando h = pn con p irreducible. El polinomio h es el m nimo com un m ultiplo de los per odos n on que precede de todos los vectores y todos estos son divisores de p . Por la observaci a este resultado tiene que ocurrir que uno de esos per odos es pn .

166

Cap tulo 6. Descomposici on de operadores lineales

El caso general por inducci on en el n umero de componentes radicales. Descompongamos h = f g donde f es una componente radical. Esta descomposici on se corresponde con la descomposici on E = F G en subespacios invariantes. Los operadores f y g son las restricciones de h a F y G respectivamente. Los polinomios m nimos f y g de f y g respectivamente son coprimos y cumplen que h = fg. Por hip otesis de inducci on existen vectores a y b en F y G respectivamente tales que f = perh (a) y g = perh (b). Denotemos p = perh (a b). Tenemos p a h = fg. Adem as, (ph (a b) = 0) (ph (a) = ph (b)). Como F y G son invariantes F 3 ph (a) = ph (b) G. Como F y G son complementarios ph (a) = ph (b) = 0. Luego, p ` perh (a) = f y p ` perh (b) = g. Como f y g son coprimos entonces, p ` fg = h.

6.4

Subespacios c clicos

h-combinaciones Sea h : E E un operador lineal. Sea V = {v1 , . . . , vn } E un conjunto de vectores. Una h-combinaci on de V es un vector de la forma ph (v1 ) + qh (v2 ) + + rh (vn ) donde los coecientes p, q, ..., r son polinomios arbitrarios en K [x]. Le dejamos al lector dar la denici on para el caso de que V es innito. En este caso, hay que exigir soporte nito, o sea que el conjunto de coecientes no nulos sea nito. Las h-combinaciones son combinaciones lineales en el caso de que los coecientes sean polinomios de grado cero. Recordemos que hV i denota el conjunto de todas las combinaciones lineales de V . Denotemos por hV ih el conjunto de todas las h-combinaci ones de V . La observaci on anterior signica que hV i hV ih .

Ejercicio 115 Pruebe que hV i = hV ih si y solo si h es una homotecia.


Conjuntos h-generadores
6.20

El conjunto de todas las h-combinaciones de V es un subespacio invariante.

Prueba. Sea un escalar. Sean a = ph (v1 )+ + qh (vn ) y b = rh (v1 )+ + sh (vn )

Secci on 6.4

Subespacios c clicos

167

dos h-combinaciones de V . Entonces, a + b = p0h (v1 ) + + q0h (vn ) donde p0 = p + r, . . . , q0 = q + s, a = p0h (v1 ) + + q0h (vn ) donde p0 = p, . . . , q0 = q, h (a) = p0h (v1 ) + + q0h (vn ) donde p0 (x) = xp (x) , . . . , q0 (x) = xq (x) . Las dos primeras igualdades prueban que es un subespacio. La tercera muestra que es invariante. Ya es la tercera vez que nos tropezamos con una situaci on similar. Las anteriores fueron la cerradura lineal y la cerradura af n. Los ejercicios siguientes tres resultados muestran que la funci on V 7 hV ih es un operador de cerradura que llamaremos hcerradura. Las pruebas son completamente an alogas a las que dimos en el Cap tulo 2 para la cerradura lineal.

Ejercicio 116 Pruebe que la intersecci on de subespacios invariantes es invariante. Ejercicio 117 Pruebe que hV ih es la intersecci on de todos los subespacios invariantes
que contienen a V . Ejercicio 118 Pruebe que la h-cerradura cumple las siguientes propiedades: V hV ih (incremento), V 0 V hV 0 ih hV ih (monoton a), hhV ih ih = hV ih (idempotencia).

A hV ih le llamaremos el subespacio invariante h-generado por V . Si hV ih es todo el espacio diremos que V es un h-generador. Obviamente los sobreconjuntos de hgeneradores y los conjuntos generadores (sin la h) son h-generadores.
6.21

perh hV ih = perh V .

Prueba. Tenemos V hV ih y por la monoton a del per odo (6.12) sabemos que perh V a perh hV ih . Denotemos q = perh V . Si x hV ih entonces, x es una hcombinaci on x = ph (v1 ) + + rh (vn ), donde {v1 , . . . , vn } V . De la linearidad y conmutatividad obtenemos que qh (x) = qh (ph (v1 )) + + qh (rh (vn )) = ph (qh (v1 )) + + rh (qh (vn )) = 0. a en el anulador de hV ih y por lo tanto perh V ` perh hV ih . Luego, perh V est Subespacios c clicos Un subespacio invariante se le llama h-c clico si este est a h-generado por un solo vector. Los subespacios c clicos son los h-an alogos de las rectas por el origen que est an generadas (sin la h) por un solo vector. Al operador h se le llama c clico si todo el espacio es h-c clico. El siguiente resultado es an alogo a que si una recta por el origen est a generada por a entonces tambi en est a generada por los m ultiplos de a.

168
6.22

Cap tulo 6. Descomposici on de operadores lineales


Si q es un polinomio coprimo con perh a entonces, haih = hqh (a)ih y perh a = perh qh (a).

Prueba. Denotemos p = perh a. Sea q un polinomio coprimo con p y denotemos a0 = qh (a). Demostremos que existe un polinomio r tal que a = rh (a0 ). Efectivamente por el Teorema de Bezout existen polinomios s y r tales que sp + rq = 1 y por lo tanto rh (a0 ) = (rq)h (a) = (sp)h (a) + (rq)h (a) = I (a) = a y as el polinomio r cumple lo que queremos. Luego a0 haih y a ha0 ih . Usando la monoton a y la idempotencia de la hcerradura obtenemos que ha0 ih haih y haih ha0 ih . Por esto, usando 6.21 obtenemos que perh qh (a) = perh hqh (a)ih = perh haih = perh a. Ahora veremos que los subespacios c clicos pueden tener dimension grande. Esto signica que la analog a con las rectas por el origen no hay que llevarla demasiado lejos.
6.23 6.24

Prueba. Denotemos p = perh a y B = a, h (a) , . . . , hn 1 (a) . Tenevos que convencernos que B es una base del subespacio haih . Si hubiera una combinaci on lineal n 1 0 a + 1 h (a) + + n 1 h (a) = 0 con no todos sus coecientes nulos entonces, el polinomio no nulo q (x) = 0 + 1 x + + n 1 xn 1 ser a tal que qh (a) = 0 y esto contradice (q tiene grado menor que n) que los polinomios en el anulador de a son los multiplos de p. Luego, B es LI. Por otro lado, para cualquier vector x haih existe un polinomio q tal que x = qh (a). Efectuando la divisi on con resto obtenemos q = cp + r donde el grado de r es estrictamente menor que n y por lo tanto rh (a) hBi. Tenemos que rh (a) = (q cp)h (a) = qh (a) ch (ph (a)) = qh (a) = x Esto signica que hBi = haih y por lo tanto es una base de haih . Una consecuencia obvia de este resultado es la siguiente. dim haih es igual al grado del per odo de a.

Si el per odo n, entonces el conjunto de de a es de grado n 1 vectores a, h (a) , . . . , h (a) es una base de haih .

Secci on 6.4

Subespacios c clicos

169

Conjuntos h-independientes Un conjunto de vectores {v1 , . . . , vn } no nulos se le llama h-independiente si (ph (v1 ) + + qh (vn ) = 0) (ph (v1 ) = = qh (vn ) = 0) Esto es equivalente a que si una h-combinaci on de ellos es cero entonces, para todo i el coeciente de vi es un m ultiplo del per odo de vi . Al considerar coecientes de grado cero vemos que los conjuntos h-independientes siempre son linealmente independientes. En particular, el n umero de elementos en un conjunto h-independiente no puede sobrepasar la dimensi on del espacio. Es posible imaginar tres deniciones distintas de h-independencia: (ph (v1 ) + + qh (vn ) = 0) (p = = q = 0) (ph (v1 ) + + qh (vn ) = 0) (ph = = qh = O) (ph (v1 ) + + qh (vn ) = 0) (ph (v1 ) = = qh (vn ) = 0)

En la primera se pide que los polinomios sean cero. En la segunda que los operadores lineales sean cero. En la tercera que los vectores sean cero. Las dos primeras son erroneas.
6.25

Si V = {v1 , . . . , vn } es h-independiente entonces hV ih = hv1 ih hvn ih .

Prueba. Por inducci on en el natural n. Si n = 1 el resultado es obvio. Denotemos 0 V = {v2 , . . . , vn }. Tenemos que probar que hV ih = hv1 ih +hV 0 ih y que hv1 ih hV 0 ih = 0. Si a hV ih entonces existen coecientes polinomiales tales que a = ph (v1 ) + qh (v2 )+ + rh (vn ). Obviamente, a0 = ph (v1 ) hv1 ih , a00 = qh (v2 )+ + rh (vn ) on se demuestra igual. hV 0 ih y a = a0 + a00 . Luego, hV ih hv1 ih + hV 0 ih . La otra inclusi Supongamos que a hv1 ih hV 0 ih . Entonces, existen polinomios tales que ph (v1 ) = a = qh (v2 ) + + rh (vn ) por lo tanto ph (v1 ) qh (v2 ) rh (vn ) = 0. Como V es h-independiente entonces, a = ph (v1 ) = 0. Luego, hV ih = hv1 ih hV 0 ih y usando la hip otesis de inducci on terminamos la prueba h-bases El resultado anterior es bueno para nosotros. Si solo V adem as de h-independiente fuera h-generador, obtendr amos una descomposici on de todo el espacio en suma directa de subespacios invariantes h-generados por un solo vector o sea c clicos. Una h-base es un conjunto de vectores que es h-independiente y h-generador. El u nico problema es que no sabemos si existen o no las h-bases. Veremos en la siguiente secci on que s existen, sin embargo, el demostrarlo no es tan sencillo como en el caso de las bases ordinarias.

170

Cap tulo 6. Descomposici on de operadores lineales

Por lo pronto, nos conformaremos con dos consecuencias obvias de lo ya demostrado:


6.26 6.27

Si A es una h-base entonces, la dimensi on del espacio es igual a la suma de los grados de los h-per odos de los vectores en A.

Prueba. Es consecuencia de que la dimensi on de la suma directa es la suma de las dimensiones y de que la dimensi on de un subespacio c clico es igual al grado del per odo de su h-generador (6.23). Si A es una h-base entonces, el polinomio m nimo de h es igual al m nimo com un multiplo de los h-per odos de los vectores en A.

Prueba. Es consecuencia de que el per odo de la suma directa es el m nimo com un m ultiplo de los per odos de los sumandos (6.11) y de 6.21.

6.5

Descomposici on en subespacios c clicos radicales.

Entre todos los subespacios h-c clicos los m as grandes son aquellos que est an hgenerados por vectores cuyo per odo tiene grado lo m as grande posible (6.23), o sea, aquellos cuyo per odo es igual al polinomio m nimo. A estos subespacios les llamaremos les llamaremos h-c clicos maximales. Por 6.19 siempre existe alg un subespacio hc clico maximal. La estrategia para deshacernos del problema de que no cualquier subespacio invariante tiene complementario invariante es limitarnos a los operadores radicales, jarnos solamente en los subespacios invariantes maximales y construir un complementario que s es invariante. Para eso necesitaremos usar espacios cocientes. El espacio cociente por un subespacio invariante Sea h : E E un OL y F un subespacio h-invariante o sea h (F) F. El espacio cociente E/F es el conjunto de todos los subespacios anes paralelos a F. Lo que queremos ver es que si los vectores v y u est an en un mismo subespacio af n paralelo a F entonces h (v) y h (u) cumplen exactamente lo mismo. Efectivamente, si v y u est an en un mismo subespacio af n paralelo a F entonces v u F. Como F es h-invariante entonces h (v) h (u) = h (v u) F y por lo el tanto h (v) y h (u) est an en un mismo subespacio af n paralelo a F. N otese que aqu argumento crucial es que F es h-invariante. e en el espacio cociente con la igualdad h e (v + F) = h (v)+F. Deniremos la funci on h e est Por la observaci on precedente, h a bien denida, o sea, si v + F = u + F entonces,

Secci on 6.5 Descomposici on en subespacios c clicos radicales.

171

e es un OL en E/F ya que h (v) + F = h (u) + F. Observese que h e (v + F + u + F) = h e (v + u + F) = h (v + u) + F = h e (v + F) + h e (u + F) ; = h (v) + F + h (u) + F = h e ( (v + F)) = h e (v + F) = h (v) + F = h (v) + F = (h (v) + F) = h e (v + F) . h Necesitaremos conocer mejor los OLs del espacio cociente End (E/F). El conjunto EndF (E) de todos los operadores lineales que dejan invariante F es una sub algebra de End (E).
6.28 6.29

Prueba. Sean f y g dos operadores en EndF (E). Sea un escalar. Para cualquier vector v F tenemos f (v) F y g (v) F y por lo tanto (g + f) (v) = g (v) + f (v) F ; I (v) F ; (g f) (v) = g (f (v)) F ; (f) (v) = f (v) F. F Luego, End (E) es una subalgebra. e End (E/F) es un morsmo de a La funci on EndF (E) 3 h 7 h lgebras.

e es morsmo para la composici Prueba. Probaremos que h 7 h on g e f g (v + F) = (f g) (v) + F = f (g (v)) + F = v) + F) = f (g ( e(g (v) + F) = f e(g e g e (v + F)) = f e (v + F) ; = f y para la suma ] f + g (v + F) = (f + g) (v) + F = f (v) + (v) + F = F + g e(v + F) + g e+ g e (v + F) = f e (v + F) ; = f y para el producto por escalares e e(v + F) = f (v + F) = (f) (v) + F = f )+F=f (v e( (v + F)) = f e (v + F) ; = f y que preserva la identidad e I (v + F) = I (v) + F = v + F = I (v + F) .

mado por aquellos operadores lineales cuya imagen es F. [249] Polinomios y el espacio cociente

e es sobreyectivo y su n Ejercicio 119 Muestre que el morsmo h 7 h ucleo est a for-

e en E/F a saber Sea F E un subespacio h-invariante. Ya vimos como se dene h e (v + F) = h (v) + F y comprobamos que esta denici h on es correcta debido a la h-

172

Cap tulo 6. Descomposici on de operadores lineales

6.30 6.31 6.32

f invariancia de F. Para poder denir p h (v + F) = ph (v) + F necesitamos que F sea ph -invariante. Por suerte, esto se cumple autom aticamente. Sea p un polinomio. Si F es h-invariante entonces tambi en es ph -invariante.

Prueba. Como el conjunto de los operadores que preservan F es una sub algebra del n algebra de todos los operadores entonces todos los h estan ah , tambi en todas las combinaciones lineales de estos o sea, todos los polinomios evaluados en h. f Luego, p h es un OL bien denido en el espacio cociente. Por otro lado, si evaluamos e obtendremos p que es otro OL bien denido en el el polinomio p en el operador h h espacio cociente. f p h = ph

e es un morsmo de a Prueba. Sea p (x) = i xi . Como la funci on h 7 h lgebras, tenemos i X Xn Xn Xn n ^ g e i i i e = p f i h = i h = i h = i h ph = h i =0 i =0 i =0 i =0 y esto es lo que se necesitaba probar. Esto es muy c omodo, ya que en el cociente tenemos la f ormula ph (v + F) = f ph (v + F) = ph (v) + F. El per odo en el espacio cociente

Si b v + F entonces perh (b) ` perh (v + F).

Prueba. Sea b v +F. Si p = perh (b) entonces ph (b + F) = ph (b)+F = 0 +F = F y por lo tanto p ` perh (b + F). La prueba concluye observando que v + F = b + F.

Ejercicio 120 Pruebe que perh (b) a perh (b + F) si y solo si hbih F = {0}. [249]
El resultado que sigue no es trivial y consiste en que bajo ciertas condiciones es posible encontrar un b v +F tal que perh (b) a perh (v + F) y por lo tanto perh (b) = perh (v + F).

Secci on 6.5 Descomposici on en subespacios c clicos radicales.


Lema del Per odo
6.33

173

Sea h End (E) radical y F = haih un subespacio h-c clico maximal. Para cualquier v+F E/F existe b v +F tal que perh (b) a perh (v + F).

Prueba. Sea pn (con p irreducible) el polinomio m nimo de h. Como F = haih es maximal, el h-per odo de a es pn . Los h-per odos de todos los vectores son potencias e -per de p. Los h odos de todos v + F son potencias de p ya que por 6.32 estos son divisores de los per odos de los vectores. e-per Sea v + F E/F de h odo pm . Sabemos que m F = ha0 ih n. Veamos que existe un natural k y un vector a0 tales perh (a0 ) = pn que se cumplen las propiedades del recuadro a la derecha. k 0 m pm Efectivamente, sabemos que pm h (v) = ph (a ) (*) h (v) + F = ph (v + F) = F m o lo que es lo mismo ph (v) F = haih . Luego, existe un polinomio r tal que pm on de un h (v) = rh (a). Usando el teorema de descomposici polinomio en producto de irreducibles, existen un polinomio q coprimo con p y un def natural k 0 tales que r = pk q. Por 6.22 el vector a0 = qh (a) es tambi en un hgenerador de F y a0 tiene el mismo h-per odo que a o sea, pn . Adem as pm h (v) = k k 0 rh (a) = ph (qh (a)) = ph (a ) y esto demuestra la igualdad (*). m Si ocurriera que m > k entonces, aplicando pn a la igualdad (*) y observando h n m +k que pn es el polinomio m nimo, obtendr amos que 0 = pn (a0 ) . Como h (v) = ph n m + k < n esto contradecir a que el h-per odo de a0 es pn . Luego, m k y esto nos sirve para denir el siguiente vector def m b = v pk (a0 ) . h m (a0 ) ha0 ih = F. Aplicando pm on Observese que b v + F ya que pk h a la denici h (*) de b, obtenemos que m k 0 pm h (b) = ph (v) ph (a ) = 0 por lo que perh (b) a pm . Existencia de h-bases

Lema del Cociente


6.34

Sea h : E E un operador radical y F = haih un subespacio h-c clico e maximal. Si {v1 + F , . . . , vm + F} es una h-base del espacio cociente E/F entonces, existen vectores b1 v1 + F, . . . , bm vm + F tales que {a, b1 , . . . , bm } es una h-base de E.

Prueba. Sea a un h-generador de F. Aplicando el Lema del Per odo (6.33) a v1 + F, . . . , vm + F, obtenemos b1 v1 + F, . . . , bm vm + F tales que el h-per odo de bi es

174

Cap tulo 6. Descomposici on de operadores lineales


def

B r a = {b1 + F, . . . , bm + F} = {v1 + F, . . . , vm + F} e es una h de E/F. Probemos que B es h-generador de E. Si x E entonces -base x+F Bra h , o sea, existen coecientes polinomiales tales que x + F = qh (b1 + F) + + rh (bm + F) = qh (b1 ) + + rh (bm ) + F o lo que es lo mismo x qh (b1 ) rh (bm ) F = haih . Luego, existe otro polinomio s tal que x qh (b1 ) rh (bm ) = sh (a) y por lo tanto x = sh (a) + qh (b1 ) + + rh (bm ) hBih . Para probar que B es h-independiente supongamos que existen polinomios tales que 0 = sh (a) + qh (b1 ) + + rh (bm ) . (*) Pasando al cociente (sumando F) obtenemos 0 + F = sh (a) + F + qh (b1 ) + F + + rh (bm ) + F = = qh (b1 + F) + + rh (bm + F) y como B r a es independiente obtenemos que qh (b1 + F) = = rh (bm + F) = 0 + F. e Como el h-per odo de bi es igual al h-per odo de bi + F concluimos que qh (b1 ) = = rh (bm ) = 0. Substituyendo esto en la igualdad (*) obtenemos sh (a) = 0.

def e -per igual al h odo de vi + F. Denotemos B = {a, b1 , . . . , bm }. Observese que

Ejercicio 121 Compruebe que si eliminamos la condici on de que F es m aximal entonces el Lema del Cociente (6.34) no se cumple.

Teorema de Existencia de h-bases


6.35

Cualquier operador lineal radical h tiene una h-base.

Prueba. Sea h : E E un operador radical y F = haih subespacio h-c clico maximal. Hagamos inducci on en dim h. Si dim h = 1 entonces, F = E y por lo tanto {a} es una h-base. Supongamos dim h > 1. Si F = E entonces, otra vez {a} es una h-base. Si no, entonces E/F es no trivial y dim E/F < dim h. Por hip otesis de inducci on E/F tiene e una h-base y por el Lema del Cociente (6.34) existe una h-base de E. una descomposici on de E en subespacios h-invariantes. Si A es una h-base de E y B es una h-base de G entonces A B es una h-base de E. [250]

Ejercicio 122 Demuestre la siguente armaci on. Sean h : E E un OL y E = F G

Secci on 6.5 Descomposici on en subespacios c clicos radicales.

175

on en CompoEjercicio 123 Use el ejercicio anterior, el Teorema de Descomposici nentes Radicales (6.18) y el Teorema de Existencia de h-bases (6.35) para probar todo operador lineal h tiene una h-base. Teorema de Descomposici on en Componentes Radicales C clicas
6.36 6.37 6.38

Todo operador lineal es suma directa de componentes radicales c clicas.

Prueba. Sea h : E E un OL. Si h es radical entonces E tiene una h-base {a1 , . . . , an }. Por 6.25 E = ha1 ih han ih . Por 6.20 todos los ha1 ih son subespacios invariantes. Denotando por fi la restricci on de h a hai ih obtenemos h = f1 fn . Si h no es radical entonces usando el Teorema de Descomposici on en Componentes Radicales (6.18) lo descomponemos en componentes radicales y posteriormente cada componente radical la descomponemos en componentes c clicas. Unicidad de la descomposici on A diferencia de la descomposici on en componentes radicales una descomposici on en componentes radicales c clicas no es u nica. Esto sucede porque h-bases pueden haber muchas. Por ejemplo para la identidad en R2 cualesquiera dos rectas diferentes por el origen forman una descomposici on en subespacios invariantes radicales c clicos. Sin embargo, lo que si es u nico es el tipo de la descomposici on. on entonces, a la sucesi on p, q, . . . , r de los Si h = f1 fn es una descomposici polinomios m nimos de las componentes se le llama el tipo de la descomposici on. Dos tipos se consideran iguales si uno se puede obtener del otro reordenando la sucesi on. Teorema de Unicidad del Tipo Dos descomposiciones cualesquiera en componentes radicales c clicas tienen el mismo tipo.

Antes de demostrar nuestro teorema de unicidad necesitamos demostrar tres resultados auxiliares sencillos. El lector a vido puede salt arselos y regresar a ellos en la medida de sus necesidades. En los siguientes tres resultados h : E E es un operador radical con polinomio m nimo pn (no se necesita que sea c clico). perh x = p perh ph (x).

Prueba. Los per odos de los vectores son divisores del polinomio m nimo, en park 1 k ticular, el per odo de x es p para cierto k n. Tenemos ph (ph (x)) = pk h (x) = 0. 2 k 1 k 1 Por otro lado pk (ph (x)) = ph (x) 6= 0. Luego, p es el polinomio m onico de h

176

Cap tulo 6. Descomposici on de operadores lineales

grado m as peque no que anula a ph (x). Un lector cuidadoso deber a analizar los casos k {0, 1} para los cuales esta prueba es formalmente incorrecta.
6.39 6.40

ph (E) es un subespacio invariante y dim ph (E) < dim E.

Prueba. El subespacio F = ph (E) = Im ph es invariante ya que h (ph (x)) = ph (h (x)). Sea x un vector no nulo de per odo pk (claramente estamos asumiendo que E 6= {0}). Si k = 1 entonces, x ker ph . Si k > 1 entonces, el vector no nulo 1 y = pk (x) es tal que ph (y) = 0. De aqu , el OL ph tiene n ucleo no trivial y por lo h tanto F 6= E. Luego, dim F < dim E. Si X es una h-base de E entonces ph (X) \ {0} es una h-base de ph (E).
def

Prueba. Para todo x E denotemos x = ph (x). Sea X = {u, . . . , v} una h-base de def E. Comprobaremos que X = {x | x X y x 6= 0} es una h-base de F. Efectivamente, si def y F = ph (E) entonces, como X es h-generador, existen polinomios tales que: y = qh (u) + + rh (v) = qh (u) + + rh (v) . Es claro que en la suma de la derecha podemos descartar aquellos sumandos para los cuales x = 0. Luego, F X h o sea, X es un h-generador de F. Supongamos que para ciertos polinomios q, . . . , r se tiene que 0 = qh (u) + + rh (v) = (qp)h (u) + + (rp)h (v) . Como X es h-independiente, entonces 0 = (qp)h (u) = qh (u) = = (rp)h (v) = rh (v) y por lo tanto X es h-independiente. Luego, X es una h-base de F. Ya estamos listos para probar el teorema de unicidad. Prueba. (Del Teorema de Unicidad del Tipo) De la denici on del tipo y de la unicidad de la descomposici on en componentes radicales queda claro que es suciente demostrar el teorema para OLs radicales h : E E cuyo polinomio m nimo es una potencia de un polinomio irreducible que denotaremos por p. def Para cualquier vector x denotaremos x = ph (x). Para cualquier conjunto de vecdef tores X denotaremos X = {x | x X y x 6= 0}. Sean E = ha1 ih han ih = hb1 ih hbm ih dos descomposiciones en subespacios c clicos. Como h es radical los per odos de todos sus vectores son potencias del polinomio irreducible p. Sean pn i los per odos de los ai y pm i los per odos n1 nn m1 de los bi . Los tipos de estas dos descomposiciones son p , . . . , p y p , . . . , pm m respectivamente. Reordenando los sumandos podemos suponer que n1 nn y que m1 mm . Tambi en podemos suponer que n m. Tenemos que probar que n = m y que los ni son iguales a los mi . Hagamos la prueba del teorema por inducci on en dim h. Si dim h = 1 entonces,

Secci on 6.5 Descomposici on en subespacios c clicos radicales.

177

necesariamente n = m = 1 y n1 = m1 . Los conjuntos A = {a1 , . . . , an } y B = {b1 , . . . , bm } son dos h-bases de E. Por 6.40 tenemos que A y B son bases de F = ph (E). Sea k {0, . . . , n} el mayor ndice tal que nk > 1. Sea ` {0, . . . , m} el mayor ndice tal que m` > 1. Si i > k entonces, perh (ai ) = p y por lo tanto a i = 0. Luego, A = {a1 , . . . , ak }. Un argumento an alogo nos dice que B = b1 , . . . , b` . Luego, F = ha1 ih hak ih = b1 h b` h son dos descomposiciones de F en subespacios ciclico-radicales. Por 6.38 los tipos de estas descomposiciones son pn 1 1 , . . . , pnk 1 y pm 1 1 , . . . , pm ` 1 . Como por 6.39 dim F < dim E, podemos aplicar hip otesis de inducci on y as obtenemos que k = `, n1 1 = m1 1, , nk 1 = mk 1. O sea, todos los ni son iguales a los mi desde i = 1 hasta k = `. Sea el grado de p. De 6.26 obtenemos que (n1 + + nn ) = dim E = (m1 + + mm ) y por lo tanto nk+1 + + nn = mk+1 + + mm . Todos los ni y los mi para i > k son iguales a 1 y por lo tanto n = m. Con esto, para todo i el natural ni es igual a mi .

Ejercicio 124 Sean p = perh (a) y q = perh (b) los per odos de dos vectores. Demuestre que si p y q son coprimos entonces, ha + bih = haih hbih . [250] Ejercicio 125 Use el ejercicio anterior y el Teorema de Descomposici on en Componentes Radicales C clicas (6.36) para probar que cualquier OL tiene una descomposici on en OL c clicos f1 ft en la cual el polinomio m nimo de cada fi divide al polinomio m nimo del siguiente. [250] Ejercicio 126 Usando el Teorema de Unicidad del Tipo (6.37) demuestre que el tipo de las descomposiciones introducidas en el ejercicio anterior es u nico. [251] Estructura de los operadores c clico-radicales Ahora queremos conocer todos los subespacios invariantes de los operadores c clico radicales para poder demostrar que estos son irreducibles. En los tres siguientes resultados h : E E es un operador c clico-radical con polinomio m nimo pn . Si x es un vector de per odo pk con k < n entonces, existe un vector y tal que x = ph (y) y perh (y) = pk+1 .

6.41

Prueba. Sea a un vector h-generador. Existe un polinomio q tal que x = qh (a). Si q fuera coprimo con p entonces el per odo de x fuera el mismo que el de a y eso no es cierto por hip otesis. Luego q = pr y si ponemos y = rh (a) obtenemos que x = ph (y).

178

Cap tulo 6. Descomposici on de operadores lineales

Por 6.38 perh (y) = pk+1 .


6.42 6.43 6.44

Si perh (x) = pk entonces hxih = ker pk h.

Prueba. Sea x de per odo pk . Aplicando repetidamente 6.41 existe un vector a tal que k (a) y perh (a) = pn y por lo tanto a es un h-generador de todo el espacio. x = pn h Como x ker pk a de la h-cerradura tenemos que hxih ker pk h por monoton h. k k Rec procamente, sea b ker ph entonces, perh b a p y por 6.41 existe y tal que k k b = pn (y). Sea q tal que y = qh (a) . Entonces b = pn (qh (a)) = qh (x). Luego, h h ker pk h x i . h h Los subespacios ker pk h , k {0, 1, . . . , n} son los u nicos subespacios invariantes de h.

Prueba. Sea F cualquier subespacio h-invariante de E. Sea k n tal que perh F = pk . De aqu , F ker pk odo pk . Por monoton a de h . Por 6.19 existe un vector x F de per k la h-cerradura hxih F. Por 6.42 hxih = ker ph . Teorema de Caracterizaci on de los OLs irreducibles Un operador lineal es irreducible si y solo si es c clico y radical.

Prueba. Sea h un OL. Si h no es c clico radical entonces por el Teorema de Descomposici on en Componentes Radicales C clicas (6.36) este se descompone no trivialmente. Si h es c clico radical entonces, por 6.43 sus subespacios invariantes son del tipo ker pk h. Por monoton a de los n ucleos (6.14), dados dos de estos, siempre hay uno incluido dentro del otro. Luego, h no tiene una pareja de subespacios invariantes complementarios no triviales.

6.6

Polinomio caracter stico

Rectas invariantes Los subespacios invariantes no triviales m as sencillos que nos podemos imaginar son los de dimensi on 1 o sea, las rectas por el origen. Si h : E E es un OL y F es invariante de dimensi on 1 entonces, la restricci on de h a F es una homotecia. Sea {a} una base de F. Entonces, existe un escalar (la raz on de la homotecia) tal que h (a) = a.

Secci on 6.6

Polinomio caracter stico

179

Rec procamente, supongamos que existen un escalar y un vector no nulo a tales que h (a) = a entonces, al vector a se le llama vector propio del operador h y al escalar se le llama valor propio de h. Tambi en decimos que es el valor propio correspondiente al vector propio a. Observese que el valor propio correspondiente a un vector es u nico pues de a = 0 a obtenemos ( 0 ) a = 0 y como a 6= 0 esto implica que = 0 .
6.45 6.46

La recta hai es h-invariante si y solo si a es un vector propio de h.

Prueba. Ya vimos la parte solo si. Supongamos que a es un vector propio. Sea su correspondiente valor propio. Por linearidad de h, para cualquier escalar se cumple que h (a) = h (a) = (a) = () a y esto signica que hai es h-invariante. El polinomio caracter stico de un operador lineal Recordemos que el determinante de un OL est a bien denido como el determinante de su matriz en una base arbitraria. El hecho de que h (a) = a lo podemos expresar como que el operador I h evaluado en el vector a es cero. O sea el vector est a en el n ucleo de I h. Esto quiere decir que ker (I h) es el conjunto de todos los vectores propios correspondientes a . Sabemos que ker (I h) 6= {0} si y solo si det (I h) = 0 (v ease 4.26, 4.27, 3.25 y 3.28). Luego, es un valor propio de h si y solo si det (I h) = 0. As , para calcular los valores propios de h podr amos probar todos los elementos del campo y comprobar si det (I h) = 0. Esta estrategia es imposible de realizar si el campo K es innito. Por esto es mejor considerar la funci on K 3 x 7 det (xI h) K y encontrar sus raices. det (xI h) es un polinomio m onico de grado dim h en la variable x.

Prueba. Sabemos que el determinante de un OL no depende de la base en el cual se calcule. Tomemos una base cualquiera N del espacio vectorial. Tenemos |N| = dim h. Sea NN la matriz de h en la base N. La matriz de xI h en la base N es NN = xNN NN donde NN es el delta de Kronecker (la matriz identidad). Las entradas de NN son ii = x ii y ij = ij para cualquier j 6= i. El determinante lo calculamos por la denici on X Y det NN = sgn ii .
S N iN

Como los ij son polinomios, el producto y la suma de polinomios son polinomios, as que NN solo contiene la tenemos que det NN es un polinomio. Observemos adem variable x en la diagonal. Por esto, la potencia m as grande de x en det NN se obtiene

180

Cap tulo 6. Descomposici on de operadores lineales

Por la ley distributiva vemos que es de grado |N| y tiene coeciente principal 1. Al polinomio det (xI h) se le llama polinomio caracteristico de h. De esta manera, los valores propios de h son las raices del polinomio caracter stico. Si NN es la matriz de h en la base N entonces, los vectores propios correspondientes a un valor propio se pueden hallar resolviendo el sistema de ecuaciones lineales (NN NN ) aN = 0N . Este es un sistema de ecuaciones lineales homogeneo y su conjunto de soluciones es ker (I h). El conjunto ker (I h) es un subespacio invariante que se conoce como el subespacio propio correspondiente al valor propio . La restricci on de h a un subespacio propio es una homotecia. De hecho, los subespacios propios son los subespacios invariantes m as grandes en los que h es una homotecia.

cuando la permutaci on es la identidad, o sea en el producto Y Y ii = (x ii ) .


iN iN

Ejercicio 127 A la suma de las entradas en la diagonal de una matriz se le llama traza de la matriz. Demuestre que la traza es una propiedad de los operadores lineales, o sea que la traza no cambia al hacer un cambio de base. [251]
El polinomio caracter stico y el polinomio m nimo Para ver como se relacionan el polinomio caracter stico y el polinomio m nimo daremos la siguiente denici on. Sea p = xn + n1 xn + ... + 1 x + 0 un polinomio m onico. A la matriz cuadrada de orden n que se muestra en el recuadro a la derecha se le llama matr z acompa nante del polinomio p.
6.47
0 0 ... 0 0 1 0 ... 0 1 ... ... ... ... ... 0 0 ... 0 n 2 0 0 ... 1 n 1

El polinomio caracter stico de la matriz acompa nante del polinomio p es igual a p.


Prueba. Por denici on el polinomio caracter sti- x co de la matriz acompa nante del polinomio p = xn + 1 n 1 xn + ... + 1 x + 0 es el determinante de la matriz ... que se muestra a la derecha. Calcul emoslo. Triangu- 0 lando con el m etodo de eliminaci on de Gauss obtene0 mos que este determinante es igual al de la siguiente matriz: x 0 ... 0 0 0 x ... 0 + 0 x 1 1 ... ... ... ... ... 1 n +3
0 0 0 0 ... ... x 0

0 x ... 0 0

... 0 0 ... 0 1 ... ... ... ... x n 2 ... 1 x + n 1

+ 0 x n + 2 n 2 + n 3 x + + 1 x 1 n +2 x + n 1 + n 2 x + + 1 x + 0 x n + 1

Secci on 6.6

Polinomio caracter stico

181

Multiplicando las entradas en la diagonal obtenemos p. El lector debe observar el uso de potencias negativas de la variable. Esto quiere decir que el c alculo lo hicimos en el campo de funciones racionales K (x).
6.48

def Prueba. Denotemos B = {v0 , . . . , vn1 } = a, h (a) , . . . , hn 1 (a) . Sabemos por 6.23 que B es una base. Veamos como transforma h a los vectores de la base B. Tenemos que para k {0, . . . , n 2} se cumple que h (vk ) = vk+1 lo que justica las n 1 primeras columnas de la matriz acompa nante. Por otro lado si p = xn + n 1 xn 1 + nimo de h. entonces + 1 x + 0 es el polinomio m n 1 n 1 X X h (vn 1 ) = hn (a) = ph (a) i hi (a) = 0 i vi
i =0 i =0

Sea h un OL c clico con polinomio m nimo p de grado n. La matriz de n 1 h en la base a, h (a) , . . . , h (a) es la matriz acompa nante de p.

y esto justica la u ltima columna de la matriz acompa nante. Una consecuencia inmediata de 6.48 y 6.47 es el siguiente: Si h es c clico entonces, los polinomios m nimo y caracter stico de h coinciden.

6.50 6.51

6.49

Si h = f g entonces, el polinomio caracter stico de h es igual al producto de los polinomios caracter sticos de f y g.

Prueba. Sean F y G los subespacios invariantes en los cuales estan M 0 denidas f y g. Por 6.3, si A es una base de F y B es una base de G 0 M0 entonces, en la base de todo el espacio A B, la matriz de xI h es diagonal por bloques. El determinante de cualquier matriz diagonal por bloques es igual al producto de los determinantes de los bloques diagonales. El determinante del bloque superior izquierdo es el de xI f o sea, el polinomio caracter stico de f. El determinante del bloque inferior derecho es el de xI g o sea, el polinomio caracter stico de g. Teorema de Hamilton-Caley-Frobenius El polinomio caracter stico es un m ultiplo del polinomio m nimo. Estos dos polinomios tienen los mismos factores irreducibles.

Prueba. Por el Teorema de Descomposici on en Componentes Radicales C clicas (6.36) todo OL tiene una descomposici on en componentes c clicas. Por 6.49 los polinomios

182

Cap tulo 6. Descomposici on de operadores lineales

m nimos y caracter sticos coinciden en cada una de las componentes. Por 6.50 el polinomio caracter stico es el producto de los de las componentes. Por 6.11 el polinomio m nimo es el m nimo com un m ultiplo de los de las componentes. El m nimo com un m ultiplo es siempre un divisor del producto. El m nimo com un m ultiplo siempre tiene los mismos factores irreducibles que el producto. La primera armaci on se conoce en la literatura como Teorema de Hamilton-Caley y es equivalente por denici on de polinomio m nimo a que el polinomio caracter stico de h, evaluado en h es el operador nulo. La segunda se conoce como Teorema de Frobenius. Una curiosidad hist orica es que fu e Frobenius el que di o la primera prueba completa del Teorema de Hamilton-Caley. Es posible dar muchas diferentes demostraciones del Teorema de Hamilton-Caley que no pasan por la descomposici on de un operador en componentes c clicas (que es el resultado duro de esta teor a). La idea de una de ellas es tomarse un vector a, observar que en el subespacio invariante haih los polinomios caracter stico y m nimo coinciden y por lo tanto el polinomio caracter stico est a en el h-anulador de a. Como el vector a es arbitrario entonces el polinomio caracter stico est a en el h-anulador de todo el espacio y por lo tanto es un m ultiplo del polinomio m nimo. El Teorema de Frobenius se prueba f acilmente sobre los complejos ya que lo esencial aqu , es saber que si p es un factor irreducible del polinomio caracter stico entonces, ker (ph ) 6= o sea, existen vectores de per odo p. Esto es inmediato en el caso complejo porque todos los irreducibles son de grado 1 y todo valor propio tiene al menos un vector propio correspondiente. En el caso general, para que esto funcione, es necesaria la introducci on del campo de descomposici on de un polinomio y esto queda fuera de los objetivos de este libro. Por otro lado, el saber a priori la veracidad de estos dos teoremas no ayuda en mucho para la prueba de la existencia de h-bases, o lo que es lo mismo, la existencia de una descomposici on en componentes c clicas.

Ejercicio 128 Un OL es diagonalizable si existe una base en la cual su matriz es


diagonal. Pruebe que un OL es diagonalizable si y solo si su polinomio m nimo es un producto de diferentes polinomios de grado 1. [251] Ejercicio 129 Pruebe que si un operador lineal en dimensi on n tiene n diferentes valores propios entonces es diagonalizable. [251] Ejercicio 130 Un OL es triangulable si existe una base ordenada en la cual su matriz es triangular. Pruebe que un OL es triangulable si y solo si existe una cadena de subespacios invariantes {0} E1 En = E tales que dim Ek = k. [252] Ejercicio 131 Pruebe que f g es triangulable si y solo si f y g lo son. [252]

Secci on 6.7

Formas normales

183

Ejercicio 132 Pruebe que un OL es triangulable si y solo si los factores irreducibles de su polinomio caracter stico (que son los mismos del m nimo) son polinomios de grado 1. En particular, todo OL complejo es triangulable. [253]
Los OL sobre C que no son diagonalizables tienen medida de Lebesgue cero. Estos estan contenidos en una hipersupercie (denida por el discriminante del polinomio caracter stico) y por lo tanto, en cualquier vecindad de cualquier operador casi todos son diagonalizables. Este hecho tiene importantes consecuencias para las aplicaciones en las ciencias naturales.

6.7

Formas normales

Un OL h siempre se descompone en suma directa de sus componentes radicales c clicas. Por lo tanto, existen bases del espacio vectorial en las cuales la matriz de h es diagonal por bloques. Los bloques son las matrices de las componentes c clico-radicales de h. Nuestra tarea ahora es encontrar bases en las cuales la matriz de un operador c clico-radical es lo m as simple posible. Estas matrices dependen mucho de cual es el polinomio m nimo (que para operadores c clicos son iguales al caracter stico) del operador lineal. Por esto, empezaremos con casos particulares. Esto signica que en lo que sigue usaremos los mismos argumentos varias veces. Forma normal de Jord an Camille Jordan (Lyon 1838 - Par s 1922) Matem atico e ingeniero. Conocido tanto por su trabajo en la teor a de grupos como por su inuyente libro Cours danalyse. Su libro Trait e des substitutions et des equations alg ebriques publicado en 1870 contiene su descubrimiento de las ahora conocidas como formas normales de Jord an. Fu e el primero que realmente entendi o a Galois despues de la publicaci on p ostuma de los trabajos de Galois en 1846 y contribuy o mucho a que la Teor a de Grupos y la Teor a de Galois fueran parte de la corriente principal de las matem aticas. Una matriz del tipo que se muestra en el recuadro de la de- 1 0 recha se le llama celda de Jord an. Observese que el polino 0 0 mio caracter stico de una celda de Jordan es igual a (x )n . . . .. . . . . . y su polinomio m nimo es el mismo. Esto u ltimo se puede pro- . . 0 0 1 bar directamente de Hamilton-Caley y haciendo algunos c alculos 0 0 rutinarios. Como no necesitaremos esto, no haremos los c alculos. Sin embargo, el lector puede hacerse una idea de la prueba general con lo siguiente:
0 1 0 0 0 0 1 0 0 0 0 1

0 0 0 1 0 0 0 0 0 0 1 0 A = 0 0 0 1 , A2 = 0 0 0 0 , A3 = 0 0 0 0 , A4 = 0.
0 0 0 0 0 0 0 0 0 0 0 0

184

Cap tulo 6. Descomposici on de operadores lineales

6.52

Si h es un operador c clico-radical con polinomio m nimo (x )n entonces, en cierta base, la matriz de h es una celda de Jordan.

El polinomio q es de grado estrictamente menor que el grado del per odo de an y por lo tanto q = 0. Adem as, en la familia de polinomios pj hay exactamente un polinomio de grado t para cualquier t {0, . . . , n 1} . Luego, estos polinomios son linealmente independientes y de q = 0 concluimos que todos los kj son cero. Veamos como es la matriz de h en esta base. Para k {1, . . . , n 1} tenemos ak = ph (ak+1 ) = h (ak+1 ) ak+1 y despejando obtenemos h (ak+1 ) = ak + ak+1 . En otras palabras, en la base A el vector h (ak+1 ) tiene coordenadas (0, . . . , 1, , . . . , 0) donde el 1 aparece en el ndice k y aparece en el ndice k + 1. Estas son las columnas 2, . . . , n de una celda de Jord an. Para ver como es la primera columna, observemos que a1 E1 = ker ph y por lo tanto h (a1 ) a1 = 0. En otras palabras, en la base A el vector h (a1 ) tiene coordenadas (, . . . , 0) y esa es la primera columna de una celda de Jord an. El resultado anterior se aplica para operadores c clico-radicales cuyo polinomio m nimo es potencia de un polinomio de grado 1. Como por el Teorema de Gauss, los polinomios irreducibles en C [x] siempre son de grado 1, entonces este siempre es el caso para los OL c clico-radicales denidos en un espacio vectorial sobre los complejos. Conjugando esto con la descomposici on de un operador lineal en sus componentes c clico-radicales obtenemos el siguiente: Forma normal de Jord an
6.53

Prueba. Denotemos por p al polinomio (x ). Sea h : E E c clico-radical con n polinomio m nimo p . Sabemos que dim E = n. Sea a tal que haih = En . Tal vector existe ya que h es c clico. Sabemos que perh (a) = pn . def k Para k {1, . . . , n} denotemos ak = pn (a). Sea A = {a1 , . . . , an } y demostremos h que A es linealmente independiente y por lo Ptanto una base del espacio. Supongamos que para ciertos escalares ak = 0. Entonces ! k n n n 1 X X X def n k j k ak = k ph (a) = n j p (a) = qh (a) 0=
k =1 k =1 j =0 h

Si h es un operador lineal en un espacio vectorial nito dimensional sobre el campo de los n umeros complejos entonces, existe una base del espacio vectorial en la cual la matriz del operador es diagonal por bloques y los bloques son celdas de Jord an.

Secci on 6.7
Forma normal real

Formas normales

185

La matriz R tiene polinomio caracter stico (x )2 + 2 y como este polinomio es irreducible entonces por Hamilton-Caley su polinomio m nimo es el mismo. La matriz R es muy parecida a la de una rotaci on en el plano R2 . De hecho, si 2 + 2 = 1 entonces, es la matriz de una rotaci on de un a ngulo igual a arc cos . Una matriz del tipo que se muestra en el recuadro de la derecha se le llama celda cuadr que el polinomio caracter stico de una celda cuadr atica es igual atica. Observese n 2 a (x ) + 2 . El lector debe notar el parecido con las I O celdas de Jord an. El parecido est a dado por la correspondencia O O . . . de s mbolos , 1 I y 0 O. La diferencia fundamental .. . . . . . . . est a en que en el caso de las celdas de Jord an las entradas son O O I elementos del campo y aqu son matrices de orden 2. O O n Si (x )2 + 2 con 6= 0 es el polinomio m nimo de un operador c clicoradical h entonces, en cierta base, la matriz de h es una celda cuadr atica.
6.54

En el caso de los operadores lineales en un espacio vectorial sobre el campo R de los n umeros reales el problema es un poco m as complicado ya que tenemos m as polinomios de grado 2 que son irreducibles. M as precisamente, un polinomios del tipo (x )2 + 2 es irreducible si 6= 0. Denotemos 0 0 0 1 . ,O= ,I= = 0 0 0 0

2 2 Prueba. Denotemos por p al polinomio (x ) + . Sea h : E E c clico n radical con polinomio m nimo p . Sabemos que dim E = n. Sea a tal que haih = En . Tal vector existe ya que h es c clico. Sabemos que perh (a) = pn . Denotemos por r al polinomio (x ) /. El lector puede comprobar f acilmente que se cumple la siguiente iqualdad polinomial p xr = + r
k (a) y bk = rh (ak ). Sea A = Para k {1, . . . , n} denotemos ak = (p/)n h {a1 , b1 , . . . , an , bn } y demostremos que A es linealmente independiente y por lo tanto una base del espacio. P P Supongamos que para ciertos escalares k ak + k bk = 0. Entonces ! n n 1 X X n j + n j r def pj (a) = qh (a) . (k ak + k bk ) = 0= k =1 j =0 h def

El polinomio q es de grado estrictamente menor que el grado del per odo de a y por lo tanto q = 0. Adem as, en la familia de polinomios pj , rpj hay exactamente un

186

Cap tulo 6. Descomposici on de operadores lineales

polinomio de grado t para cualquier t {0, . . . , 2n 1} . Luego, estos polinomios son linealmente independientes y de q = 0 concluimos que todos los coecientes son cero. Veamos como es la matriz de h en la base ordenada A. Tenemos bk = rh (ak ) = 1 (h (ak ) ak ) y despejando h (ak ) = ak + bk . Esto justica todas las columnas con ndice impar de la celda cuadr atica. Adem as, usando la igualdad polinomial tenemos p h (bk ) = (xr)h (ak ) = (ak ) ak + r (ak ) = ak1 ak + bk h Esta igualdad es v alida incluso para k = 1 si denimos a0 = 0. Esto justica todas las columnas con ndice par de la celda cuadr atica. El resultado anterior es v alido sobre cualquier campo (por ejemplo Q) en el cual 2 2 (x ) + sea un polinomio irreducible. Para R esto termina el an alisis ya que todo polinomio real irreducible es de esta forma o es de grado 1. Conjugando esto con la descomposici on de un operador lineal en sus componentes c clico-radicales obtenemos el siguiente: Forma normal real
6.55

Si h es un operador lineal en un espacio vectorial nito dimensional sobre el campo de los n umeros reales entonces, existe una base del espacio vectorial en la cual la matriz del operador es diagonal por bloques y los bloques son celdas de Jord an o celdas cuadr aticas.

Forma normal can onica Ahora analizaremos el caso general en el cual el polinomio irreducible es arbitrario. , p es m onico de Denotaremos por p al polinomio 0 + 1 x + + m 1 xm 1 + xm . As grado m y supondremos que p es irreducible en nuestro campo. En este caso, nuestros bloques para construir las celdas son las matrices de orden m siguientes 0 0 0 -0 0 0 1 0 0 1 0 0 -1 0 0 0 . . . . . . .. .. O= . . = . ,I= . . . . . .. . . . . . . . . . . . . . . . . .
0 0 0 0 0 1 -m 2 -m 1 0 0 0 0 0 .. . O O . . . I

El lector debe reconocer que es la matriz acompa nante del polinomio p. Una matriz del tipo que se muestra en el recuadro de la I derecha donde los bloque son los denidos previamente se le O llama celda can onica. Usando 6.47 obtenemos que el polino- . . . . . mio caracter stico de una celda can onica es a igual a pn . La . O O diferencia con las celdas cuadr aticas es que los bloques son diO O ferentes aunque est en denotados con las mismas letras.

Secci on 6.7

Formas normales

187

Observese que las celdas can onicas para p = (x ) son celdas de Jord an. Sin embargo, las celdas can onicas y las celdas cuadr aticas son diferentes. Efectivamente, supongamos m = 2 y p = (x )2 + 2 = x2 2x + donde = 2 + 2 entonces, en la desigualdad
0 0 1

la celda can onica es la de la izquierda y la celda cuadr atica es la de la derecha. La ventaja de las celdas cuadr aticas es que son m as f aciles de intuir geom etricamente mediante rotaciones. La ventaja de las celdas can onicas es que siempre funcionan.
6.56

1 2 0 0 6 0 0 0 0 =
0 0 1 2

0 1 0 0 0 0 0

Si h es un operador c clico-radical con polinomio m nimo pn entonces, en cierta base, la matriz de h es una celda can onica.

El polinomio q es de grado estrictamente menor que el grado del per odo de an y por lo j k tanto q = 0. Adem as, en la familia de polinomios x p hay exactamente un polinomio de grado t para cualquier t {0, . . . , nm 1} . Luego, estos polinomios son linealmente independientes y de q = 0 concluimos que todos los kj son cero. Ordenemos nuestra base de la siguiente manera 1 m 1 1 m 1 1 m 1 a0 , a0 , . . . , a0 1 , a1 , . . . , a1 2 , a2 , . . . , a2 n , an , . . . , an y veamos como es la matriz de h en esta base ordenada. Para j {0, . ..,m tenemos 2} k j +1 h ak = h xj pn k h (an ) = h hj pn ( a ) = aj n h k y esto justica las columnas de la celda can onica cuyos ndices no son divisibles entre m que son del tipo (0, . . . , 0, 1, 0, . . . , 0). Denotemos los coecientes de p por i , o sea, p = 0 + 1 x + + m 1 xm 1 + xm

Prueba. Sea p m onico de grado m. Sea h : E E c clico radical con polinomio m nimo pn . Tenemos que dim Ek = mk. Sea a tal que haih = En . Tal vector existe ya que h es c clico. Sabemos que perh (a) = pn . Para j n k j (an ) k {1, . . . , n} y j {0, . . . , m 1}, denotemos aj k como en el ak = x p h recuadro a la derecha. Tenemos nm vectores aj k y necesitamos convencernos que estos forman una base del espacio, o lo que es lo mismo, que son linealmente independientes. Sean kj escalares P tales que kj aj k = 0. Tenemos ! X X X def 0= kj aj kj xj pnk h (a) = kj xj pn k (a) = qh (a) . k =
k,j k,j k,j h

188

Cap tulo 6. Descomposici on de operadores lineales


def

y denamos r = p xm . Tenemos m 1 = xm pn k h (an ) = (p r) pn k h (an ) = h ak n (k 1 ) = ph (an ) rpn k h (an ) = m 1 0 1 = a0 k 1 0 ak 1 ak m 1 ak la cual es v alida incluso para k = 1 si denimos a0 0 = 0. Esto justica las columnas de la celda can onica cuyos ndices son divisibles entre m que son del tipo (0, . . . , 0, 1, 0, . . . 0, 0 , . . . , m 1 , 0, . . . , 0). Conjugando esto con la descomposici on de un operador lineal en sus componentes c clico-radicales obtenemos el siguiente: Forma normal can onica
6.57

Si h es un operador lineal en un espacio vectorial nito dimensional sobre cualquier campo entonces, existe una base en la cual la matriz del operador es diagonal por bloques y los bloques son celdas can onicas.

Denamos el tipo de un OL como el tipo de una de sus descomposiciones en componentes radicales c clicas. Hay much sima libertad al construir formas normales. Por esto, no hay que sobredimensionar la importancia de las diferencias entre unas y otras. Lo importante y com un a todas las formas normales es que ellas solo dependen del tipo del operador y no del operador en si mismo.

Ejercicio 133 Se dice que dos OL f y g son conjugados si existe un OL invertible h


tal que f = h g h1 . Demuestre que dos OL tienen el mismo tipo si y solo si son conjugados. [253]

Captulo sptimo

Funcionales y Formas
n funcional es una funci on evaluada en un espacio vectorial y que toma valores en el campo. Los funcionales se encuentran muy frecuentemente en las matem aticas y en sus aplicaciones. Por ejemplo, en f sica es com un llamarles a ciertos funcionales campo escalar (la temperatura, la presi on etc.) lo que es bastante confuso pues esta frase es muy parecida a la frase el campo de escalares. Esta denici on de funcional es demasiado general para el algebra lineal. Aqu estudiaremos solamente los funcionales que tienen ciertas propiedades de linearidad. Cuando en el espacio vectorial se escoge una base entonces los funcionales se representan mediante formas que son en esencia polinomios de muchas variables que tienen ciertas propiedades de homogeneidad.

7.1

El espacio dual

Funcionales lineales Sabemos que cualquier campo K es un espacio vectorial de dimensi on 1 sobre si mismo. Las TLs de un espacio vectorial en el campo K son especialmente importantes por lo que tienen un nombre particular: funcionales lineales. M as detalladamente, si E es un espacio vectorial sobre K entonces a las TLs f : E K se les llama funcionales lineales. No est a dem as recalcar aqu que los funcionales lineales son un caso muy particular de las TLs y por lo tanto todo lo que sabemos de las TLs se aplica a los funcionales lineales. En particular: 1. Sabemos sumar funcionales lineales y multiplicar escalares por funcionales lineales (3.5 y 3.6). 2. El conjunto de todas los funcionales lineales Mor (E,K) es un espacio vectorial para la suma de funcionales lineales y el producto por escalares (3.7). Al espacio Mor (E,K) lo denotaremos por E# y lo llamaremos el espacio dual de E. El porqu e de este nombre lo aclararemos un poco m as adelante. Siguiendo la tradici on a los vectores en el espacio dual los llamaremos covectores. Luego, el t ermino covector es solamente un sin onimo de funcional lineal.

190

Cap tulo 7. Funcionales y formas

El isomorsmo de un espacio con su dual Algo muy importante que probamos en todo detalle para las TLs es que si le damos coordenadas a los espacios vectoriales escogiendo bases entonces, obtenemos por extensi on lineal los isomorsmos N Mor (E, F) Mor K{N } , K{M } K{M } . Si la TL es un covector entonces su codominio es K y esto se simplica mucho ya que K como espacio vectorial sobre K tiene base can onica M = {1}. As obtenemos que si N es una base de E entonces E# = Mor (E, K) Mor K{N } , K KN K{N } E

En el caso de que la base N sea innita entonces la contenci on K{N } KN es propia (no hay igualdad) y esto nos da una TL de E a E# que es inyectiva pero no sobreyectiva. Cuando la base N es nita entonces K{N } = KN y obtenemos un isomorsmo no can onico entre E y E# . Pasemos a describir este isomorsmo con m as detalle. Supongamos que E es nito dimensional y sea N una de sus bases. Sea f : E K un covector y x E un vector. Como N es una base y f es una TL. Tenemos que ! X X X xi i = xi f (i) = fi xi f (x) = f
iN iN iN

donde los xi son las coordenadas de x en la base N y los fi son los escalares f (i). Observese que si interpretamos a x como la variable de la funci on f entonces, los xi son variables y la suma a la derecha es una forma lineal cuyos coecientes son los fi . Esto nos da una funci on que a cada covector f le hace corresponder la forma lineal mencionada arriba. Esta funci on es biyectiva ya que su inversa es la que a una forma lineal le hace corresponder la evaluaci on de la forma lineal en las coordenadas de un vector. M as a un, es un isomorsmo de espacios vectoriales ya que (f + g) (i) = f (i) + g (i) = fi + gi (f) (i) = f (i) = fi

Como este espacio de formas lineales es can onicamente isomorfo a KN obtenemos que E y E# son isomorfos (NO can onicamente). La base dual Sea E un espacio vectorial (posiblemente de dimensi on innita) y sea N una de sus bases. Cualquier vector x se expresa de forma u nica como una combinaci on lineal (de soporte nito) de N. Los coecientes de tal combinaci on lineal son las coordenadas del vector x en la base N. Hay una coordenada para cada vector de la base N Ahora, sea i un vector en la base N y denotemos por iH (x) K a la coordenada de x correspondiente a i. Con esta notaci on nuestra combinaci on lineal se escribe como X x= iH (x) i
iN

Secci on 7.1

El espacio dual

191

Obs ervese que si j N entonces para iH (j) hay dos posibilidades. Si j = i, entonces H i (j) = 1. Si j 6= i, entonces iH (j) = 0. Esto es muy claro si observamos cual es la coordenada de j correspondiente a i. Esto se expresa de forma compacta como 1 si j = i H i (j) = ij = 0 en otro caso donde ij es el delta de Kronecker. La notaci on iH (x) sugiere que este es un elemento del campo el cual depende solo de i y de x. Esto es falso, iH (x) tambi en depende de cual es la base N. Esto es as porque la relaci on entre un espacio y su dual no es can onica.

y M = {i, k} son dos bases de R2 . Calcule iH (k) en las bases N y M. [253]

Ejercicio 134 Denotemos i = (1, 0), j = (0, 1) y k = (1, 1). Los conjuntos N = {i, j}
La funci on iH : E 3 x 7 iH (x) K es un funcional lineal por la sencilla raz on de que para sumar dos vectores hay que sumar sus coordenadas y para multiplicarlo por un escalar hay que multiplicar sus coordenadas por el escalar. Luego, iH es un covector def en E# . Denotaremos NH = {iH | i N}.

7.1

El conjunto de covectores NH es linealmente independiente.

Prueba. Recalquemos que el cero en el espacio dual es la funci on O que a cada vector del espacio le hace corresponder el cero del campo. Supongamos que tenemos X H una combinaci on lineal O = i i . Para cualquier j N tenemos que iN ! X X X i iH (j) = i iH (j) = i ij = j 0 = O (j) = y esto prueba que todos los coecientes de nuestra combinaci on lineal son cero. Si E es de dimensi on nita entonces, NH genera a E# .
iN iN iN

7.2

Prueba. Sea f NH un covector. Necasitamos convencernos que f es combinaci on H denir el covector lineal de N . Como N es nito podemos X g= f (i) iH que est a en el subespacio generado por NH . Veamos que f = g. P Si x = iN i i es un vector arbitrario entonces X X f (x) = i f (i) = iH (x) f (i) = g (x) .
iN iN iN

192

Cap tulo 7. Funcionales y formas

usando la denici on de igualdad de funciones, obtenemos que f = g. De 7.1 y 7.2 obtenemos que si el espacio es de dimensi on nita entonces NH es una base del espacio dual E# llamada la base dual de N.

Ejercicio 135 Sea N una base del espacio E. Sea la funci on que a cada vector en
E le hace corresponder la suma de sus coordenadas en la base N. Pruebe que es un funcional lineal. Pruebe que si E es de dimension innita entonces / hNH i.
El problema de caracterizar al conjunto hNH i en espacios de dimension innita es importante en An alisis Funcional. Por ejemplo, el Teorema de Representaci on de Riesz dice que en un espacio de Hilbert el conjunto hNH i es exactamente el conjunto de los funcionales lineales acotados.

La funci on H : N 3 i 7 iH E# denida en la base N de E la podemos extender por extensi on lineal (v ease la secci on 3.3) a todo el espacio E. Por denici on P P H def H = de extensi on lineal, si x = iN i i entonces, x iN i i y la imagen de la H # funci on H : E 3 x 7 x E es el subespacio generado por NH .

La funci on H siempre es inyectiva. Si el espacio es de dimensi on nita entonces H es biyectiva o sea, un isomorsmo de espacios vectoriales. El lector debe observar que es la tercera vez que construimos el isomorsmo entre un espacio de dimensi on nita y su dual en tres lenguajes diferentes (todas son equivalentes). Primero, basado en teoremas ya demostrados para las transformaciones lineales en general. Segundo, usando las formas lineales. Por u ltimo, usando las bases duales. En lo adelante, preferiremos esta u ltima construcci on por ser m as detallada que las anteriores. Para cualesquiera x, y E se tiene que X dos vectores X x= i i = xH (y) = XiN i j i i y= iN
iN

7.3

Prueba. Como H es lineal tenemos ! X X X XX X i iH (y) = i iH j j = i j iH (j) = i j xH (y) = que es lo que se requer a demostrar
iN iN jN iN jN i N

Este resultado se puede reformular como que xH (y) es el producto escalar can onico de las N-adas correspondientes a x y a y. En particular, como el producto escalar can onico es sim etrico, siempre se tiene que xH (y) = yH (x).

Secci on 7.1
7.4

El espacio dual

193

Para cualquier vector X x E se cumple que H x = xH (i) iH


i N

Prueba. Sabemos que la coordenada de x correspondiente a i en la base N es iH (x) = xH (i). Como H es un isomorsmo, las coordenadas de xH en la base NH son iguales a las coordenadas de x en la base N.

Ejercicio 136 Describa el espacio dual al de los polinomios K [x] . [253]


La transformaci on lineal dual Sean E y F dos espacios vectoriales y f : E F una TL. Para cada covector : F K en el espacio dual F# tenemos que la composici on f es un covector en el espacio f f # dual E . Esto nos da una funci on f# : F# 3 E F K 7 f E# que es una TL ya que # # # (f + g) = f + g y que (f) = ( f) (v ease 3.9 en E# F# f# # la p agina 69). A la TL f se le llama la transformaci on lineal dual a f. Observese en el recuadro de la derecha como la TL dual tiene la direcci on de la echa invertida. Adem as, es importante enfatizar que la denici on de transformaci on lineal dual es can onica, o sea, no se necesitan ningunas bases para poder denirla. E F & .
f

La TL dual en coordenadas
7.5

Si A es la matriz de una TL en ciertas bases, entonces AT es la matriz de su dual en las bases duales.

Prueba. Sea f : E F una TL. Sean N y M bases de E y F respectivamente. Podemos pensar que E = KN , F = KM y que f : KN 3 N 7 MN N KM para cierta matriz MN . Tenemos que averiguar cual es la matriz N H M H de f# en las bases duales. Por denici on de la matriz de una TL la columna N H jH son las coordenadas # H de f (j ) en la base NH . Por 7.4, la coordenada en iH NH de cualquier covector xH es igual a xH (i). Tenemos que iH jH = f# (jH ) (i) = (jH f) (i) = jH (f (i)) = jH (M i ) = ji Luego, si identicamos N con NH y M con MH mediante las biyecciones naturales obtenemos que N H M H = NM = T MN .

194

Cap tulo 7. Funcionales y formas

Covariancia y contravariancia Cuando tenemos un espacio vectorial ya coordinatizado con una base y se cambia la base, las n-adas correspondientes a los vectores cambian multiplicando por la matriz de cambio de base o sea, x0 = Ax. Por otro lado, las n-adas correspondientes a los covectores cambian multiplicando por la transpuesta de la matriz de cambio de base o lo que es lo mismo, multiplicando por el otro lado y0 = yA. Por esto, se dice que los vectores son contravariantes y los covectores son covariantes. Estas palabras vienen de la siguiente intuici on geom etrica. Si en el plano tenemos un vector y se rota el sistema de coordenadas entonces es como si el vector rotara en el sentido contrario, o sea, el vector contravar a. Los covectores en el plano dual hacen justo lo opuesto var an como lo hace el sistema de coordenadas o sea, covar an. Esto ocurre porque la matriz transpuesta de una rotaci on es igual a su inversa. Sin embargo, para otros cambios de base esto no es necesariamente cierto. Los vectores siguen contravariando pero los covectores no covar an. Por esto, nosotros nos ovidaremos de esta interpretaci on geom etrica. Propiedades de la TL dual
7.6 7.7

La dual de la identidad en E es la identidad en E# .

Prueba. Si f es la identidad entonces, G# tenemos que f# () = f = . Si E F G son dos transformaciones lineales entonces, (g f)# = f# g# .
f g

Prueba. Para cualquier G# tenemos que (g f)# () = (g f) = ( g) f = f# ( g) = f# g# () = f# g# () que es lo que se necesitaba demostrar. Otras propiedades de la TL dual se pueden encontrar en los ejercicios que siguen.

g : F E tal que g f es la identidad en E. [253] Ejercicio 138 Pruebe que una TL g : F E es sobreyectiva si y solo si existe otra TL f : E F tal que g f es la identidad en E. [254] Ejercicio 139 Pruebe que si f es sobreyectiva entonces f# es inyectiva. Pruebe que si f es inyectiva entonces f# es sobreyectiva. [254] Ejercicio 140 Pruebe que si f es un isomorsmo entonces f# tambi en lo es.

Ejercicio 137 Pruebe que una TL f : E F es inyectiva si y solo si existe otra TL

Secci on 7.2 7.2

Funcionales bilineales

195

Funcionales bilineales

Sean E y F dos espacios vectoriales sobre K. A un funcional f : E F K se le llama bilineal si se cumplen las dos siguientes propiedades o en otras palabras un funcional bilineal es un funcional de dos variables que es lineal en cada variable. Es claro que la suma de funcionales bilineales es tambi en un funcional bilineal. Lo mismo ocurre con el producto por escalares. Luego, el conjunto de funcionales bilineales Bil (E, F) es un espacio vectorial. Los funcionales bilineales est an en el mismo coraz on de muchas ramas de las matem aticas: teor a de n umeros, grupos de Lie, an alisis funcional, etc. Tambi en de la f sica: relatividad especial, teor a cu antica, etc. La notaci on Hay muchas funciones, funcionales, covectores, transformaciones lineales, etc. relacionadas con los funcionales bilineales por esto es importante escoger una buena notaci on, especial para los mismos. La primera observaci on que debemos hacer, es que n el producto escalar can onico en K denido por (1 , . . . , n ) (1 , . . . , n ) = 1 1 + + n n es un funcional bilineal. Por esto podemos pensar que un funcional bilineal es una especie de producto que a dos vectores (sean del mismo espacio o no) le hace corresponder un elemento del campo, o sea un escalar. Por esto, usaremos una notaci on operacional que recuerde un producto para denotar a los funcionales bilineales pero siempre entre comillas angulares. Asi por ejemplo un funcional bilineal ser a una funci on : E F 3 (x, y) 7 x y K 0 que cumple que x, x E, y, y0 F, K se tiene que 1. 2. x + x0 y = x y + x0 y x y + y0 = x y + x y0 x y x y = xy = xy x E el funcional F 3 y 7 f (x, y) K es lineal y F el funcional E 3 x 7 f (x, y) K es lineal

y as convertimos las propiedades de linearidad 1 y 2 en una especie de propiedades distributivas a la derecha e izquierda y asociativas a la derecha e izquierda de nuestro producto. Observese que las propiedades 1 son equivalentes a que y F la funci on y : E 3 x 7 x y K es un funcional lineal, o sea los y son covectores en el espacio dual E# . De la misma manera las propiedades 2 son equivalentes a que x E la funci on x : F 3y 7 x y K

196

Cap tulo 7. Funcionales y formas

es un funcional lineal, o sea los x son covectores en el espacio dual F# . Hagamos un resumen de nuestra notaci on Bil (E, F) xy K x F# y E#

Esta notaci on se debe pensar de la siguiente manera. Los x y son escalares. Si jamos a x y variamos y entonces, obtenemos el covector x . Si jamos a y y variamos x entonces, obtenemos el covector y . Si variamos a x y a y entonces, obtenemos el funcional bilineal . Los funcionales bilineales en coordenadas Sea M y N bases de E y F respectivamente. Si x E y y F entonces existen combinaciones lineales nitas X X x= xi i y = yj j
iM jN

y si denotamos por ij al escalar

donde los xi y los yj son ciertos escalares. Aplicando las propiedades de linearidad X XX X obtenemos xy = xi i yj j = xi yj i j
iM

xy

ij

jN

o sea, una forma bilineal. Los escalares ij forman una matriz MN llamada matriz del funcional bilineal en las bases M y N.
Esto funciona incluso para los espacios de dimensi on innita pues para cada pareja de vectores (x, y) solo un n umero nito de los productos xi yj son diferentes de cero. Por esto, a la matriz M N no hay que pedirle que tenga columnas o renglones de soporte nito. En esencia esto quiere decir que en el caso de dimensi on innita dim Mor (E, F) < dim Bil (E, F).

obtenemos XX = xi yj ij
iN jM

iM jN

Debido al amplio uso de los funcionales bilineales muchas y muy variadas personas escriben de los funcionales bilineales, usan muchas diferentes notaciones e incluso usan diferentes terminolog as. Probablemente el ejemplo m as notable de esto es que los matem aticos m as cl asicos que escriben en ingl es (no as en otros idiomas) abusan del lenguaje confundiendo el concepto de forma bilineal con el de funcional bilineal. En realidad los funcionales bilineales se convierten en formas bilineales solamente despues de escoger bases en los espacios. Las TLs acompa nantes Observemos que para cada vector x E tenemos que x es un covector en F# . De la misma manera para cada vector y F tenemos que y es un covector en E# . Esto nos da dos funciones:

Secci on 7.2

Funcionales bilineales
: E 3 x 7 : F 3 y 7 x F# y E#

197

Veremos que las funciones y son TLs y las llamaremos transformaciones lineales acompa nantes izquierda y derecha del funcional bilineal .
7.8

Las funciones

son transformaciones lineales.

Prueba. Por simetr a de la denici on de funcional bilineal solo hay que probar una de las dos armaciones. Probemos la primera. Debemos comprobar que x + x0 = x + x0 y esto es trivial ya que y tenemos que x + x0 y = x y + x0 y . De la misma manera vemos que x = x . La importancia de las TLs acompa nantes es que cualquiera de las dos dene al funcional bilineal.
7.9 7.10

Prueba. Es lineal en la primera variable porque f es lineal. Es lineal en la segunda variable porque f (x) es un covector. Estos resultados nos dan funciones # Bil (E, F) 3# 7 Mor E, F Mor E, F 3 f 7 f (x) (y) Bil (E, F) y queremos convencernos de que estas funciones son la inversa una de la otra. La TL acompa nante izquierda de f (x) (y) es f. xy
def

Si f : E F# es una TL entonces, f (x) (y) es un funcional bilineal.

Prueba. Sea
7.11

= f (x) (y). Tenemos


def

= f (x) luego,

= f.

Si

es un funcional bilineal y f =

entonces,

xy

= f (x) (y).

Prueba. Tenemos f (x) = x luego, f (x) (y) = x y . Luego, la funci on que a cada funcional bilineal le hace corresponder su TL acompa nante izquierda es biyectiva. Mas a un, esta correspondencia es un isomorsmo can oni # co entre los espacios vectoriales Bil (E, F) y Mor E, F . Como esto u ltimo no lo usaremos, dejaremos su prueba en calidad de ejercicio.

Ejercicio 141 Pruebe que la funci on 7 es una TL. [254]

198

Cap tulo 7. Funcionales y formas

N ucleos de los funcionales bilineales Sea : E F K un funcional bilineal. A los conjuntos ker = x E | x = 0 F# = {x E | x y = 0 y F} ker = y F | y = 0 E# = {y F | x y = 0 x E} se les llama n ucleo izquierdo y n ucleo derecho del funcional bilineal . En otras palabras, el nucleo izquierdo es el nucleo de la TL acompa nante izquierda y similarmente para el nucleo derecho. Un funcional bilineal se le llama no singular o no degenerado si sus dos n ucleos son triviales. esto es equivalente a que las dos trasformaciones lineales acompa nantes sean inyectivas. Hay una manera bastante facil de deshacernos de los n ucleos de un funcional bilineal. Denotemos por E0 E al n ucleo izquierdo de y por E1 E a cualquier subespacio complementario a E0 . Denotemos por F0 F al n ucleo derecho de y por F1 F a cualquier subespacio complementario a F0 .
7.12

La restricci on de

a E1 F1 es no singular.

Prueba. Sea A = {x E1 | x y = 0 y F1 } el n ucleo izquierdo de la restricci on de a E F. Si y es un vector cualquiera en F entonces, y = y0 + y1 con y0 F0 y y1 F1 . Si adem as, x A E1 entonces, x y = x y0 + x y1 = 0 + 0 y por lo tanto A E0 . Luego A E0 E1 = {0} y esto signica que A es trivial. La prueba de que el n ucleo derecho es trivial es an aloga. Observese que el funcional bilineal est a determinado a priori por su restricci on a E1 F1 ya que si (x, y) E F entonces (x, y) = (x0 + x1 , y0 + y1 ) con (x0 , y0 ) E0 F0 y (x1 , y1 ) E1 F1 . De aqu x y = x0 y0 + x0 y1 + x1 y0 + x1 y1 = x1 y1 ya que todos los dem as sumandos son cero. N ucleos de los funcionales bilineales en dimensi on nita
7.13

Si E y F son nito dimensionales y es no singular entonces, dim E = dim F.

Prueba. Como es no singular las TLs acompa nantes son inyectivas por lo # # que dim E dim F y dim F dim E . Como los espacios son nito dimensionales dim E = dim E# y dim F = dim F# . De estas desigualdades obtenemos la prueba.

Secci on 7.2
7.14

Funcionales bilineales

199

Si E y F son de la misma dimensi on nita entonces, los n ucleos derecho e izquierdo de tienen la misma dimensi on.

ucleos derecho e izquierdo Prueba. Sean E1 y F1 subespacios complementarios a los n on de a E1 F1 es no singular. Por 7.13 dim E1 = de . Por 7.12 la restrici dim F1 . Como por hip otesis E y F tienen la misma dimensi on, entonces los n ucleos tienen la misma dimensi on. El siguiente resultado es una consecuencia directa del anterior.
7.15 7.16

Si E y F son de la misma dimensi on nita entonces, las siguientes armaciones son equivalentes: 1. es no singular, 2. el n ucleo derecho de es trivial, 3. el n ucleo izquierdo de es trivial.

El doble dual Veamos una primera aplicaci on de los funcionales bilineales. Para esto primero : observemos que si x es un vector jo pero arbitrario en E entonces la funci on x # ## on x es la funci on E 3 y 7 y (x) K es un funcional lineal en E . La funci es consecuencia de la denici de evaluaci on en x. La linearidad de x on de suma de funciones y producto de un escalar por una funci on: 0 0 (y + y ) = (y + y ) (x) = y (x) + y0 (x) = x (y) + x (y0 ) x (y) = (y) (x) = (y (x)) = x (y) x

E## es una TL inyectiva. La funci on E 3 x 7 x Si E es de dimensi on nita, entonces es un isomorsmo.

on Prueba. Denotemos : E E# 3 (x, y) 7 x y = y (x) K. La funci es lineal en la primera variable porque los y son covectores. Es lineal en la segunda variable por denici on de suma y producto por escalares de covectores. Luego, es un funcional bilineal. y por lo tanto la TL acompa nante Observese que para este funcional x = x izquierda es la funci on en la tesis del resultado. Veamos que el nucleo izquierdo de es trivial. Efectivamente, sea x E un vector no nulo. Entonces, existe una base de E que lo contiene. Denamos el funcional y tal que y (x) = 1 y y (a) = 0 para cualquier otro vector a en la base. En todo el espacio y se dene por extensi on lineal. Luego, si x es no nulo entonces existe un

def

200

Cap tulo 7. Funcionales y formas

covector y tal que y (x) 6= 0. Esto signica que el n ucleo izquierdo es trivial. Luego, es inyectiva y esto prueba la primera armaci on. Si E es de dimensi on nita, entonces los espacios E, E# y E## son isomorfos y por lo tanto tienen la misma dimensi on. Como es una TL inyectiva entre dos espacios de la misma dimensi on nita, entonces es un isomorsmo. A la TL del resultado anterior se le llama inyecci on can onica de un espacio en su doble dual. Ya sab amos de la secci on anterior que para espacios nito dimensionales se tiene que dim E = dim E# = dim E## . El m erito del resultado anterior est a en que el isomorsmo es can onico o sea, no depende de la ambiguedad de escoger algo en el espacio E. Por esto, podemos pensar sin ninguna duda que E y E## son el mismo espacio. Dualidad de las TL acompa nantes Veamos ahora una primera aplicaci on del isomorsmo can onico entre un espacio y su doble dual. Para esto sean E y F dos espacios de dimensi on nita. Sea : E F K un funcional bilineal cualquiera. Las TLs acompa nantes son duales una de la otra.
def

7.18

7.17

Prueba. Probemos que h = ( )# es igual a . Tenemos h : F## E# y como F = F## los dominios y codominios de h y coinciden. Sea (x, y) E F. Como estamos identicando F con F## mediante el isomorsmo can onico tenemos que es tambi y=y en un elemento de F## . Por la denici on de TL dual tenemos que ) (x) = (y ) (x) = y ( (x)) = h (y = y ( x ) = x (y) = x y = (y) (x) aloga. y por lo tanto h = . La prueba de que ( )# = es an
Tanto la armaci on 7.17 como su prueba son un poco informales. De hecho, lo que se prueba # F## es la inyecci es que si : F 3 y 7 y on can onica entonces = ( ) . En el caso de que F sea de dimensi on nita entonces es un isomorsmo can onico y podemos pensar que es la identidad.

Los isomorsmos entre E y E# Si E es de dimensi on innita entonces, no hay isomorsmos entre E y E# ya que # dim E < dim E . Si E es de dimensi on nita entonces, E y E# tienen la misma dimensi on y por lo tanto son isomorfos. Ahora, queremos ver que escoger un isomorsmo entre E y E# es equivalente a escoger un funcional bilineal no singular en Bil (E, E). La correspondencia que a cada funcional bilineal no singular le hace corresponder el isomorsmo entre E y E# es biun voca.

Secci on 7.2

Funcionales bilineales

201

Prueba. Sea Bil (E, E) un funcional bilineal no singular. La TL acompa nante izquierda es inyectiva y como E y E# tienen la misma dimensi on nita entonces, es un isomorsmo entre E y E# . Rec procamente, sea f : E E# un isomorsmo. Entonces, de 7.9 obtenemos que def x y = f (x) (y) es un funcional bilineal. De 7.10 sabemos que = f. Como f es un isomorsmo entonces, el n ucleo izquierdo es trivial. Usando 7.15 obtenemos que es no singular. Al escoger una base en un espacio nito-dimensional este se convierte en un espacio de n-adas en el cual tenemos producto escalar can onico que es un funcional bilineal. O sea, escoger una base es mucho m as que escojer un funcional bilineal. El resultado anterior nos dice que para escoger un isomorsmo entre E y E# es necesario y suciente escoger un funcional bilineal. Lo anterior es importante porque cuando se tiene un funcional bilineal entonces este est a denido en cualquier subespacio del espacio (mediante la restricci on). Aunque no se tenga una base del subespacio, si se tiene el isomorsmo del subespacio con su dual.

Ejercicio 142 Demuestre que la TL izquierda del producto escalar can onico en Kn
es el isomorsmo entre E y E# denido por la base dual a la can onica. Anuladores Consideremos un funcional bilineal Bil (E, F). Sean A E y B F conjuntos de vectores. Los anuladores de A y B son los conjuntos A = {y F | x A def B = {x E | y B
def

respectivamente. Es importante recalcar aqu , para favorecer la intuici on, que si E = F = Rn y es el producto escalar can onico (el producto punto de vectores) entonces el anulador de un conjunto de vectores A es el subespacio ortogonal, o sea el conjunto de todos los vectores perpendiculares a todos los vectores del conjunto A. Esto quiere decir, que los anuladores son una generalizaci on de la ortogonalidad. Sin embargo, el lector no debe asumir que todo lo que se cumple para la ortogonalidad geom etrica se cumple para los anuladores. Por ejemplo, si E = F = C2 y nuevamente es el producto escalar can onico entonces (1, i) (1, i) = 12 + i2 = 0 o sea, (1, i) se anula a si mismo cosa que no suele ocurrir con el concepto geom etrico de perpendicularidad. ucleo derecho de y F = ker es Por otro lado, E = ker es el n el n ucleo izquierdo de y por esto, los anuladores pueden considerarse como una generalizaci on del concepto de n ucleo de un funcional bilineal.

xy xy

= 0} = 0}

202

Cap tulo 7. Funcionales y formas

Propiedades de los anuladores

7.19 7.20

Los anuladores son subespacios.

Prueba. Si y, y0 A y K entonces x A tenemos que x y + y0 = x y + x y0 = 0 + 0 = 0 x y = x y = 0 = 0 que es lo que se necesitaba demostrar.

Si A B entonces B A . xy = 0 entonces x A xy = 0.

Prueba. Si x B
7.21

A = hAi .

Prueba. Como A hAi entonces por el resultado anterior hAi A . Sea y A yx hAi. Tenemos para ciertos escalares i una combinaci on lineal de soporte nito P x = iA i i y por lo tanto X X X xy = i i y = i i y = 0=0 que es lo que se necesitaba demostrar. = A A. xy = 0. Luego, si x A entonces,
i A iA iA

7.22

def

Prueba. Tenemos que y A y x A x A .

Todas estas propiedades de los anuladores son v alidas en un contexto muy general y son bastante elementales. Para lograr algo m as substancial deberemos pedirle a nuestro funcional bilineal propiedades adicionales. El anulador del anulador Como los anuladores son una generalizaci on de los n ucleos, usaremos la misma t ecnica del resultado 7.12 para lidiar con ellos.

Secci on 7.2
7.23

Funcionales bilineales

203

Supongamos que el n ucleo izquierdo de Bil (E, F) es trivial. Sea A un subespacio de E. Sea B un subespacio complementario a A F. Entonces, la restricci on de a A B es no singular.

ucleo derecho trivial. Prueba. Probemos que la restricci on de a A B tiene n Efectivamente, para el n ucleo derecho Y de esta restricci on tenemos def Y = {y B | x y = 0 x A} {y F | x y = 0 x A} = A Luego, si y Y entonces, y A A = {0}. Probemos que la restricci on de a A B tiene n ucleo izquierdo trivial. Efectivamente, para el n ucleo izquierdo X de esta restricci on tenemos def X = {x A | x y = 0 y B} Sean x X y y F entonces, y0 + y1 con y0 A y y1 B. Tenemos que x y0 = 0 porque x A y y0 A . Tenemos que que x y1 = 0 porque x X y y1 B. Luego, x y = x y0 + x y1 = 0. En otras palabras, X est a contenido en el nucleo izquierdo de y por hip otesis este u ltimo es trivial. El lector debe observar que el resultado anterior no es sim etrico. Esto quiere decir que usando la simetr a de la denici on de funcional bilineal obtendremos el siguiente.
7.24 7.25

Supongamos que el n ucleo derecho de Bil (E, F) es trivial. Sea B un subespacio de F. Sea A un subespacio complementario a B E. Entonces, la restricci on de a A B es no singular.

Los dos resultados anteriores, demasiado t ecnicos, no representan mucho inter es para nosotros salvo como lemas para demostrar el siguiente, que es el resultado realmente importante acerca de los anuladores. Supongamos que dim E = dim F = n < y que Bil (E, F) es no singular. Entonces, para cual quier subespacio A E se tiene que A = A y que dim A = n dim A.

Prueba. El lector debe observar que la suposici on que dim E = dim F es superua ya que esto se cumple debido a que es no singular (v ease 7.13). Sea A un subespacio de E. Por 7.23 y 7.13 dim A = n dim A ya que n dim A es la dimensi on de cualquier subespacio complementario a A . con elmismo argumento que dim A = Aplicandole 7.24 a B = A obtenemos n dim A . Luego, dim A = n n dim A = dim A . Pero como por 7.22 tenemos que A A entonces usando 2.17 obtenemos que A = A . Si E y F son nito dimensionales y Bil (E, F) es no singular entonces, por

204
def

Cap tulo 7. Funcionales y formas

7.13 tenemos que n = dim E = dim F. De 7.25 la funci on A 7 A es biyectiva (tiene inversa) entre los subespacios de E y F. Esta funci on revierte el orden de inclusi on (7.20) y en particular transforma a un espacio de dimensi on k en un subespacio de dimensi on complementaria n k. Todas estas son propiedades bien conocidas del producto escalar can onico en Rn y haremos un buen uso de ellas cuando estudiemos productos bilineales en general. En el caso (muy importante) de que E = F los subespacios A y A son subespacios de E y tienen dimensiones complementarias, sin embargo NO son necesariamente complementarios. Esto es similar a lo que ocurre con el nucleo y la imagen de un operador lineal.

7.3

Productos escalares

Sea E un espacio vectorial. Un producto escalar en E es un funcional bilineal Bil (E, E) tal que se cumplen los dos siguientes axiomas: 1) es no singular 2) x, y E ( x y = 0) ( y x = 0)

El primer axioma no es muy importante. Del segundo axioma se puede probar que los nucleos derecho e izquierdo del funcional bilineal coinciden. Luego, si el funcional fuera singular, entonces bastar a restringirlo a un subespacio complementario al nucleo para obtener la no singularidad. Nosotros exigiremos la no singularidad para seguir la tradici on y no ensuciar con trivialidades lo que sigue.

Ejercicio 143 Pruebe que el producto escalar can onico en Kn es no singular.


Frecuentemente pensaremos que E trae consigo un producto escalar le llamaremos a E espacio con producto escalar. Perpendicularidad Sea un producto escalar en E. Diremos que dos vectores x, y son perpendiculares y lo denotaremos por x y si se cumple que x y = 0. En este lenguaje el segundo axioma se traduce como (x y) (y x). O sea, que la relacion de perpendicularidad es sim etrica. Sean A y B dos conjuntos de vectores. Diremos que A es perpendicular a B y escribiremos A B si cualquier vector en A es perpendicular a cualquier vector en B. El anulador de A es el conjunto A = {x E | x y y A} En otras palabras, A es el conjunto m as grande tal que A A . Observese que . Por esto

Secci on 7.3

Productos escalares

205

esta denici on coincide con la que dimos antes. Sin embargo, ahora no tenemos que preocuparnos si A es subconjunto del espacio izquierdo o derecho del funcional gracias a la simetr a de la relaci on de perpendicularidad. Simetr a e isotrop a Se dice que un vector x es isotr opico si x x o lo que es lo mismo si x x = 0. 2 Ya vimos que C con el producto escalar can onico tiene vectores isotr opicos no nulos. El espacio de Minkowsky es R4 con el producto bilinear denido por la forma bilineal xx0 + yy0 + zz0 c2 tt0 donde c es la velocidad de la luz. El espacio de Mikowsky es el espacio donde vive la teor a de la relatividad. Los vectores isotr opicos en este espacio forman un cono x2 + y2 + z2 = c2 t2 llamado cono de luz. A los vectores que no son isotr opicos se les llama anisotr opicos.
7.26

Si x es anisotr opico entonces, hxi hxi = 0. = xx = 0.

Prueba. Supongamos que x hxi hxi entonces x x Como en un campo no hay divisores de cero entonces, = 0.

Si para un funcional bilineal todo vector es isotr opico entonces se dice que el funcional es alternante.

Ejercicio 144 Pruebe que todo funcional bilineal no singular alternante es un producto escalar, o sea, que la perpendicularidad es sim etrica. [254]
Diremos que un vector x es sim etrico si para cualquier vector y se tiene que n x y = y x . En K con el producto escalar can onico todo vector es sim etrico. Si para un funcional bilineal todo vector es sim etrico entonces, se dice que el funcional es sim etrico. Es obvio que si un funcional bilineal no singular es sim etrico entonces es un producto escalar.

Ejercicio 145 Pruebe que el conjunto de todos los vectores sim etricos es un subespacio. Productos sim etricos y alternantes
Veamos algunas consecuencias de la simetr a de la perpendicularidad. A los vectores que no son sim etricos los llamaremos asim etricos.
7.27

Todo vector asim etrico es isotr opico.

206

Cap tulo 7. Funcionales y formas

Prueba. Sea a un vector asim etrico. Entonces existe b tal que a b 6= a b . Tenemos que 1 2 0= aa ab aa a b = a (a a b a a b) = 1 = (a a b a a b) a = a a ab aa ba = 3 = a a ( a b b a ) ( a a = 0) Las igualdades marcadas con 1 son por bilinearidad. La igualdad marcada con 2 es por simetr a de la perpendicularidad. La implicaci on 3 es porque en un campo no hay divisores de cero y la denici on de b.
7.28 7.29 7.30

Los vectores asim etricos son perpendiculares a los sim etricos.

Prueba. Sea a un vector asim etrico. Entonces existe b tal que a b 6= a b . Sea x cualquier vector sim etrico. Tenemos que 1 2 0= ax ab ax a b = a (x a b a x b) = 1 3 = (x a b a x b) a = x a ab ax ba = 4 = a x ( a b b a ) ( a x = 0)

Las igualdades marcadas con 1 son por bilinearidad. La igualdad marcada con 2 es por simetr a de la perpendicularidad. La igualdad marcada con 3 es porque x es sim etrico. La implicaci on 4 es porque en un campo no hay divisores de cero y la denici on de b. El lector debe observar que las pruebas de 7.27 y 7.28 son casi iguales. Si existe un vector asim etrico entonces, todo vector es isotr opico.

Prueba. Sea x cualquier vector. Si x es asim etrico entonces, usando 7.27 obtenemos que x es isotr opico. Luego, podemos suponer que x es sim etrico. Sea a un vector asim etrico. Como los vectores sim etricos forman un subespacio entonces, el vector x + a tiene que ser asim etrico. Por 7.27 a y x + a son isotr opicos. Por 7.28 x a. Luego, 0= x+ax+a = xx + ax + xa + aa = xx porque todos los dem as sumandos son cero. Este u ltimo resultado lo podemos reformular como: Todo producto escalar es sim etrico o es alternante. Debido a 7.30 hay tres tipos de productos escalares:

Secci on 7.3

Productos escalares
Caracter stica

207

Tipo S. Aquellos que son sim etricos pero no alternantes Tipo A. Aquellos que son alternantes pero no sim etricos Tipo AS. Aquellos que son alternantes y sim etricos.

arbitraria 6= 2 =2

Si un producto escalar es alternante entonces la igualdad 0= x+yx+y = xy + yx muestra que x, y se tiene que x y = y x . O sea el producto es antisim etrico. Si un producto escalar es sim etrico, antisim etrico y dim E > 0 entonces, por la no singularidad existen vectores x, y tales que x y 6= 0. Luego, hay un escalar no nulo tal que = y por lo tanto el campo tiene caracter stica 2. Rec procamente, si el campo es de caracter stica 2 entonces, las propiedades de ser sim etrico y antisim etrico son equivalentes. Esto muestra que los productos de Tipo A solo existen sobre campos de caracter stica diferente de 2 y los de Tipo AS solo existen sobre campos de caracter stica igual a dos. Los de Tipo S existen sobre campos de cualquier caracter stica (el producto escalar can onico). En lo que sigue excluiremos de la teor a el caso dim E = 0 ya que es trivial. Suma perpendicular Sean (E, ) y (F, ) dos espacios con productos escalares sobre el mismo campo. En E F podemos denir un funcional llamado suma perpendicular (externa) de la siguiente manera: (x, y) (x0 , y0 ) = x x0 + y y0 . La propiedad fundamental de la suma perpendicular es que todos los vectores en E (aquellos de la forma (x, 0)) son perpendiculares a todos los vectores en F (aquellos de la forma (0, y)) ya que x 0 + 0 y = 0.
7.31

La suma perpendicular de dos productos escalares es un funcional bilineal.

Prueba. La comprobaci on de que es bilineal es rutinaria. Por ejemplo (x, y) + (a, b) (x0 , y0 ) = (x + a, y + b) (x0 , y0 ) = = x + a x0 + y + b y0 = x x0 + a x0 + y y0 + b y0 = (x, y) (x0 , y0 ) + (a, b) (x0 , y0 ) y las otras propiedades se prueban igual.
7.32

La suma perpendicular de dos productos escalares es no singular. . Por

Prueba. Supongamos que (x, y) 6= (0, 0) est a en el nucleo izquierdo de

208

Cap tulo 7. Funcionales y formas

simetr a, podemos suponer que x 6= 0. Entonces para todo x0 E se cumple que 0 = (x, y) (x0 , 0) = x x0 y esto contradice que es un producto escalar. La prueba de que el nucleo izquierdo es trivial es similar. La propiedad de que sea un producto escalar o sea, que la perpendicularidad sea sim etrica no siempre es cierta. Por otro lado, es facil probar que y son sim etricos es sim etrico y son alternantes es alternante Luego, si sumamos dos productos escalares del mismo tipo obtenemos un producto escalar de ese tipo.

Ejercicio 146 Demuestre que y son sim etricos si y solo si co. Ejercicio 147 Demuestre que y son alternantes si y solo si ternante.

es sim etri es al-

No podemos sumar un producto de Tipo A con uno de Tipo AS ya que los dos no podr an ser sobre el mismo campo. Si sumamos un producto de Tipo A con uno de Tipo S entonces el funcional bilineal resultante no es sim etrico y no es alternante y por lo tanto no es un producto escalar. Si sumamos un producto de S A AS Tipo AS con uno de Tipo S entonces obtendremos uno de Tipo S S S * S (sim etrico pero no alternante). En resumen, solo se pueden sumar A * A * productos de diferentes tipos si la caracter stica del campo es 2. En el recuadro de la derecha se resumen las posibilidades. En este, * AS S * AS signica que no se obtiene un producto escalar. Espacios irreducibles Si E y F son subespacios perpendiculares y complementarios (o sea E F = {0} , E + F = G y E F) de un espacio (G, ) con producto escalar entonces, escribiremos E F = G y diremos que (G, ) es la suma perpendicular (interna) de onico entre la Suma y (E, ) y (F, ). En este caso debido al Isomorsmo Can la Suma directa (2.27), el producto escalar en G es la suma perpendicular externa de las restricciones del producto escalar a los subespacios E y F = E . Diremos que un espacio con producto escalar es reducible si existen subespacios no triviales (diferentes de {0} y todo el espacio) tales que el espacio es la suma perpendicular de ellos. En otro caso se le llama irreducible. Por denici on de suma perpendicular un espacio es irreducibe si y solo si para cualquier subespacio no trivial H se tiene que H 6= H H . Cualquier espacio de dimensi on 1 es irreducible ya que no tiene subespacios no triviales. A un espacio (E, ) de dimensi on 2 que tiene una base {x, y} de vectores isotr opicos tales que x y = 1 = y x , se le llama plano simpl ectico. En

Secci on 7.3
esta base la forma bilineal de
7.33

Productos escalares
es (a, b) (a0 , b0 ) = ab0 ba0 .

209

Los planos simpl ecticos son irreducibles.

Prueba. Los planos simpl ecticos son alternantes ya que (a, b) (a, b) = abba = 0. Como un plano simpl ectico tiene dimensi on 2 los u nicos subespacios no triviales tienen dimensi on 1 o sea estan generados por un vector a. Pero como a es isotr opico a hai hai . Caracterizaci on de los productos irreducibles
7.34

Sea (E, ) de dimensi on nita con producto escalar irreducible no nulo. Si (E, ) es de Tipo S entonces, dim E = 1. Si (E, ) es de Tipo A o AS entonces, es un plano simpl ectico.

opico y Prueba. Si (E, ) es de Tipo S entonces existe un vector x que es anisotr por lo tanto hxi y hxi se intersectan en el origen (7.26). Como por 7.25 hxi y hxi tienen dimensiones complementarias y son nito dimensionales entonces, hxi y hxi son complementarios. Luego hxi tiene que ser trivial, o sea, de dimensi on cero. Supongamos que (E, ) es de Tipo A o AS o sea que es alternante. Si dim E = 1, entonces no puede ser alternante (si lo fuera ser a singular) y por lo tanto dim E 2. Sea x E un vector no nulo. El vector x es isotr opico y por lo tanto para cualquier x hxi tenemos que x x = 0. Si para cualquier otro vector z / hxi se tiene que x z = 0 entonces el n ucleo de contiene a x y esto contradice que es no singular. Luego, existe z / hxi tal que x z = 6= 0. Sea y = z/. Tenemos x y = etrico) y x x = 0 = y y (porque todo 1 = y x (por ser antisim vector es isotr opico). Esto signica que el subespacio hx, yi es un plano simpl ectico. Como los planos simpl eticos son irreducibles solo nos falta por probar que hx, yi es todo E. Sea u = x + y hx, yi. Si adem as u hx, yi entonces, 0= xu = xx + xy = 0= uy = xy + yy = hx, yi . Como y por lo tanto hx, yi hx, yi = {0}. Por 7.25 tenemos que E = hx, yi por hip otesis E es irreducible, hx, yi tiene que ser trivial o sea E = hx, yi. Espacios ortogonales y simpl ecticos Como evidentemente cualquier espacio de dimensi on nita con producto escalar es suma de irreducibles entonces todos los primeros se obtienen sumando perpendicularmente espacios de dimensi on 1 o planos simpl ecticos. Un espacio de dimensi on nita con producto escalar se le llama ortogonal si es suma perpendicular de espa-

210

Cap tulo 7. Funcionales y formas

cios de dimensi on 1. Un espacio de dimensi on nita con producto escalar se le llama simpl ectico si es suma perpendicular de planos simpl ecticos. Es m as c omodo pensar en los espacios ortogonales de otra manera. Diremos que un conjunto A de vectores es ortogonal si sus vectores son anisotr opicos y perpendiculares dos a dos, o sea si x, y A se tiene que (x y) (x 6= y) La ortogonalidad es una propiedad mucho m as fuerte que la independencia lineal.
7.35

Todo conjunto ortogonal es linealmente independiente.

y como j j 6= 0 entonces j = 0. Esto quiere decir que todos los coecientes de la combinaci on lineal son iguales a cero. A los conjuntos ortogonales que son bases del espacio se le llaman bases ortogonales. Las bases ortogonales no siempre existen.
7.36

P on Prueba. Supongamos que A es ortogonal y que 0 = iA i i es una combinaci lineal nula de A. Si j A entonces X por j obtenemos X multiplicando 0= 0j = i i j = i i j = j j j
i A iA

Un espacio es ortogonal si y solo si tiene una base ortogonal.

y esto contradecir a que es no singular. Luego, A es una base ortogonal. Rec procamente, sea A = {x1 , . . . , xn } una base ortogonal. Entonces, E = E1 as, las sumas directas son perpendiculares ya que si En donde Ei = hxi i. Adem P Pn y= j x E E y z = 1 j i =1 i i k =j+1 k xk Ej+1 En entonces j n X X yz = i k xi xk = 0
i =1 k =j +1

on n < con producto escalar. Prueba. Sea (E, ) un espacio de dimensi Si el espacio es ortogonal entonces existen n espacios de dimensi on 1 tales que E = E1 En . Cualquier conjunto A = {x1 , . . . , xn } tal que xi Ei \ {0} es una base de E. Adem as por denici on de suma perpendicular i 6= j = xi xj . Si se cumpliera que para cierto j se tiene que xj es isotr opico entonces, para cualquier vector Pn en el espacio y = i=1 i xi se tendr a que n X xj y = i xj xi = j xj xj = 0
i =1

Luego, el espacio es ortogonal.

Secci on 7.3

Productos escalares

211

Ejercicio 148 Un conjunto de vectores isotr opicos {x1 , . . . , xn , y1 , . . . , yn } se le llama conjunto de Darboux si sus vectores son perpendiculares dos a dos excepto en el caso xi yi = yi xi = 1. Pruebe que todo conjunto de Darboux es linealmente independiente. [254] Ejercicio 149 A un conjunto de Darboux que es base del espacio se le llama base de Darboux. Pruebe que un espacio es simpl ectico si y solo si tiene una base de Darboux. [255]
Y que pasa si sumamos los ortogonales con los simpl ecticos? El siguiente resultado es la respuesta.
7.37 7.38

La suma perpendicular de un espacio de dimensi on 1 con un plano simpl ectico es un espacio ortogonal.

Prueba. Un espacio de dimensi on 1 es necesariamente de Tipo S porque est a generado por un vector x y x x = 6= 0. Un plano simpl ectico es de Tipo A o AS. Si es de Tipo A entonces no lo podemos sumar con otro espacio de Tipo S. Luego, necesariamente es de Tipo AS y el campo es de caracter stica 2. La suma de estos dos espacios es de Tipo S y en particular sim etrico. El plano simpl ectico est a generado por dos vectores isotr opicos y, z tales que z y = y z = 1 (como la caracter stica es 2, tenemos 1 = 1). Observese que en la suma perpendicular hxi hy, zi tenemos x y = x z = 0. Los vectores denidos por las igualdades def def def a = x + y + z , b = x + y , c = a + y son anisotr opicos, forman una base del espacio y son perpendiculares dos a dos (pruebelo usando que el campo tiene caracter stica 2!). Este resultado nos permite armar que en caracter stica 2 la suma perpendicular de espacios de Tipo S con espacios de Tipo AS es un espacio ortogonal. Luego, los espacios ortogonales son los de Tipo S y los simpl ecticos son los de los Tipos A y AS. M as detalladamente: Teorema de caracterizaci on de los productos escalares Cualquier espacio con producto escalar de dimensi on nita o es ortogonal o es simpl ectico. Ambas posibilidades son excluyentes. Los espacios ortogonales son aquellos en los que el producto es sim etrico pero no alternante. Los espacios simpl ecticos son aquellos en los cuales el producto es alternante.

Debido a esto ya no nos veremos m as en la necesidad de usar los tipos de los productos escalares. Ahora simplemente los clasicaremos en ortogonales y simpl ecticos

212

Cap tulo 7. Funcionales y formas


sim etrico pero no alternante alternante

y lo que sabemos de ellos queda resumido en la siguiente tabla. ortogonal


def def

base ortogonal suma de planos simpl ecticos

En caracter stica diferente de dos, la alternancia es equivalente a la antisimetr a. Luego, en este caso, los espacios ortogonales son los que tienen producto escalar sim etrico y los espacios simpl ecticos son los que tienen producto escalar antisim etrico.
La prueba del teorema de caracterizaci on de los productos escalares se simplica algo si se excluyen los campos de caracter stica 2. Nosotros la expusimos en toda su generalidad debido a que los campos de caracter stica 2 tienen mucha importancia para las ciencias de la computaci on.

simpl ectico

Funcionales cuadr aticos Sea : E E K un funcional bilineal (no necesariamente producto escalar). A la funci on Q : E 3 x 7 x x K se le llama funcional cuadr atico del funcional bilineal . De la misma manera que los funcionales bilineales, escogida una base, son formas bilineales, los funcionales cuadr aticos en una base son formas cuadr aticas. En todo lo que relacionado a las formas y funcionales cuadr aticos asumiremos en lo que sigue que la caracter stica del campo es diferente de 2. La teor a de las formas cuadr aticas en caracter stica 2 es muy diferente y nosotros no la estudiaremos.
7.39

Si Q es el funcional cuadr atico del funcional bilineal entonces, def Q (x + y) Q (x) Q (y) xy = 2 etrico entonces, = . es un funcional bilineal. Si es sim

Prueba. El lector debe observar que la denici on de es correcta ya que en caracter stica def diferente de dos el elemento del campo 2 = 1 + 1 tiene inverso multiplicativo. Usando la bilinearidad de y la denici on de Q obtenemos que xy + yx xy = 2 el cual es obviamente un funcional bilineal sim etrico y que coincide con si este u ltimo es sim etrico. El resultado anterior establece (en caracter stica diferente de 2) una correspondencia

Secci on 7.3

Productos escalares

213

uno a uno entre los funcionales cuadr aticos y los funcionales bilineales sim etricos. Por esto, tenenos que: Toda la teor a de los funcionales y formas cuadr aticas es equivalente a la teor a de los funcionales bilineales sim etricos. El lector puede pensar que simplemente son dos lenguajes para lo mismo. Pongamos varios ejemplos de esto. Una funcion Q : E K es un funcional cuadr atico (el funcional cuadr atico de alg un funcional bilineal) si y solo si la funci on E E 3 x 7 Q (x + y) Q (x) Q (y) K es un funcional bilineal. Para cualquier funcional cuadr atico Q (x) = 2 Q (x), en particular, Q (0) = 0. Un espacio en el cual est a dado un funcional cuadr atico se le llama espacio cuadr atico. En un espacio cuadr atico se dice que dos vectores x, y son perpendiculares si Q (x + y) = Q (x) + Q (y). El nucleo de un funcional cuadr atico est a formado por los vectores que son perpendiculares a cualquier vector. Un funcional cuadr atico es no singular (o no degenerado) si su nucleo es trivial. Ocupemonos ahora de otro ejemplo un poco m as elaborado de este cambio de lenguaje. Una forma cuadr atica es diagonal si ella es una combinaci on lineal de los cuadrados de las variables. As por ejemplo, x2 + 2y2 es diagonal y x2 + 2xy no lo es. Una forma cuadr atica es diagonal, si y solo si su matriz es diagonal.
7.40

Si Q : E K es un funcional cuadr atico no singular entonces, existe una base de E en la cual Q es una forma cuadr atica diagonal.

que es lo que se requer a probar.

Prueba. Sea el funcional bilineal de Q. Por hip otesis es no singular y sim etrico y por lo tanto (E, ) es un espacio ortogonal. Sea AP una base ortogonal. Tenemos que si i, j A entonces (i 6= j) (i j). Luego si x = iA xi i entonces, XX X X Q (x) = x x = xi xj i j = x2 i i = Q (i) x2 i i
iA jA iA iA

Ejercicio 150 Muestre que la suposici on de que Q es no singular en 7.40 no es relevante.

214

Cap tulo 7. Funcionales y formas

Complementos y proyecciones ortogonales (GramSchmidt) Sea (E, ) un espacio ortogonal y F un subespacio de E. Puede ocurrir o no que E = F F . Si esto ocurre, entonces la suma directa es perpendicular y se dice que F es el complemento ortogonal de F. Si la restricci on de a un subespacio F tiene nucleo no trivial entonces diremos que F es degenerado
7.41 7.42

Un subespacio tiene complemento ortogonal si y solo si no es degenerado.

Prueba. Sea F un subespacio. Si F es degenerado entonces existe un vector no nulo y F tal que y F. Luego, y F y por lo tanto F no tiene complemento ortogonal. Rec procamente si E 6= F + F entonces por 7.25 se tiene que cumplir que F F 6= {0}. Si el vector no nulo y F F entonces y F y por lo tanto y est a en el nucleo de la restricci on del producto a F. Si E = F F entonces todo vector x E se expresa de forma u nica como una suma x = a + b donde a F y b F y por lo tanto a b. En este caso al vector a se le llama la proyecci on ortogonal de x al subespacio F y depende exclusivamente del vector a y del subespacio F. Las proyecciones ortogonales son un caso especial de las proyecciones en general que estudiamos al principio del cap tulo de transformaciones lineales. En particular, las proyecciones ortogonales son transformaciones lineales. Ahora nos ocuparemos en construir la proyeccion ortogonal. Sea A un conjunto ortogonal o sea, un conjunto de vectores anisotr opicos perpendiculares X xi dos a dos. Como E es de dimensi on nita y todo conjunto ortogonal i es LI, el conjunto A tiene que ser nito. Sea x un vector arbitrario. iA i i Denotemos por A (x) al vector del recuadro de la derecha. El vector A (x) es la proyecci on ortogonal de x al subespacio hAi.

y por lo tanto

Prueba. Obviamente A (x) hAi. Tenemos que demostrar que x A (x) hAi o sea, que para todo vector y hAi se cumple que (x A (x)) y. Sea j A probemos primero que x j = A (x) j . Efectivamente, como (i 6= j) ( i j = 0) tenemos que X xi xj A (x) j = ij = jj = xj ii jj iA def P Sea ahora y = jA j j un vector arbitrario en hAi. Tenemos que X X A (x) y = j A (x) j = j x j = x y x A (x) y
j A

xy

A (x) y

jA

= 0.

Secci on 7.3

Productos escalares

215

x2 + y2 z2 . El conjunto A = {(1, 0, 0)} es ortogonal. Sea x = (1, 1, 1). Calcule el vector def y = x A (x). Es y anisotr opico?

Ejercicio 151 Sea el producto escalar en R3 denido por la forma cuadr atica

Es claro que si x hAi entonces x = A (x) y por lo tanto x A (x) = 0. Por otro lado como A (x) hAi tenemos que si x / hAi entonces, x A (x) 6= 0. Por def 7.42 (x A (x)) A y por lo tanto en el conjunto B = A {x A (x)} dos vectores distintos cualesquiera son perpendiculares. Lo u nico que le falta a B para ser ortogonal es que x A (x) sea anisotr opico. Desafortunadamente, no es cierto en general que (x / hAi) (x A (x) es anisotr opico) .

Sin embargo, hay ejemplos de importancia fundamental (el producto escalar can onin co en R y en general cualquier producto interior sobre R) en los cuales todo vector es anisotr opico. En los espacios que cumplen esta condici on, debido a 7.42 obtenemos que (A ortogonal y x / hAi) (A {x A (x)} ortogonal) y esto nos permite formular el siguiente algoritmo llamado proceso de ortogonalizaci on de GramSchmidt: Requisito: Producto escalar sin vectores isotr opicos. Entrada: Base arbitraria A = {a1 , . . . , an }. Salida: Base ortogonal B = {b1 , . . . , bn }. b1 a1 ; B {b1 } ; bk (ak B (ak )) ; Algoritmo: Desde k = 2 hasta n B B {bk } ; a denido el siguiente funcional bilineal Ejemplo: Supongamos que en R3 est 0 0 0 (x, y, z) (x , y , z ) = xy0 + yx0 + xz0 + zx0 + yz0 + zy0 . Este funcional bilineal es sim etrico y su forma cuadr atica es 2 (xy + xz + yz). Los vectores de la base can onica son todos isotr opicos y GramSchmidt no siempre funciona. Si funciona o no depende de que en cada paso se obtengan vectores anisotr opicos y esto a su vez depende de la base original escogida. Por esto, haremos trampa ya que el autor conoce una base en la cual s funciona. Deniremos e1 = (1, 1, 0) , e2 = (1, 0, 1) y e3 = (0, 1, 1). Es evidente que {e1 , e2 , e3 } es una base de R3 y que e1 e1 = e2 e2 = e3 e3 = 2. Sin embargo, esta base no es ortogonal ya que e1 e2 = 3. Apliquemos el resultado 151 . Sea a = e1 . Calculando obtenemos e2 a 1 e2 a = (1, 3, 2) aa 2 por lo que deniremos b = (1, 3, 2). Tenemos a b = 0 y b b = 10. Como b es anisotr opico podemos seguir adelante. Nuevamente, calculando obtenemos e3 a e3 b 2 e3 a b = (3, 1, 1) aa bb 5 por lo que deniremos c = (3, 1, 1). El conjunto {a, b, c} es ortogonal y para un vector

216

Cap tulo 7. Funcionales y formas

w= en esta base se tiene que nuestra forma cuadr atica es igual a + b + c expresado a 2 2 52 52 . Observese que a+b+c = ( + 3, + 3 + , 2 + ) y que otra manera de interpretar esto es que si en el polinomio xy + xz + yz se hacen los cambios de variables x = + 3 y = + 3 + z = 2 + entonces se obtiene 2 52 52 . Esto se puede comprobar directamente con algunos c alculos elementales.
Los vectores isotr opicos son los ceros de una forma cuadr atica los cuales forman una hipercu adrica en Rn y por lo tanto son un conjunto de medida cero. Esto quiere decir que GramSchmidt casi siempre funciona.

Metodo de Lagrange

El m etodo de Lagrange es ampliamente conocido en la teor a de las formas cuadr aticas. Aqu est a traducido al lenguage de los productos escalares sim etricos. El objetivo es el mismo que GramSchmidt: dada una base del espacio hay que ortogonalizarla. A diferencia de GramSchmidt el m etodo de Lagrange funciona para cualquier producto escalar ortogonal pero solo en campos de campos de caracter stica diferente de dos. Sea (E, ) un espacio ortogonal sobre un campo K de caracter stica diferente de dos.
7.43

Si todos los vectores de una base A son isotr opicos entonces, existen x, y A tales que {x + y} A\ {x} es una base y x + y es anisotr opico.

Prueba. Supongamos que todos los vectores de la base A son isotr opicos. Si ocurriera que los vectores de A fueran perpendiculares dos a dos entonces, el producto escalar ser a alternante (pru ebelo!) y por lo tanto no podr a ser ortogonal. Luego, en A existen dos vectores x, y tales que x y 6= 0. Tenemos que x + y x + y = x x + 2 x y + y y = 2 x y 6= 0 y es claro que {x + y} A\ {x} es una base porque x + y / hA\ {x}i. Supongamos dim E 2 y que la base A contiene un vector anisotr opico a. Denodef temos B = A \ {a}. Sea a : E E la funcion denida por a (x) = x a a a a x. Como a es la suma de dos operadores lineales, es un operador lineal.

Secci on 7.3
7.44

Productos escalares

217

El conjunto a (B) es LI y es perpendicular al vector a. El conjunto a (B) {a} es una base del espacio. La restricci on (ha (B)i , ) es un espacio ortogonal.
def

para alg un K. Como A = B {a} es una base entonces todos los coecientes i tienen que ser cero. Esto demuestra que a (B) es LI y de paso que a (B) tiene la misma cantidad de vectores que B. Sea a (i) a (B) entonces a (i) a = i a aa aa ia =0 y esto demuestra que a a (B). Como a (B) es LI y le falta un solo vector para ser una base del espacio solo tenemos que probar que a / ha (B)i. Supongamos que a ha (B)i. Entonces para ciertos coecientes j tenemos ! que X X X X a 0 = a + j a (j) = 1 + i j a j j = a j j para alg un K. Como A = B {a} es una base entonces todos los coecientes j tienen que ser cero. Luego, a = 0 y esto es una contradicci on. Luego, a (B) {a} es una base del espacio. def Denotemos F = ha (B)i. Solo nos queda probar que la restricci on de a F es un producto escalar ortogonal. La simetr a se preserva. Si esta restricci on fuera alternante entonces el campo ser a de caracter stica 2 y ya excluimos esta posibilidad. Solo nos falta que es no singular. Para esto observemos que por 7.25 el subespacio F es de dimensi on 1 y ya probamos a es perpendicular a una base de F. Luego F = hai y de 7.26 obtenemos que E = F F . Usando 7.41 obtenemos que es no singular.
jB jB jB jB

Prueba. Para escribir menos, denotemos = a a . Sabemos que 6= 0. Supongamos que hay una combinaci de a (B) .Tenemos que on lineal nula ! X X X X a i a (i) = i i a i i = a i i 0=
iB iB iB iB

Ejercicio 152 Pruebe que a es la proyecci on ortogonal al subespacio a .


Ya estamos listos para exponer el m etodo de Lagrange para ortogonalizar una base. Sea A una base arbitraria de E. Si dim E = 1 entonces A ya es ortogonal. Supongamos que sabemos aplicar el m etodo de Lagrange para todos los espacios ortogonales de dimension n 1 y sea E un espacio ortogonal de dimensi on n 2. Si A no contiene vectores anisotr opicos entonces, le aplicamos 7.43 y cambiamos a una base que s contiene vectores anisotr opicos. As , podemos suponer que A contiene un vector anisotr opico a y entonces cambiamos la base A por la base a (B) {a}. Por 7.44 el vector a es perpendicular a

218
def

Cap tulo 7. Funcionales y formas

F = ha (B)i. Adem as, F tiene dimensi on n 1 y (F, ) es un espacio ortogonal al que le podemos aplicar el m etodo de Lagrange. El lector podr a apreciar mejor la diferencia geom etrica entre GramSchmidt y La3 grange si piensa en R y en una base {a, b, c}. En GramSchmidt movemos el vector a para que se haga perpendicular al plano hb, ci. En Lagrange movemos el plano hb, ci para que se haga perpendicular al vector a.

7.4

Isomorsmos de espacios con producto bilineal

Sean (E, ) y (F, ) dos espacios con producto bilineal. Un isomorsmo f : E F de espacios vectoriales es un isomorsmo de los espacios con producto bilineal si este preserva el producto o sea si x, y E se cumple que x y = f (x) f (y) .

Ejercicio 153 Pruebe que la composicion de isomorsmos de espacios con producto


bilineal es un isomormo. Lo mismo para la funci on inversa. La inversa de un isomorsmo es un isomorsmo. Si existe un isomorsmo entre (E, ) y (F, ) entonces se dice que los espacios con producto bilineal son isomorfos.
A los isomorsmos entre espacios bilineales se les llama en la literatura isometr as. Sin embargo, esta palabra surge del hecho de que cuando el campo es R el funcional bilineal dene un espacio m etrico en el espacio vectorial. Nosotros reservaremos la palabra m etrico para funciones que preservan una distancia.

Ejercicio 154 Pruebe que los isomorsmos de espacios con producto bilineal preservan la relaci on de perpendicularidad, los conjuntos ortogonales, la alternancia, la simetr a, la antisimetr a y los n ucleos de los productos bilineales.
Si dos espacios son isomorfos entonces o los dos son ortogonales o los dos son simpl ecticos. A un isomorsmo entre espacios ortogonales los llamaremos isomorsmo ortogonal. A un isomorsmo entre espacios simplecticos los llamaremos isomorsmo simpl ectico. Si los isomorsmos son automorsmos entonces reciben los nombres de operador ortogonal y operador simpl ectico respectivamente. Si (E, ) es un espacio ortogonal entonces el conjunto de todos sus operadores ortogonales es un subgrupo del grupo general lineal GL (E) y se le llama grupo ortogonal de (E, ) y lo denotaremos por O (E, ) o por O (E) si queda claro cual es el producto bilineal. ectico entonces el conjunto de todos sus operadores Si (E, ) es un espacio simpl simpl ecticos es un subgrupo del grupo general lineal GL (E) y se le llama grupo sim-

Secci on 7.4 Isomorsmos de espacios con producto bilineal

219

pl ectico de (E, ) y lo denotaremos por Sp (E, ) o por Sp (E) si queda claro cual es el producto bilineal. Clasicaci on de productos bilineales. Caso simpl ectico. Ya sabemos como construir todos los productos bilineales posibles: sumando planos simplecticos o sumando espacios de dimensi on 1. Sin embargo, es muy posible que al construir dos espacios con producto bilineal de diferentes formas obtengamos el mismo (salvo isomorsmos). En lo que sigue nos ocuparemos de este problema. El resultado m as basico que usamos para probar que dos espacios son isomorfos es la extensi on bilineal.
7.45

Si dos productos bilineales coinciden en una base del espacio entonces, son el mismo.

y por lo tanto

P P Prueba. Sea N una base del espacio y x = iN i i , y = jN j j dos cualesquiera de sus vectores. Tenemos X XX X xy = i i j j = i j i j xy est a denido a priori por los
iN jN iN jN

ij .

Ejercicio 155 Sean (E, ) y (F, ) dos espacios con producto bilineal con bases N y M respectivamente. Pruebe que si f : N M es una funci on biyectiva tal que i, j N, i j = f (i) f (j) entonces, la extensi on lineal de f es un isomorsmo de espacios con producto bilineal.
Esto nos da inmediatamente que existe un solo espacio simpl ectico.
7.46

Cualesquiera dos espacios simpl ecticos de la misma dimensi on nita son isomorfos.

ecticos de la misma dimensi on Prueba. Sean (E, ) y (F, ) dos espacios simpl ... Pn y F = Q1 ... Qm donde los Pi y los Qj son nita. Entonces, E = P1 planos simpl ecticos (todos de dimensi on 2). Luego 2n = 2m = dim E = dim F y por lo tanto n = m. Cada plano simpl ectico tiene una base {x, y} de dos vectores isotr opicos 0 tales que x y = y x = 1. Sean {xi , yi } Pi y {x0i , y } Q para i i i S n {1, . . . , n} las bases de estos planos simpl ecticos. Los conjuntos N = i=1 {xi , yi } y M = S n 0 0 i=1 {xi , yi } son bases de E y F respectivamente. Como la sumas son perpendiculares

220

Cap tulo 7. Funcionales y formas

Los espacios simpl ecticos a pesar de (o tal vez, debido a) su simplicidad tienen amplias aplicaciones en la f sica ( optica geom etrica, mec anica cl asica, termodin amica, cuantizaci on geom etrica, etc) y en la matem atica aplicada (teor a de control). En matem aticas (como ya vimos) ellos surgen naturalmente y son importantes para muchos problemas del an alisis y el a lgebra.

entonces, para i 6= j tenemos que xi xj = xi yj = yi xj = yi yj = 0 x0i x0j = x0i y0j = y0i x0j = y0i y0j = 0 y por lo tanto, la funci on f : N 3 a a0 M es una biyecci on entre las bases que preserva el producto bilineal.

Clasicaci on de espacios ortogonales de dimensi on 1. Equivalencia cuadr atica La clasicaci on de los espacios ortogonales es mucho m as compleja que la de los espacios simpl ecticos. Para empezar consideraremos E un espacio ortogonal de dimensi on 1. Entonces, para un vector no nulo x se tiene que x x = K y el producto bilineal est a predeterminado por el escalar . Sea otro elemento del campo no nulo y consideremos otro producto bilineal en E denido por x x = 2 . Tenemos que la homotecia f : x 7 x cumple que x x = 2 = 2 x x = x x = f (x) f (x) y por lo tanto f muestra que los espacios (E, ) y (F, ) son isomorfos. Diremos que un escalar no nulo es un cuadrado si existe tal que = 2 . Diremos que dos escalares no nulos y son cuadr aticamente equivalentes si 2 existe otro escalar tal que = . En otras palabras, si 1 es un cuadrado. Clasicaci on de los espacios ortogonales en dimensi on 1
7.47

Sean y dos productos bilineales denidos en un espacio vectodef rial E de dimensi on 1. Sea x una base de E. Denotemos = x x 6= def 0 y = x x 6= 0. Entonces, los productos y son isomorfos si y solo si y son cuadr aticamente equivalentes.

Prueba. Ya vimos que si y son cuadr aticamente equivalentes entonces los productos son isomorfos. Supongamos que f es un operador tal que x x = f (x) f (x) . Como todo operador en diemensi on 1 es una homotecia, existe tal que f (x) = x y por lo tanto def = x x = f (x) f (x) = x x = 2 x x = 2 lo que demuestra que y son cuadr aticamente equivalentes. La equivalencia cuadr atica depende mucho del campo. Por ejemplo en C todo n umero es un cuadrado y por lo tanto dos complejos cualesquiera son cuadr aticamente equivalentes. En R los cuadrados son los n umeros positivos y por lo tanto hay dos clases de equivalencia cuadr atica: los positivos y los negativos. En Q los cuadrados son los

Secci on 7.4 Isomorsmos de espacios con producto bilineal

221

productos y cocientes de cuadrados de n umeros primos y por lo tanto hay innitas clases de equivalencia cuadr atica, una por cada racional de la forma p1 q1 . . . r1 donde p, q, . . . , r son primos todos diferentes.
7.48 7.49

En cualquier campo nito hay tantas clases de equivalencia cuadr atica como raices cuadradas de la unidad.

Prueba. Recalquemos (v ease la soluci on al ejercicio ?? el Teorema de Lagrange para grupos nitos: si F es un subgrupo de G entonces, las clases laterales xF = {xy | y F} forman una partici on del grupo y todas tienen el mismo n umero de elementos. En particular |F| es un divisor de |G| y el n umero de clases laterales es igual a |G| |F|. Al conjunto de todas estas clases laterales lo denotaremos por G/F. En nuestro caso G es el grupo multiplicativo del campo y F es el subgrupo de todos los cuadrados no nulos. El lector deber a observar que una clase de equivalencia cuadr atica no es m as que xF para cierto x G. Luego, |G/F| = |G| |F| es el n umero de clases de equivalencia cuadr atica. Sea H = x G | x2 = 1 el conjunto de raices cuadradas de la unidad. Observese que H es otro subgrupo de G y que la funci on f : G/H 3 xH 7 x2 F es evidentemente sobreyectiva. Para ver que f es inyectiva supongamos que x2 = y2 entonces, x2 y2 = 1 y por lotanto x1 y H. Luego 1 x yH = H (yH = xH) . Como f es una biyecci on, por el Teorema de Lagrange obenemos que |G| |H| = |F| y por lo tanto |G| |F| = |H|. Como en un campo cualquiera el n umero de raices del polinomio x2 1 es 2 y en un campo de caracter stica 6= 2 los n umeros +1 y 1 son dos raices cuadradas de la unidad, obtenemos que, en un campo de nito de caracter stica 6= 2 hay exactamente dos clases de equivalencia cuadr atica: aquellos que son cuadrados y aquellos que no lo son. Para los campos de caracter stica 2 tenemos el siguiente: En un campo nito de caracter stica 2 todo elemento es un cuadrado.

Prueba. En cualquier campo de caracter stica 2 tenemos que 2 2 (x 1) = x 2x + 1 = x2 + 1 = x2 1 y por lo tanto las raices cuadradas de 1 son las raices del polinomio (x 1)2 el cual tiene como u nica raiz a 1. Aplicando 7.48 terminamos la prueba.

222

Cap tulo 7. Funcionales y formas


El resultado 7.48NO es necesariamente cierto para campos innitos. El ejemplo m as claro de esto es el campo de los n umeros racionales Q.

Clasicaci on de espacios ortogonales. Casos particulares Sea (E, ) un espacio ortogonal sobre K y N una de sus bases ortogonales. A la N-ada N : N 3 i 7 i i K la llamaremos la huella del espacio ortogonal en la base N. Como la base es ortogonal sabemos que i, j N se cumple que (i 6= j) ( i j = 0) y por lo tanto la huella dene completamente el producto bilineal. La huella no es otra cosa que la diagonal de la matriz del producto bilineal en la base N. Sean N KN y M KM . Diremos que N y M son cuadr aticamente equivalentes si existe otra M-ada M KM y una biyecci on : M N tal que j M se cumple que (j) = 2 j j . (E, ) y (F, ) dos espacios ortogonales sobre K. Sean N y M bases ortogonales de E,y F respectivamente. Si la huella de E en la base N es cuadr aticamente equivalente a la huella de F en la base M entonces los espacios son isomorfos.

7.50

Prueba. Sean N y M las dos huellas mencionadas. Sean M KM y una biyecci on 2 : M N tal que (j) = j j . Sea f : F E el operador linear no singular tal que 1 f (j) = j (j).Tenemos j M 2 1 1 j j = j = = f (j) f (j) j (j) = j (j) j (j) y por lo tanto f es un isomorsmo de espacios ortogonales. Para ver que el rec proco de este resultado NO es cierto consideremos el producto bilineal en Q2 denido por (x, y) (x0 , y0 ) = 5xx0 +5yy0 . Sea adem as (x, y) (x0 , y0 ) = xx0 + yy0 el producto escalar can onico. A pesar que 5 no es cuadr aticamente equivalente a 1 tenemos que el operador lineal denido por f (x, y) = (x + 2y, y 2x) cumple que f (x, y) f (x, y0 ) = (x + 2y) (x0 + 2y0 )+(y 2x) (y0 2x0 ) = 5xx0 +5yy0 = (x, y) ( por lo que Q2 on el producto es isomorfo a Q2 con el producto escalar can onico. La clasicaci on de los espacios ortogonales sobre Q y muchos otros campos es un problema complicado. Por esto nos conformaremos con estudiar los casos m as sencillos y que son los que m as nos interesan. Si en el campo hay una sola clase de equivalencia cuadr atica por ejemplo C y cualquier campo nito de caracter stica 2 entonces 7.50 nos da que solo puede haber salvo isomorsmos un solo producto ortogonal y podemos pensar que este es el producto escalar can onico. Si en el campo K hay exactamente dos clases de equivalencia cuadr atica entonces podemos asumir que las coordenadas de las huellas son iguales a 1 o a un elemento de K jo que no sea un cuadrado. Este tipo de huellas est a est a predeterminada por la

Secci on 7.4 Isomorsmos de espacios con producto bilineal

223

cantidad de 1 en ellas ya que las dem as forzosamente son iguales a . Esta cantidad de 1 puede ser desde cero hasta la dimensi on del espacio por lo que obtenemos.
7.51

En un espacio E sobre un campo con dos clases de equivalencia cuadr atica se pueden denir a lo m as 1 + dim E productos ortogonales diferentes.

El lector debe obervar el a lo m as ya que es muy posible que algunos de estos productos sean isomorfos. Los ejemplos de que disponemos de campos con dos clases de equivalencia cuadr atica son los reales y los campos nitos de caracter stica 6= 2. En lo que sigue inmediatamente veremos que sobre R los 1 + dim E productos son efectivamente diferentes, pero sobre los campos nitos hay de caracter stica 6= 2 hay exactamente dos productos bilineales diferentes independientemente de la dimensi on del espacio. Ley de inercia de Silvestre Un ordenamiento de un campo K es un subconjunto P K \ {0} cerrado para la suma y el producto y tal que P P = K \ {0}. A los elementos de P se les llama positivos y a los de P negativos. Observase que P y P son necesariamente disjuntos ya que si x,x P entonces x + (x) P lo que contradice que 0 / P. Escribiremos x > y si x y P. El producto de dos negativos es positivo ya que si x, y P entonces (x) (y) = xy P. En particular, cualquier cuadrado es positivo y como 12 = 1 tenemos que 1 > 0. De aqu , 1 + + 1 6= 0 por lo que un campo ordenado tiene necesariamente caracter stica cero, o sea, contiene a Q. Cualquier campo K tal que Q K R se puede ordenar pero estos no son los u nicos.
Una bonita y u til caracterizaci on de los campos que se pueden ordenar es el Teorema de Artin - Schreier: Un campo se puede ordenar si y solo si 1 no es suma de cuadrados.

Se dice que un producto bilineal ortogonal denido en un espacio vectorial sobre un campo ordenado es denido positivo si para cualquier vector x 6= 0 se tiene que x x > 0. Tambi en diremos que el espacio con producto bilineal es denido positivo. Analogamente se denen que un producto bilineal es denido negativo si para cualquier vector x 6= 0 se tiene que x x < 0.
7.52

La suma perpendicular de espacios denidos positivos es denida positiva. (x, y) (x, y) = xx + yy > 0.

Prueba. Si (x, y) E F entonces,

Como es l ogico, hay un resultado similar para los espacios denidos negativos. De aqu , vemos que un producto es denido positivo (negativo) si y solo si existe una base

224 ortogonal tal que

Cap tulo 7. Funcionales y formas


xx > (<) 0 para cualquier vector en la base.

Ley de inercia de Silvestre


7.53

Todo espacio ortogonal sobre un campo ordenado es suma perpendicular de un subespacio denido positivo con otro denido negativo. Si el espacio es nito dimensional entonces, las dimensiones de estos dos subespacios est an denidas a priori por el producto bilineal.

Prueba. Sea A una base ortogonal y def def A+ = {x A | x x > 0} A = {x A | x x < 0} Los subespacios E+ = hA+ i y E = hA i son perpendiculares y denidos positivo y negativo respectivamente. Luego E = E+ E es la descomposici on buscada. Si F es un subespacio denido positivo arbitrario entonces F E = {0}. Por la igualdad modular tenemos que dim F + dim E = dim (F + E ) dim E y por lo tanto dim F dim E dim E = dim E+ Esto quiere decir que dim E+ se puede caracterizar como la dimensi on m as grande posible de un subespacio denido positivo y por lo tanto est a denida a priori por el producto bilineal. En Rn la ley de inercia de Silvestre tiene como consecuencia que los n + 1 productos bilineales posibles son diferentes ya que las dimensi ones de los subespacios denidos positivos maximales son todas diferentes. Productos bilineales sobre campos nitos Ya vimos que en un campo nito de caracter stica 2 hay un solo producto bilineal el can onico. Adem as sabemos que si la caracter stica es diferente de 2 entonces, en el campo hay exactamente dos clases de equivalencia quadr atica. En lo que sigue K es un campo nito de caracter stica diferente de 2 y es un elemento de K que no es un cuadrado. Es un error que pensar que podemos tomar = 1. Hay campos nitos de caracter stica diferente de 2 en los cuales 1 es un cuadrado, por ejemplo, en Z5 tenemos 22 = 4 = 1.
7.54

Los productos ortogonales en K2 con huellas {1, 1} y {, } son isomorfos.

Secci on 7.4 Isomorsmos de espacios con producto bilineal

225

Prueba. Sea {a, b} una base de K2 y el producto ortogonal para el cual aa = bb = ab = ba =0 def 2 Sea A = | K . El conjunto A esta formado por el cero y por todos los elementos no nulos de K cuadraticamente equivalentes a . Como K tiene exactamente dos clases de equivalencia cuadr atica, tenemos |K| 1 |K| + 1 |A| = +1= 2 2 Como la funci on K 3 x 7 1 x K es una biyecci on entonces |1 A| = |A| y por lo tanto los conjuntos |1 A| y |A| tienen intersecci on no vac a. Esto quiere decir que 2 existen dos elementos del campo y tales que = 1 2 o lo que es lo mismo 2 + 2 = 1. Observese que como no es un cuadrado entonces, ambos y son diferentes de cero. def Sea c = a + b. El conjunto {c, b} una base de K2 ya que 6= 0 y tenemos que c c = 2 + 2 = 1 bb = c b = b c = Lo malo de esta base es que no es ortogonal. Denamos d = b c. El conjunto {c, d} una base de K2 y ahora tenemos que cc =1 d d = 1 2 = 2 2 cd = dc =0
def

Como d d es un cuadrado entonces, podemos normalizar deniendo e = d/. En la base ortogonal {c, e} la huella del producto bilineal es {1, 1}. El resultado anterior nos permite armar que un producto bilineal sobre K o es el can onico o tiene huella igual a {, 1, 1, . . . 1}. Solo falta probar que estos dos productos son diferentes. Para esta prueba lo m as apropiado es usar el Teorema de Witt sobre isomorsmos entre espacios con producto bilineal sobre cualquier campo. Teorema de cancelaci on de Witt
7.55

Sea E un espacio ortogonal. Sean F y G dos subespaciosde E. Si F es isomorfo a G entonces, F es isomorfo a G .

La prueba de este resultado nos llevar a lejos en el estudio del grupo ortogonal y esto sale fuera de los objetivos de este libro.

Ejercicio 156 Pruebe usando el Teorema de Witt que los productos con huellas {1, }
y {1, 1} no son isomorfos. [255] Ejercicio 157 Pruebe lo mismo, pero sin usar el Teorema de Witt. [255]

226

Cap tulo 7. Funcionales y formas Productos interiores

7.5

Los productos interiores se denen solo en espacios vectoriales sobre los complejos o sobre los reales. En esta secci on K denota uno de estos dos campos. El lector debe conocer los conceptos de m odulo, el conjugado y la parte real de un n umero complejo. def |a + bi| = a2 + b2 def a + bi = a bi def Re (a + bi) = a y sus propiedades m as elementales: x + y = x + y xy = xy xx = |x|2 x + x = 2 Re x Re x |x| (x R x = x) Si E es un espacio vectorial sobre C entonces a una funci on f : E K se le llama funcional semilineal si x, y E C se cumple que f (x + y) = f (x) + f (y) y f (x) = f (x) Los funcionales semilineales sobre R son los funcionales lineales. Denici on Sea E un espacio vectorial sobre K {R, C}. A una funci on : E E 3 (x, y) 7 x y K se le llama producto interior si se cumplen las siguientes propiedades:

1. y E la funci on y : E 3 x 7 x y K es un funcional lineal. 2. x E la funci on x : E 3 x 7 x y K es un funcional semilineal. 3. (Simetr a conjugada) x y = y x y en particular x x es siempre un real. 4. (Denida positiva) x x 0 y ( x x = 0) x = 0. Ejemplos de productos interiores 1. El producto escalar can onico en Rn . n 2. En C el producto denido por
n X i =1

(1 , . . . , n ) (1 , . . . , n )

i i

3. En el espacio de todas las funciones reales continuas en el intervalo [0, 1] el proZ1 ducto denido por f g = f (x) g (x) dx
0

Secci on 7.5
La norma

Productos interiores

227

Sea un vector x en un espacio con producto interior. Deniremos kxk = xx y la llamaremos la norma de x. Veamos las primeras propiedades de la norma. Teorema de Pit agoras
7.56

Si

xy

= 0 entonces, kx + yk2 = kxk2 + kyk2 . + kyk2 = kxk2 + kyk2 .

Prueba. kx + yk2 = kxk2 + 2 Re x y


7.57 7.58

kxk = ||2 kxk.

Prueba. kxk = kxk = ||2 kxk. Desigualdad de Cauchy-Schwarz | x y | kxk kyk. z=y

Prueba. Sea

yx x xx (comp arese con Gram-Schmidt). Tenemos z x = 0 y por lo tanto yx xy | x y |2 2 2 2 = kyk 0 kzk = z y = kyk kxk2 kxk2 y despejando obtenemos lo que se quer a demostrar. Desigualdad del Tr angulo

7.59

kx + yk kxk + kyk.

Prueba. Tenemos kx + yk2 = kxk2 + kyk2 + 2 Re x y kxk2 + kyk2 + 2 | x y | y usando Cauchy-Schwarz obtenemos kx + yk2 kxk2 + kyk2 + 2 kxk kyk = (kxk + kyk)2 y sacando raiz cuadrada obtenemos lo que se quer a demostrar.

228

Captulo octavo

lgebra Multilineal
or ahora este cap tulo solo contiene una exposici on del producto tensorial.

8.1

Transformaciones bilineales

Extensi on bilineal Sean E, F y G tres espacios vectoriales. Una funci on f : E F 3 (x, y) 7 f (x, y) G se le llama transformaci on bilineal si se cumplen las dos siguientes propiedades El lector debe observar que la relaci on entre transformaci on bilineal y funcional bilineal es la misma que la relaci on entre TL y funcional lineal. Los segundos conceptos son el caso particular de los primeros cuando el codominio es el campo.
8.1

x E la funci on F 3 y 7 f (x, y) G es una TL y F la funci on E 3 x 7 f (x, y) G es una TL

Si i A entonces, las coordenadas de i en la base A son el s mbolo de Kronecker ia .

Prueba. SeaP (x, y) E F. Como A y B son bases tenemos que existen escalares P tales que x = aA a a y y = bB b b. Denamos XX def f (x, y) = a b (a, b) .
a A b B

Sean A y B bases de E y F respectivamente. Si : A B G es una funci on arbitraria entonces, existe una u nica transformaci on bilineal f : E F G que extiende a .

230

Cap tulo 8. Algebra multilineal

Otro tanto ocurre para los j B. Luego, si (i, j) A B entonces XX f (i, j) = ia jb (a, b) = (i, j)
a A b B

y por lo tanto f es una extensi on de . Las coordenadas del vector x + x0 en la base A son la suma de las coordenadas de x y de x0 en esta base. Luego P P (a + 0a ) b (a, b) = f (x + x0 , y) = a A bP B P P P = a b (a, b) + 0a b (a, b) = f (x, y) + f (x0 , y) Adem as
a A b B a A b B

f (x, y) =

y esto muestra que f es lineal en la primera variable. La prueba que es lineal en la otra variable es exactamente la misma. Supongamos que on bilineal que extiende a . Tenemos g es otra transformaci P P P P g (x, y) = g a a, y = a g (a, y) = a g a, bB b b = A a A P P a A Pa P = a b g (a, b) = a b (a, b) = f (x, y) lo que prueba que f = g.
a A b B a A b B

a A b B

XX

a b (a, b) =

a A b B

XX

a b (a, b)

= f (x, y)

Parece acertado suponer que la prueba de este resultado es aburrida, para aquellos lectores que hayan entendido bien las extensiones lineales (secci on 3.3). Sin embargo, lo probamos con todo detalle porque lo usaremos en la pr oxima secci on.

G H es una TL entonces g f es una transformaci on bilineal.

Ejercicio 158 Pruebe que si f : E F G es una transformaci on bilineal y g : 8.2 Producto tensorial

Hasta ahora no hemos aprovechado en todo su potencial el hecho de que en los campos tenemos un producto de escalares. En particular si f y g son funciones con valores en el campo K frecuentemente hemos sumado estas dos funciones e incluso hemos multiplicado las funciones por un escalar. O sea, para cuando g es la funci on constante K si hemos utilizado el producto gf = f. Sin embargo, no nos hemos atrevido a multiplicar funciones arbitrarias ya que en este caso se pierden propiedades de linearidad. La idea en lo que sigue ser a considerar a f y g como funciones de variables diferentes y multiplicarlas para as obtener funciones de dos variables. Veamos algunos ejemplos.

Secci on 8.2
Ejemplos

Producto tensorial

231

Producto tensorial de polinomios Sean K [x] y K [y] los espacios de polinomios en las variables x y y respectivamente. Si p (x) K [x] y q (y) K [y] entonces evidentemente p (x) q (y) es un polinomio de dos variables en K [x, y]. El conjunto de polinomios K [x] K [y] = {p (x) q (y) | p (x) K [x] q (y) K [y]} K [x, y] NO es un subespacio de K [x, y] ya que por ejemplo x K [x] K [y] , y K [x] K [y] pero x + y / K [x] K [y] . Sin embargo, podemos facilmente tomarnos el subespacio generado hK [x] K [y]i o sea, el conjunto de todas las combinaciones lineales nitas de polinomios en K [x] K [y] y como ya sabemos hK [x] K [y]i es un subespacio de K [x, y]. Al subespacio hK [x] K [y]i lo llamaremos el producto tensorial de K [x] y K [y] y lo denotaremos por K [x] K [y]. La pregunta natural es: Ser a el subespacio K [x] K [y] todo K [x, y]?
8.2
def

K [x] K [y] = K [x, y] .

Prueba. Ya sabemos que K [x]K [y] K [x, y]. Si p (x, y) K [x, y] entonces p (x, y) es una combinaci on lineal nita de los monomios xi yj y cada uno de estos monomios est a en K [x] K [y]. Producto tensorial de covectores Sean E y F dos espacios vectoriales. Sean f : E 3 x 7 f (x) K y g : F 3 y 7 g (y) K dos covectores en E# y F# respectivamente. Como f (x) y g (y) son dos escalares, podemos multiplicarlos y as obtener una funci on E F 3 (x, y) 7 f (x) g (y) K. Esta funci on es un funcional bilineal ya que para cualquier y jo, g (y) es un escalar jo y por lo tanto f (x) g (y) es un funcional lineal en E# . Por lo mismo, esta funci on es lineal en la segunda variable. De aqu tenemos que E# F# = fg | f E# g F# Bil (E, F) y podemos jarnos en todas las combinaciones lineales nitas de los funcionales en E# F# para as obtener el producto tensorial E# F# Bil (E, F).
8.3

Si E y F son nito dimensionales entonces E# F# = Bil (E, F). Bil (E, F). Sean N y M

Prueba. Ya sabemos que E# F# Bil (E, F). Sea bases de E y F respectivamente entonces tenemos X X que xy = xi yj ij
iN jM

donde xi es la coordenada de x en i N y yj es la coordenada de y en j M. Sabemos

232 que las funciones

Cap tulo 8. Algebra multilineal

iH : x 7 xi ; jH : y 7 yj son las bases duales de N y M y la f ormula anterior la podemos reescribir como XX = ij iH jH


iN jM

Luego, es una combinaci on lineal de los productos iH jH E# F# . Como los espacios son nito dimensionales esta combinaci on lineal es nita. Si los espacios son de dimensi on innita entonces, E# F# es un subespacio propio de Bil (E, F). Producto tensorial de n-adas Sean n un natural diferente de cero y K un campo. El espacio Kn est a formado por todas las n-adas (1 , . . . , n ) dinde los i son elementos del campo K. Aqu lo importante es considerar las n-adas como funciones del conjunto {1, . . . , n} en el campo K. Luego, podemos pensar a Kn como el conjunto {f : {1, . . . , n} 3 x ` f (x) K} y lo nuevo en esta notaci on es que f depende de cierta variable a la que llamamos x. Si m 6= 0 es otro natural entonces los mismos argumentos nos dan que Km = {g : {1, . . . , m} 3 y ` g (y) K} lo podemos pensar como un conjunto de funciones que dependen de la variable y. Como el codominio de las funciones en Kn y Km es el mismo campo K, podemos multiplicarlas y as obtener f (x) g (y) que es una funci on del producto cartesiano {1, . . . , n} {1, . . . , m} en K. En otras palabras una matriz con n renglones y m columnas. Esto motiva la siguiente la siguiente denici on
1 1 1 2 1 m

El conjunto de todas las matrices de esta forma es Kn Km = u v | u KN , v KM el cual es un subconjunto del espacio de matrices Kn m . El conjunto Kn Km no es un espacio vectorial ya que la suma de dos matrices de este tipo no necesariamente es de ese tipo. As que para obtener un espacio vectorial debemos tomar todas las combinaciones lineales, o sea, el subespacio generado por Kn Km que lo denotaremos por Kn Km y lo llamaremos producto tensorial de Kn por Km .
8.4

(1 , 2 , . . . , n ) (1 , 2 , . . . , m ) =
def

2 1 . . .

2 2 . . .

n 1

n 2

.. .

2 m . . .

n m

Kn Km es todo el espacio Knm .

onica de Kn y ej un vector de la base Prueba. Si ei es un vector de la base can m can onica de K entonces ei ej es la matriz que tiene un 1 en la entrada i, j y cero en todas las dem as. Es claro que cualquier matriz en el conjunto de la base can onica de Knm se puede obtener de esta manera. Luego Kn Km y por lo tanto

Secci on 8.2

Producto tensorial

233

Kn m = hi hKn Km i = Kn Km . Este resultado es tambi en v alido para el caso extremo en que n = m = 1. En este caso tenemos.
8.5 8.6

K K = K.

Producto tensorial de N-adas Generalizemos el ejemplo anterior para espacios de dimensi on innita. Sean N y M dos conjuntos (nitos o no) y K{N } , K{M } los espacios vectoriales de las N-adas y M-adas de soporte nito que las pensaremos como funciones de N en K y de M en K respectivamente. Si f K{N } y g K{M } entonces podemos pensar a f como una funci on de la variable x N y a g como una funci on de la variable y M. As , podemos formar el producto f (x) g (y) que es una funci on de dos variables o lo que es lo mismo una funci on del producto cartesiano N M en los escalares K. Como f (x) es de soporte nito y tambi en g (y), tenemos que def K{N } K{M } = f (x) g (y) | f (x) K{N } g (y) K{M } K{N M } . Sin embargo, K{N } K{M } no es un subespacio de K{N M } . Nuevamente, podemos jarnos en el subespacio generado por K{N } K{M } , denotarlo por K{N } K{M } y llamarlo el producto tensorial de K{N } y K{M } . K{N } K{M } = K{N M } .

Prueba. Es la misma que la de 8.4. Denici on del producto tensorial Hasta ahora solo hemos visto algunos ejemplos. De estos ejemplos salta a la vista un serio problema, y es que un espacio vectorial se puede ver como un espacio de funciones de much simas maneras: escogiendo una base, usando el dual, usando el doble dual, escogiendo otra base diferente, etc. M as a un, en casos particulares, un espacio vectorial puede ser a priori un espacio de funciones, por ejemplo, las funciones reales continuas. Nada nos garantiza que si hacemos diferentes construcciones, obtengamos lo mismo. Por esto, los matem aticos desarrollaron una denici on de producto tensorial que en esencia es la de transformaci on bilineal lo m as general posible . Esta denici on carece del defecto mencionado m as arriba pero es bastante abstracta y representa un reto pedag ogico. De aqu la necesidad de empezar con ejemplos y no con la denici on formal.

234

Cap tulo 8. Algebra multilineal

Sean E, F y G tres espacios vectoriales. Se dice que G es el f producto tensorial de E y F y se denota por E F, si existe E F EF una transformaci on bilineal f : E F G con la siguiente g& . propiedad: Para cualquier transformaci on bilineal g : E F H H existe una u nica TL : G H tal que g = f (v ease el diagrama a la derecha). A la transformaci on bilineal f a la que se reere esta denici on se le llama morsmo mediador del producto tensorial. Unicidad del producto tensorial En la denici on de producto tensorial hay una trampa del lenguaje: ...que G es el prod... Esto presupone que el producto tensorial es u nico. Esto es efectivamente as .
8.7 8.8

Si G y H son dos productos tensoriales de E y F entonces, G y H son can onicamente isomorfos.

Prueba. Sean f y g los morsmos mediadores que convierten a G y H en productos tensoriales. Por la denici on de producto tensorial existen dos TLs : G H y : H G tales que g = f y f = g. Demostremos que = 1 y por lo tanto es un isomorsmo can onico de G en H. Efectivamente, tenemos que f = g = ( ) f y por lo tanto los diagramas siguientes son conmutativos: f f E F G E F G f & . f & . Id G G Debido a la unicidad de la TL postulada en la denici on de producto tensorial obtenemos que = Id. La otra igualdad = Id se demuestra igual. Veamos otra aplicaci on de la t ecnica usada en la demostraci on de la unicidad Si f : E F G es el morsmo mediador del producto tensorial entonces G = hIm fi.

Prueba. Tenemos que la inmersi on i : hIm fi G y la restricci on del codominio f0 : E F hIm fi cumplen que f = i f0 . La funci on f0 es bilineal y por lo tanto existe una funci on : G hIm fi tal que f0 = f. Luego, f = (i ) f usando el mismo argumento que en la demostracion de unicidad vemos que i = Id. Por el ejercicio 20 i es sobreyectiva pero una inmersion sobreyectiva es la identidad. Sea f : E F E F el morsmo mediador del producto tensorial. Si (x, y) def E F, entonces, denotaremos x y = f (x, y) E F y se dice que x y es el producto tensorial de x y y. El lector debe observar que el producto tensorial de

Secci on 8.2

Producto tensorial

235

vectores es en esencia lo mismo que el morsmo mediador. A los vectores de E F se le llaman tensores. A los tensores en la imagen de f o sea aquellos de la forma x y se les llama tensores puros. El resultado anterior nos dice que cualquier tensor es combinaci on lineal de tensores puros. Existencia del producto tensorial La denici on de producto tensorial no garantiza que dados dos espacios vectoriales concretos E y F exista un tercero que es el producto tensorial de estos dos. Tenemos que probar que este espacio siempre existe. Para esto seguirenos las ideas que esbozamos al principio de esta secci on. Sea N un conjunto y K un campo. Ya vimos que conjunto de todas las funciones de N en K que denotamos por KN es un espacio vectorial para la suma de funciones y producto de un escalar por una funcion. Sin embargo, en KN tambi en podemos denir el producto de funciones mediante la igualdad (fg) (x) = f (x) = g (x). Esto convierte a KN en un algebra. Los axiomas de a lgebra se satisfacen porque estos los satisfacen los elementos del campo.

Ejercicio 159 Por qu e KN no es un campo para la suma y el producto de funciones?


En lo que sigue E y F son dos subespacios arbitrarios de KN y KM respectivamente. Sea f E y g F y denamos f g : N M 3 (x, y) 7 f (x) g (y) K. Evidentemente, f g KN M . Si Pn
i=1 fi gi

8.9

= 0 y los fi son LI entonces, todos los gi son cero.

Evaluando esta igualdad en un t M arbitrario pero jo obtenemos n X fi (x) gi (t) = 0 (x) KN .


i =1

Prueba. Tenemos que n n X X fi gi = fi (x) gi (y) = 0 (x, y) KN M .


i= 1 i =1

Como los gi (t) son escalares y las fi son LI obtenemos que todos los gi (t) son cero. Como t es arbitrario concluimos que todas las funciones gi son cero.

Sean A y B conjuntos de vectores arbitrarios de E y F respectivamente Denotaremos A B = {f g | f A y g B}. Es claro que A B KN M .


8.10

Si A es LI y B es LI entonces, A B es LI.

236

Cap tulo 8. Algebra multilineal

Como la combinaci on lineal es nita podemos numerar las f y las g que aparecen al menos una vez en esta combinaci on lineal y convertirla en n m X X def hi (y) fi (x) = 0 (x, y) KN M donde hi (y) = ij gj (y) KM
i= 1 j =1

Prueba. Supongamos que existe una combinaci on lineal nita X XX X ij (f g) = fg f (x) g (y) = 0 (x, y) KN M
f A g B f A g B

Por 8.9 i las funciones hi (y) son cero. Como las funciones gj (y) son LI obtenemos que ij los coecientes ij son cero. Si A y B son bases de E y F respectivamente entonces, A B es una base de hE Fi.

8.11

luego E F hA Bi y por lo tanto A B genera a hE Fi. Adem as 8.10 nos dice que A B es LI y por lo tanto es una base.
8.12

Prueba. Sea f g E F. Entonces f y g son combinaciones lineales nitas de A y B respectivamente. la distributividad ! del producto obtenemos Usando ! X XX X i f (x) j g (y) = i j f (x) g (y) hA Bi f (x) g (y) =
iA jB iA jB

E F = hE Fi.

Prueba. Denamos : E F 3 (f, g) 7 f g hE Fi. Es claro que es algebra. Tenemos que probar una transformaci on bilineal debido a que KN M es un que si : E F H es una transformaci on bilineal entonces existe una u nica TL : hE Fi H tal que = . Recalquemos que tenemos que hacer tres cosas: primero construir , segundo probar que es lineal y por u ltimo demostrar su unicidad. Sean A y B bases de E y F respectivamente. Sabemos que A B es una base de hE Fi. Construyamos . Si f g A B pongamos (f g) = (f, g) . Como A B es una base de hE Fi podemos denirla en todo hE Fi por extensi on lineal. Esto nos garantiza dos cosas: primero que es una TL. Segundo, si : hE Fi H es otra TL tal que = entonces necesariamente (f g) = (f, g) para cualquier f g A B y como la extensi on lineal es u nica (v ease la secci on 3.3) obtenemos que = . Para concluir falta convencernos de que = . Sabemos que y son bilineales y es lineal. Por el ejercicio al nal de la secci on anterior es bilineal. Adem as por construcci on de tenemos que y coinciden en A B. Usando que la extensi on

Secci on 8.2

Producto tensorial

237

bilineal es u nica (8.1) obtenemos que = .

El resultado anterior es muy u til. Como cualquier espacio vectorial es canonicamente un subespacio de funciones al campo (recuerdese la inyeccion can onica al doble dual) entonces, 8.12 resuelve de una vez y por todas la existencia del producto tensorial para espacios vectoriales arbitrarios. Adem as, 8.12 es un poco m as fuerte que eso. Muchos espacios vectoriales son por N denici on subespacios de K . En particular, 8.12 fundamenta la veracidad de todos los ejemplos al principio de esta secci on.

Ejercicio 160 Sea T el espacio vectorial de todas las funciones continuas de R en R.


Describa al producto tensorial T T. Finalmente, a lo largo de las lineas de la demostraci on de 160 se perla una caracterizaci on m ultiple del producto tensorial la cual dejaremos en calidad de ejercicio.
def Ejercicio 161 Sea f : E F G una transformaci on bilineal. Denotemos x y = def

f (x, y), A B = {x y | x A y y B}. Pruebe que las siguentes armaciones son equivalentes: P 1. Si n i=1 xi yi = 0 y los xi son LI entonces, todos los yi son cero. 2. Si A es LI y B es LI entonces, A B es LI. 3. Si A y B son bases de E y F entonces, A B es una base de hE Fi. 4. E F = hE Fi Producto tensorial de espacios de dimensi on nita La siguiente es una consecuencia cl asica de la denici on de producto tensorial.

8.13

(E F)# = Bil (E, F).

El resultado anterior es v alido para espacios vectoriales arbitraros. Si E y F son nito dimensionales entonces tenemos (E F)## = E F y con esto obtenemos.

Prueba. Sea f el morsmo mediador de E F. Por denici on f de producto tensorial, para cualquier funcional bilineal existe E F EF un u nico funcional lineal tal que = f (vease el diagrama). & . Rec procamente, para cualquier funcional lineal tenemos que K = f es un funcional bilineal. Luego, esta correspondencia entre y es biyectiva. Adem as, es un isomorsmo de espacios vectoriales ya que ( + 0 ) f = f + 0 f y f = ( f).

238
8.14

Cap tulo 8. Algebra multilineal


Si E y F son de dimensi on nita entonces, E F = Bil (E, F)# .

El resultado anterior puede ser tomado en calidad de denici on de producto tensorial si uno se conforma con hacerlo solo para espacios de dimensi on nita.

E# F# .

Ejercicio 162 Pruebe que si E y F son de dimensi on nita entonces (E F)# =

Ejercicio 2 (Secci on 1.1 p agina 2) Una operaci on unaria en el conjunto A es una funci on de A en A. Por ejemplo para cada entero x hay otro entero x. De esta manera la operaci on x 7 x es una operaci on unaria. Otros ejemplos comunes son el hallar el complemento de un conjunto o el hallar el complejo conjugado de un n umero complejo. Ejercicio 3 (Secci on 1.1 p agina 2) El area del tri angulo con lados a, b y c no es una operaci on ternaria en R ya que no para cualesquiera a, b y c existe un tri angulo con lados de esas longitudes.

Ejercicio 4 (Secci on 1.1 p agina 2) La f ormula (a + b) (x + y) se expresa en notaci on suja como ab + xy + . Ejercicio 5 (Secci on 1.1 p agina 3) La suma, el producto, el m aximo com un divisor el m nimo com un m ultiplo y el m aximo son operaciones conmutativas. Las dem as no lo son. Ejercicio 6 (Secci on 1.1 p agina 3) Ya vimos en el texto que la exponenciaci on no es asociativa. Observemos que 4 = 4 (2 2) 6= (4 2) 2 = 0 por lo que la resta no es asociativa. Tenemos 4 = 4/ (2/2) 6= (4/2) /2 = 1 y por lo tanto la divisi on no es asociativa. Tampoco es asociativo el logaritmo. El resto de las operaciones si son asociativas. Ejercicio 7 (Secci on 1.1 p agina 4) La resta no tiene elemento neutro ya que de a e = a se sigue que e = 0 pero por otro lado 0 a = a 6= a. Lo mismo ocurre con la divisi on. La operaci on de exponenciaci on no tiene elemento neutro ya 1 2 que e = 1 e = 1 pero 1 = 1 6= 2. Lo mismo ocurre con el logaritmo. El neutro de la suma es el cero, el neutro del producto es el uno. El 1 tambi en es el neutro para el m nimo com un m ultiplo. La operaci on de m aximo com un divisor no tiene neutro. Ejercicio 8 (Secci on 1.1 p agina 5) Es importante se nalar que el inverso tiene sentido 1 . Aunque solo si hay neutro. El inverso de a para la suma es a, para el producto es a el m nimo com un m ultiplo tiene neutro 1, esta operaci on no tiene inversos. Ejercicio 9 (Secci on 1.1 p agina 5) Fij emonos en un conjunto U y en el conjunto an bien denidas de todos los subconjuntos de U que denotaremos por 2U . En 2U est las operaciones de uni on e intersecci on de conjuntos. Estas operaciones cumplen las propiedades requeridas como se puede observar en los dos siguientes diagramas de Venn.

240

Soluciones de ejercicios selectos


A B C A (B C) = = (A B) (A C) C A (B C) = = (A B) (A C) A B

Ejercicio 11 (Secci on 1.2 p agina 8) No porque (1, 0) (0, 1) = (0, 0) lo que muestra 2 que K no es dominio de integridad y por lo tanto no es un campo. Ejercicio 12 (Secci on 1.2 p agina 9) Supongamos que n es un racional. Decomponiendo su numerador y denominador en factores primos obtenemos que n = nt 1 n2 pn umeros enteros n1 , n2 , . . . 1 p2 . . . pt para ciertos naturales primos p1 p2 . . . pt y ciertos n 2n 1 2n 2 2n t Pero entonces, n = p1 p2 . . . pt y por lo tanto i {1, ..., t} 2ni 0. Luego, todos los ni son naturales lo que signica que n es natural. Ejercicio 13 (Secci on 1.2 p agina 9) Tenemos 1 < 2 < 2 y por lo tanto 2 no es natural. Por el ejercicio anterior, no es racional. Ejercicio 14 (Secci on 1.2 p agina 9) Siempre podemos medir un segmento de recta con cada vez m as precisi on (al menos te oricamente). Cada medici on nos da un n umero racional. Luego, la longitud del segmento es un l mite de racionales por lo que es un real. Ejercicio 18 (Secci on 1.3 p agina 12) Por 1.1.4 sabemos que f (0) = 0 y f (1) = 1. 1 Si f (a )= 0 y a no fuera amos 1 = f (1) = f aa = el cero de A entonces tendr 1 1 f (a) f a = 0f a = 0 lo que no puede ser, o sea si f (a) = 0 entonces a = 0. Luego, si f (x) = f (y) entonces, f (x y) = 0 y por lo tanto x = y. Ejercicio 20 (Secci on 1.3 p agina 14) Si f no es inyectiva entonces existen x 6= y tales que f (x) = f (y) y por lo tanto g (f (x)) = g (f (y)) . Luego, g f no puede ser la identidad. Si g no es sobreyectiva entonces existe x tal que y se tiene que g (y) 6= x en particular f (z) se tiene que g (f (z)) 6= x y por lo tanto g f no es sobreyectiva. Luego, g f no puede ser la identidad. Ejercicio 22 (Secci on 1.4 p agina 17)

Soluciones de ejercicios selectos

241

La tabla de multiplicar en Z5 es la derecha. Luego el elemento inverso de 1 es 1, el elemento inverso de 2 es 3, el elemento 0 1 2 3 4 inverso de 3 es 2 y el elemento inverso de 4 es 4. Observese que 0 0 0 0 0 0 1 0 1 2 3 4 en la tabla de multiplicar de Z5 \0 en cada columna y en cada 2 0 2 4 1 3 rengl on nos encontramos con todos los elementos posibles. Esto 3 0 3 1 4 2 es una propiedad de las operaci ones binarias de los grupos. De 4 0 4 3 2 1 hecho, un conjunto con una operaci on binaria asociativa y con elemento neutro es un grupo si y solo si su tabla de multiplicar cumple esta propiedad. Ejercicio 23 (Secci on 1.4 p agina 17) La prueba de que es un anillo conmutativo es directa de las denici ones de suma y producto. Para ver que es un campo observamos que el producto (a, b) (x, y) = (ax + 7by, ay + bx) tiene neutro (1, 0). Para hallar los inversos multiplicativos resolvemos el sistema de ecuaciones lineales ax + 7by = 1 ay + bx = 0 que tiene como soluci on u nica x = a/ , y = b/ donde = a2 7b2 . Nos queda comprobar que si = 0 entonces a = b = 0. Efectivamente, observando la siguiente tabla calculada en Z11 x 1 2 3 4 5 6 7 8 9 10 x2 1 4 9 5 3 3 5 9 4 1 7x2 7 6 8 2 10 10 2 8 6 7 vemos que ning un a2 puede ser igual a un 7b2 . Ejercicio 24 (Secci on 1.4 p agina 17) Como G es un subgrupo el elemento neutro 1 G y los inversos de los elementos en G est an en G. Como los inversos son u nicos y 1 1 1 a = a entonces la funci on f : G 3 a 7 a G es una biyecci on tal que f2 es la identidad. Esto nos permite G en tres partir partes disjuntas G = G0 G1 G2 tales 1 que f (G1 ) = G2 y G0 = a G | a = a . Por esto !1 !1 Y Y Y Y 1 a= = a1 = a a1 y por lo tanto
a G 1 a G 1

def

Por otro lado si a G0 entonces tiene que ser raiz del polinomio x2 1 y en cualquier campo este polinomio tiene a lo m as las raices 1 y 1 (v ease 5.5). Luego si 1 G entonces, = 1 y si 1 / G entonces = 1. Ejercicio 25 (Secci on 1.4 p agina 17) Sea K un campo y G un subgrupo nito de (K \ 0, ). Si x G entonces al natural n m as peque n o tal que xn = 1 lo llamaremos 2 n 1 orden de x. En este caso todos los elementos de hxi = 1, x, x . . . x son diferentes y la funci on f : (hxi , ) 3 xi 7 i (Zn , +) es un isomorsmo de grupos. Luego, lo que

a G

a G 1

a=

a G 0

a G 2

a.

242

Soluciones de ejercicios selectos

hay que probar es que en G existe un elemento de orden q = |G|. 1. Sea F un subgrupo de G. Para x G el conjunto xF = {xf | f F} se le llama clase lateral de x. Tenemos que si f F entonces fF = F ya que F es un subgrupo. De (y xF) (y = xf) x = yf1 xF = yf1 F (xF = yF) (y xF zF) (xF = yF = zF) obtenemos que las clases laterales forman una partici on de G. La funci on F 3 f 7 xf xF es la inversa de xF 3 xf 7 f F y por lo tanto cualquier clase lateral tiene la misma cantidad de elementos que F. Luego |F| es un divisor de |G| y el cociente |G| |F| es el n umero de clases laterales. Este hecho se conoce como Teorema de Lagrange. En particular, el orden de cada x G es un divisor de q = |G|. 2. Sea x de orden n y denotemos (n) el n umero de elementos de orden n en hxi. Como x tiene orden n entonces, (n) 1. La funci on (n) no depende de x pues cualesquiera dos x, y de orden n son tales que los grupos hxi y hyi son isomorfos. Luego, (n) solo depende del natural n. Como cualquier z hxi tiene cierto orden que por el Teorema P de Lagrange es un divisor de n y el n umero de elementos en hxi es n entonces, d |n (d) = n donde la suma recorre todos los divisores de n. A se la conoce como Funci on de Euler. 3. Denotemos por (n) al n umero de elementos de orden n en nuestro grupo G. Como cualquier z G tiene cierto orden que por el Teorema de Lagrange es un P divisor de |G| = q entonces, d |q (d) = q donde la suma recorre los divisores de q. 4. Si en G no hay un elemento de orden n entonces (n) = 0. Si por el contrario n x G tiene orden n entonces,y = xk hxi tenemos que yn = xk = (xn )k = 1. Luego, todos los n elementos de hxi son raices del polinomio zn 1. Como el polinomio zn 1 no puede tener m as de n raices en el campo K (v ease 5.5) entonces, todos los elementos de G de orden n est an en hxi y por lo tanto (n) = (n). De aqu , para cualquier n se tiene que (n) (n) 0. 5. De (2) y (3) tenemos que X
d |q

0=

(d)

y como por (4) (d) (d) 0 entonces, para cualquier d divisor de q = |G| tenemos (d) = (d). En particular, (q) = (q) 1. Esto signica que en G hay un elemento de orden q = |G|. Ejercicio 26 (Secci on 1.5 p agina 19) No, porque t no es un elemento del campo al contrario, t es un n umero natural. Lo que quiere decir tx es x + + x, t veces.

X
d |q

(d) =

X
d |q

( (d) (d))

Soluciones de ejercicios selectos


Ejercicio 28 (Secci on 1.5 p agina 19) De que a = a obtenemos que

243

0 = a + a = 1a + 1a = (1 + 1) a Como todo campo es dominio de integridad obtenemos que a = 0 o 1 + 1 = 0. Si la caracter stica del campo es diferente de 2 entonces, 1 + 1 6= 0 por lo que la armaci on del ejercicio es cierta. Si la caracter stica del campo es 2 entonces, 1 + 1 = 0 y por lo tanto a = a para cualquier elemento del campo. Ejercicio 29 (Secci on 1.6 p agina 22) En cualquier campo (xy)p = xp yp . Por p X p! p el binomio de Newton (x + y) = xk yn k . El coeciciente binomial k ! ( p k ) ! k =0 p!/k! (p k) ! se divide entre p si k [1, ..., n 1]. Esto quiere decir (ver 1.15) que en un campo de caracter stica p todos los sumandos del binomio de Newton excepto el primero y el u ltimo son cero. Luego (x + y)p = xp + yp . Esto muestra que x 7 xp es un morsmo. Como todo morsmo de campos es inyectivo (ver ejercicio 18) y toda funci on inyectiva de un conjunto nito en si mismo es sobreyectiva obtenemos que este morsmo es automorsmo para campos nitos. Ejercicio 30 (Secci on 1.7 p agina 23) Usando la distributividad por la derecha e izquierda obtenemos que: (a + 1) (b + 1) = (a + 1) b + a + 1 = ab + b + a + 1 (a + 1) (b + 1) = a (b + 1) + b + 1 = ab + a + b + 1 Igualando y cancelando ab por la izquierda y 1 por la derecha obtenemos que b + a = a + b. Ejercicio 31 (Secci on 1.7 p agina 24) Las seis igualdades necesarias se pueden obtener de la siguiente manera (ijk = 1) (ijkk = k) (ij = k) (ijj = kj) (kj = i) (ijk = 1) (iijk = i) (jk = i) (jkk = ik) (ik = j) (ijk = 1) (kijkkj = kkj) (ki = j) (kii = ji) (ji = k)

Ejercicio 32 (Secci on 1.7 p agina 24) Por denici on de producto de quaterniones 2 2 a b + c2 + d2 = 1 2 (a + bi + cj + dk) = 1 . ab = ac = ad = 0 on de estas ecuaciones Como a es un real b2 + c2 + d2 6= 0 por lo que cualquier soluci requiere que a = 0. Ejercicio 33 (Secci on 1.7 p agina 24) En los quaterniones (x i) (x + i) = x2 ix + xi + 1 6= x2 + 1 lo que quiere decir que no es posible denir correctamente el producto de polinomios. Ejercicio 34 (Secci on 2.2 p agina 29)

244

Soluciones de ejercicios selectos


u b a c w v

El tri angulo abc es semejante al tri angulo uvw de hecho son congruentes porque ac = uw (lados opuestos de un paralelogramo tienen la misma longitud). Luego bc = wv y por lo tanto la es igual a la de m coordenada en x del vector au aw as bc. La prueba para la otra coordenada es igual.

Ejercicio 36 (Secci on 2.2 p agina 29) En la expresi on (a) se utiliza un solo tipo de operaci on (la de un escalar por un vector). En la expresi on () a se utilizan dos operaciones diferentes primero la del producto de escalares y despu es la de un escalar por un vector. Ejercicio 37 (Secci on 2.2 p agina 29) Si 6= 0 entonces tiene inverso y por lo tanto a = 0 a = 1 a = 1 0 = 0

Ejercicio 38 (Secci on 2.2 p agina 29) El m nimo n umero de elementos en un espacio vectorial es 1 ya que al menos necesita tener el neutro para la suma de vectores. Y efectivamente un conjunto formado por un solo elemento 0 es un espacio vectorial sobre cualquier campo deniendo 0 = 0 para cualquier en el campo. Ejercicio 40 (Secci on 2.3 p agina 37) Supongamos que x hN yi \ hNi. Entonces, P existe una combinaci on lineal x = y y + iN i i. Tenemos que y 6= 0 (ya que x / hNi). Luego, despejando y obtenemos que y hN xi. Ejercicio 42 (Secci on 2.4 p agina 41) 1.- El conjunto vac o es LI y todo el espacio E es generador. Luego existe N tal que N E que es base. 2.- Si M es LI entonces existe una base N tal que M N E. 3.- Si L es generador entonces existe una base N tal que N L. Ejercicio 41 (Secci on 2.4 p agina 39) Solo en la prueba de que 24 al despejar a.

Ejercicio 43 (Secci on 2.4 p agina 42) Sea A una base de E. Como F es generador y A F es LI entonces por el Teorema de Existencia de Bases (2.14) existe una base B de F que contiene a A. De aqu tenemos dim E = |A| |B| = dim F. Esta prueba es v alida independientemente de si los cardinales de A y B son nitos o no. P Ejercicio 44 (Secci on 2.4 p agina 42) El conjunto de todos los polinomios ai xi tales que a0 = 0 es un subespacio de K [x] de la misma dimensi on que K [x]. Ejercicio 45 (Secci on 2.4 p agina 44) La diferencia entre el espacio de las (N M)adas y las NM-matrices es solo en las notaciones. Luego, el espacio de las NM-matrices tiene dimensi on |N M| = |N| |M|. Para cada pareja i, j con i N y j M hay una matriz eij en la base can onica la cual tiene su entrada ij igual a 1 y todas las dem as igual a cero.

Soluciones de ejercicios selectos


f g

245

Ejercicio 46 (Secci on 2.5 p agina 44) Sean E F G transformaciones lineales. Tenemos que f (g (x + y)) = f (g (x) + g (y)) = f (g (x)) + f (g (y)) y f (g (x)) = f (g (x)) = f (g (x)) y esto era todo lo que se quer a probar. Ejercicio 48 (Secci on 2.5 p agina 48) El conjunto E es contable y es un espacio vectorial sobre Q. Si existe un racional tal que y = x entonces la dimensi on de E sobre Q es 1. Si por el contrario no existe entonces la dimensi on de E sobre Q es 2. El conjunto E no es un espacio vectorial sobre Q. Ejercicio 50 (Secci on 2.6 p agina 52) 1.- Es f acil probar que la aplicaci on E F 3 (a, b) 7 (b, a) F E es un isomorsmo can onico. 2.- Conmutatividad. 3.- El isomorsmo can onico es ((a, b) , c) 7 (a, (b, c)) 7 (a, b, c). 4.- Si. La aplicaci on E {0} 3 (a, 0) 7 a E es un isomorsmo can onico. Por esto podemos pensar que E {0} = E.

Ejercicio 51 (Secci on 2.6 p agina 53) Denotemos por S a todo el espacio. Como cada vector se expresa como a + b con a E y b F tenemos S = E+F. Supongamos que a 6= 0 E F entonces 0 = 0 + 0 = a a lo que contradice que la descomposici on de 0 es u nica. Luego E F = {0} y por lo tanto S = E F. Ejercicio 57 (Secci on 2.7 p agina 56) Si E = E + x y F = F + y son dos subespacios paralelos o no entonces E + F es igual a (E + F) + (x + y) o sea, es un espacio af n paralelo a E + F. Si E es paralelo a F entonces, E = F y por lo tanto E + F = E. Ejercicio 61 (Secci on 3.4 p agina 75) T omese x = (1, 0) , y = (0, 1) y z = (1, 1) . Tenemos (xy) z = 0 (1, 1) = (0, 0) y x (yz) = (1, 0) 1 = (1, 0) por lo que (xy) z 6= x (yz) . cos sin Ejercicio 65 (Secci on 3.4 p agina 77) sin cos Ejercicio 66 (Secci on 3.4 p agina 78) Para cualesquiera n N y k K tenemos X XX (nM ML ) Lk = (nM Ml ) lk = nm ml lk = l L l L m M X X X nm ml lk = nm (mL Lk ) = nM (ML Lk )
m M l L m M

Ejercicio 67 (Secci on 3.4 p agina 79) Las matrices de f, g y f g tienen que cumplir: cos ( + ) sin ( + ) cos sin cos sin = = sin ( + ) cos ( + ) sin cos sin cos cos cos sin sin cos sin sin cos = cos sin + sin cos cos cos sin sin y por lo tanto cos ( + ) = cos cos sin sin sin ( + ) = cos sin + sin cos

246

Soluciones de ejercicios selectos

Ejercicio 72 (Secci on 3.7 p agina 87) (1 2) La conjugaci on compleja es continua. (2 3) Tenemos (v ease la prueba de 3.31) que f es la identidad en Q. De que los reales son los l mites de los racionales y f es continua obtenemos que f es la identidad en R. (3 1) Si f es la identidad en R entonces, f (a + bi) = a + bf (i). Como f (i)2 = f i2 = f (1) = 1 y f (i) 6= i entonces, f (i) = i. Para ver que hay muchos automorsmos de C que no son la conjugaci on compleja v ease por ejemplo: Yale, Paul B., Automorphisms of the complex numbers, Mathematics Magazine, May-June 1966, 135141. Ejercicio 73 (Secci on 3.7 p agina 88) La funci on (x1 , . . . , xn ) 7 (x1 , . . . , xn ) es es biyectiva. Adem biyectiva ya que 7 as, tenemos (x1 + y1 , . . . , x n + yn ) = (x1 n ) = (x1 , . . . , xn ) + (y1 , . . . , yn ) + y 1 , . . . , xn + y (x1 , . . . , xn ) x1 , . . . , xn = x1 , . . . , xn = y esto muestra que la funci on es un automorsmo semilineal. Si f es una transformaci on semilineal arbitraria cuyo automorsmo del campo es entonces, su composici on con el automorsmo semilineal estandar correspondiente a on lineal. 1 es una transformaci Ejercicio 75 (Secci on 3.7 p agina 91) Supongamos que 0 = a + c + b c = ( ) c + ( + ) a. Como {a, c} es LI entonces, = y (1 + ) = 0. Como 6= 1 entonces, 0 = = . Ejercicio 83 (Secci on 4.3 p agina 108) Es saludable poner la matriz de Vandermonde en forma gr aca como se muestra en el recuadro a la dere- 1 1 1 cha. Denotemos por v (x1 , x2 , . . . , xn ) al determinante x x2 xn 1 de esta matriz. Denotemos 2 2 x2 x x Y n 1 2 (xj xi ) f (x1 , x2 , . . . , xn ) = 1 1 1 1i<jn xn xn xn n 1 2 Veamos que v (x1 , x2 , . . . , xn ) = f (x1 , x2 , . . . , xn ). a proPor inducci on en n. Para n = 1 tenemos f (x1 ) = v (x1 ) = 1. Supongamos que est bado hasta n 1. Pongamos y = xn . Tenemos que probar que v (x1 , . . . , xn 1 , y) =

Ejercicio 71 (Secci on 3.7 p agina 87) Supongamos que sup A existe. Entonces, b R tenemos (a A b a) (b sup A) . Usando que f y f1 son mon otonas vemos que f (b) f (R) = R tenemos (f (a) f (A) f (b) f (a)) (a A b a) (b sup A) (f (b) f (sup A)) y esto prueba que f (sup A) = sup f (A).

Ejercicio 70 (Secci on 3.7 p agina 86) Sea f semilineal y y dos automorsmos del campo tales que para cualquier escalar y cualquier vector a se cumple que f (a) = () f (a) = () f (a). Podemos escoger a tal que f (a) 6= 0 y por lo tanto (( () ()) f (a) = 0) ( () = ()).

Soluciones de ejercicios selectos

247

f (x1 , . . . , xn1 , y). Para esto veamos ambos lados de la igualdad como polinomios en la variable y. Ambos polinomios tienen grado n 1. Haciendo la expansi on de Laplace por la u ltima columna vemos que el coeciente principal de v (x1 , . . . , xn1 , y) es igual a v (x1 , . . . , xn 1 ). Por otro lado Y Y (xj xi ) (y xi ) f (x1 , . . . , xn1 , y) =
1 i<jn 1 1 in 1

que tiene coeciente principal f (x1 , . . . , xn1 ). Por hip otesis de induccion v (x1 , . . . , xn 1 ) = f (x1 , . . . , xn1 ) y por lo tanto nuestros dos polinomios tienen el mismo coeciente principal. Adem as, las raices de v (x1 , . . . , xn 1 , y) son x1 , . . . , xn 1 porque evaluando y en estos valores obtenemos una matriz con dos columnas iguales. Es obvio que x1 , . . . , xn 1 son tambi en las raices de f (x1 , . . . , xn 1 , y). Luego, v (x1 , . . . , xn 1 , y) y f (x1 , . . . , xn1 , y) son dos polinomios del mismo grado, con los mismos coecientes principales y las mismas raices y por lo tanto son polinomios iguales.

Ejercicio 84 (Secci on 4.4 p agina 114) Las tres. Para la matriz A los bloques son M1 = {1} , M2 = {2} y M3 = {3}. Para la matriz B los bloques son M1 = {3} , M2 = {2} y M3 = {3}. Para la matriz C los bloques son M1 = {2} , M2 = {3} y M3 = {1} ya que 23 = 21 = 31 = 0. Los determinantes de las tres matrices son iguales a abc. Ejercicio 85 (Secci on 4.4 p agina 114) El aspecto es el del recuadro a la derecha. Aqu hemos denotado por las entradas que pueden ser diferentes de cero. Las entradas con 0 son las que obligatoriamente tienen que ser cero. Adem as, hemos dividido con rectas los tres bloques de la matriz. El determinante de una matriz de este tipo es igual al producto de los determinantes de sus tres bloques diagonales.

0 0

0 0 0

0 0 0

Ejercicio 89 (Secci on 5.1 p agina 135) Idea: todo lo demostrado para polinomios se traduce tal cual para los enteros. La u nica diferencia es que en lugar de usar el concepto de grado de un polinomio hay que usar el concepto de valor absoluto de un entero. Ejercicio 90 (Secci on 5.1 p agina 135) Si r es el m aximo com un divisor de p y 0 0 q entonces los polinomios p = p/r y q = q/r no tienen factores comunes. Por el Teorema de Bezout existen polinomios y tales que p0 + q0 = 1. La prueba concluye multiplicando esta igualdad por r. Ejercicio 94 (Secci on 5.1 p agina 138) Si i < k entonces la suma es vac a y por lo tanto es cero. Si i = k entonces, hay un solo sumando en el cual i = j = k y este sumando es uno. Supongamos i > k. Haciendo los cambios de variables t = j k y

248

Soluciones de ejercicios selectos

n = i k obtenemos X n i n X (n + k) ! j i n+k X jk t t n = = (1) (1) (1) k j t k ! t ! ( t n ) ! k j =k t =0 t=0 Pn y esta u ltima expresi on es cero ya que t=0 (1)t n es el binomio de Newton de t n (x 1) evaluado en x = 1. Ejercicio 95 (Secci on 5.1 p agina 138) DeP la prueba del Desarrollode (5.12) Taylor n j k j sabemos que si k {0, . . . , n} entonces, ak = j=k bkj j donde bkj = k (x0 ) . Por el ejercicio Pnanterior tenemos Pn Pi P jk j i k i k ai xi b = ( 1 ) == n = ak kj j 0 0 j = k i = k j = k i=k ik ai xP k j Pn n Luego, j=k bkj j = aj y como el sistema de ecuaciones lineales ak = j=k bkj j tiene soluci on u nica obtenemos que j = j . Ejercicio 96 (Secci o n 5.1 p agina 138) Formalmente (y en cualquier campo!) la P Pn n i (1 ) i 1 derivada de p (x) = a x es p ( x ) = ia x y por lo tanto p(j) (x) = i i= 0 i i= 1 Pn P i j i i! i j = j! n i=j (ij)! ai x i=j j ai x0 . Del ejercicio anterior obtenemos la prueba.

Ejercicio 97 (Secci on 5.2 p agina 140) Las raices del polinomio zn 1 son xk = cos k 2n + i sin k 2n para k {0, . . . , n 1}. Tenemos 2 2 2 2 xk xm = cos (k + m) + i sin (k + m) = cos ` + i sin ` = x` n n n n donde ` = (k + m) mod n. Para el producto, estas raices forman un grupo isomorfo a Zn . Ejercicio 98 (Secci on 5.2 p agina 140) Sean a, b y c tres lados de un tri angulo. Por simetr a solo tenemos que probar que |a b| c. Podemos suponer que a b. Por la desigualdad del tri angulo b + c a y de aqu c a b. Ejercicio 99 (Secci on 5.2 p agina 143) Para usar 1 tk p (z0 ) = 1 tk kp (z0 )k. Ejercicio 100 (Secci on 5.3 p agina 144) Para la propiedad 2 vemos que (a + bi) + (c + di) = (a + c) + (b + d) i = = (a + c) (b + d) i = (a bi) + (c di) = (a + bi) + (c + di) Finalmente, para probar la propiedad 3 vemos que (a + bi) (c + di) = (ac bd) + (ad + bc) i = = (ac bd) (ad + bc) i = (a bi) (c di) = (a + bi) (c + di) Ejercicio 101 (Secci on 5.4 p agina 146) Tenemos ab = ba por lo que (a, b) (a, b) lo que signica que la relaci on es reexiva. De ad = bc obtenemos cb = da. Esto signica que si (a, b) (c, d) entonces (c, d) (a, b) por lo que la relaci on es sim etrica. Si ad = bc y cf = de entonces adcf = bcde por lo que af = be. Esto signica que

Soluciones de ejercicios selectos

249

si (a, b) (c, d) y (c, d) (e, f) entonces (a, b) (e, f) por lo que la relaci on es transitiva. Ejercicio 102 (Secci on 5.4 p agina 148) El campo de funciones racionales Z2 (x) contiene a Z2 y por lo tanto es de caracter stica 2. Este campo tiene evidentemente un n umero innito de elementos. Ejercicio 103 (Secci on 5.4 p agina 148) El campo de fracciones de un campo es el mismo.

Ejercicio 104 (Secci on 5.5 p agina 149) Sea I = {p (x, y) x + q (x, y) y | p (x, y) , q (x, y Es facil ver que I es un ideal. Como los polinomios x y y ambos est an en I y estos son coprimos entonces, I no es principal. Ejercicio 105 (Secci on 6.1 p agina 154) Sean (a, b), (a0 , b0 ) E F. Tenemos 0 0 (f g) ((a, b) + (a , b )) = (f g) (a + a0 , b + b0 ) = (f (a + a0 ) , g (b + b0 )) = = (f (a) + f (a0 ) , g (b) + g (b0 )) = (f (a) +, g (b)) + (f (a0 ) , g (b0 )) = = (f g) (a, b) + (f g) (a0 , b0 ) con lo que tenemos la primera propiedad de linearidad. Para la segunda vemos que (f g) ( (a, b)) = (f g) (a, b) = (f (a) , g (b)) = ((f g) (a, b)). Ejercicio 106 (Secci on 6.1 p agina 154) 0 0 0 0 (f g ) (a, b) = f (g (a, b)) = f0 (a, g (b)) = (f (a) , g (b)) = (f g) (a, b). Ejercicio 111 (Secci on 6.1 p agina 156) Falso, un 0-deslizamiento en R2 es irreducible pero no es biyectivo. Ejercicio 113 (Secci on 6.2 p agina 161) Sea p el per odo de a. Si p es de grado cero entonces, p = 1 y por lo tanto 0 = ph (a) = h0 (a) = a. Ejercicio 114 (Secci on 6.2 p agina 161) Si p = x entonces ph (a) = h (a) por lo que ph (a) = 0 si y solo si a ker h. Ejercicio 119 (Secci on 6.5 p agina 171) Sea f un operador lineal en End (E/F) y G un subespacio complementario a F. Denimos h como la funci on nula en F, como h (a) = G f (a + F) en G y en todo el espacio por extensi on lineal. Para ver que h es lineal solo hay que comprobar que es lineal en G. Esto es trivial porque en G la nat funci on h cumple h = nat1 f nat donde a 7 a + F es el isomorsmo can onico e entre el cociente y un complementario. Para ver que f = h basta comprobarlo para los vectores a que estan en G. Pero f (a + F) = h (a) + F ya que f = nat h nat1 . Para calcular el n ucleo comprobamos que para cualquier vector a se cumple que e h (a) = O (a) (h (a) + F = F) (h (a) F).

Ejercicio 120 (Secci on 6.5 p agina 172) Supongamos que hbih F = {0}. Sea p =

250

Soluciones de ejercicios selectos

perh (b + F). Tenemos que ph (b + F) = ph (b) + F = F y por lo tanto ph (b) F. Por hip otesis, ph (b) = 0. Luego, p ` perh (b). Supongamos perh (b) a perh (b + F) y sea qh (b) F. Tenemos, qh (b + F) = qh (b)+ F = F y por lo tanto q ` perh (b + F) ` perh (b). Luego, qh (b) = 0.

Ejercicio 122 (Secci on 6.5 p agina 174) Es f acil ver que hA Bih hAih + hBih = F + G = E y por lo tanto A B es h-generador. Comprobemos que A B es hindependiente. Observese que A B = ya que 0 no est a en ning un conjunto hindependiente y A B F G = {0}. Luego una h-combinaci on de A B es de la forma ph (a1 ) + + qh (an ) + rh (b1 ) + + sh (bn ) donde A = {a1 , . . . , an } y B = {b1 , . . . , bm }. Si esta h-combinaci on es igual cero entonces F = hAih 3 ph (a1 ) + + qh (an ) = rh (b1 ) sh (bn ) hBih = G y por lo tanto, ph (a1 ) + + qh (an ) = rh (b1 ) + + sh (bn ) = 0 y como A y B son h-independientes deducimos que ph (a1 ) = = qh (an ) = rh (b1 ) = = sh (bn ) = 0. Ejercicio 124 (Secci on 6.5 p agina 177) Demostremos primero que haih hbih = {0}. Tenemos para cualquier polinomio r que

(ph rh (a) = rh (ph (a)) = 0) (rh (a) ker ph ) y por lo tanto haih ker ph . An alogamente hbih ker qh . Por el Lema de Descomposici on de N ucleos (6.15) sabemos que ker ph ker qh = {0} y por lo tanto haih hbih = {0}. De rh (a + b) = rh (a)+rh (b) concluimos que ha + bih haih +hbih . Demostraremos que ambos subespacios tienen la misma dimensi on (nita) y por lo tanto son iguales. Como haih hbih = {0} el conjunto {a, b} es una h-base de haih + hbih y por 6.26 dim (haih + hbih ) es la suma de los grados de p y q. De la misma manera que en la prueba de 6.19 podemos demostrar que perh (a + b) = pq. Por 6.26 dim ha + bih es igual al grado de pq o sea, igual a la suma de los grados de p y q. Ejercicio 125 (Secci on 6.5 p agina 177) Sean p, q, . . . , r los factores irreducibles del polinomio m nip`2 p`t mo del OL h. Organizaremos los polinomios en el tipo de p`1 una descomposici on de h en componentes radicales c clicas qm 1 qm 2 qm t . . . . en una tabla donde `i `i+1 , mi mi+1 y ni ni+1 . Pa- . . . . . ra hacer nuestra tabla cuadrada puede ser que necesitemos rn1 rn2 rnt hacer algunos de los exponentes iguales a cero. O sea, hacia la derecha de la tabla pueden haber polinomios iguales a 1. Cada entrada diferente de 1 de esta tabla se corresponde con una componente radical c clica de h. Los renglones de la tabla corresponden a las componentes radicales de h. Para cada columna i {1, . . . , t} denotemos por gi a la suma directa de las componentes

Soluciones de ejercicios selectos

251

irreducibles de h correspondientes a las entradas de la columna. Por el 6.11 el polinomio m nimo de gi es igual a p`i qm i rni y por lo tanto el polinomio m nimo de cada gi es un m ultiplo del polinomio m nimo de gi+1 . Por el ejercicio anterior los gi son c clicos. Denotando fi = gti obtenemos la descomposici on deseada. Ejercicio 126 (Secci on 6.5 p agina 177) El tipo de tales descomposiciones est a formado por los productos de los polinomios en las columnas de la tabla del ejercicio anterior. De la unicidad del tipo de las descomposici ones en componentes irreducibles se desprende la unicidad de la tabla salvo reordenamiento de los renglones. Ejercicio 127 (Secci on 6.6 p agina 180) Para probar esto, demostraremos que la traza es uno de los coecientes del polinomio caracter stico. Como el polinomio caracter stico es invariante bajo cambios de base, entonces lo mismo es v alido para sus coecientes. Sea A = NN una matriz. Su polinomio caracter stico es X Y Y det (xI A) = sgn (x ii ) (kk )
SN i k

y as vemos, que el coeciente en xn 1 es igual a la traza multiplicada por 1.

donde el primer producto recorre todos los ndices i N tales que i = i y el segundo los ndices k N tales que k 6= k. Como cualquier permutaci on que no sea la identidad tiene al menos dos k tales que k 6= k, entonces todos los sumandos correspondientes a permutaciones que no sean la identidad son polinomios de grado menor o igual que |N| 2. Luego, los coecientes en xn y xn 1 del polinomio caracter stico coinciden con los correspondientes coecientes del polinomio ! X Y (x ii ) = xn ii xn 1 +
iN iN

Ejercicio 128 (Secci on 6.6 p agina 182) Si el polinomio m nimo es un producto de diferentes polinomios de grado 1 entonces las componentes radicales son homotecias ya que para cualquier vector a en el subespacio radical de tipo x se cumple que h (a) a = 0. Las homotecias tienen matrices diagonales en cualquier base y la suma directa de operadores diagonalizables es diagonalizable. Si en cierta base N el OL h tiene matriz diagonal NN entonces, podemos denotar en denotemos h a la restricci on de h al subespacio N = {i N | ii = }. Tambi generado por N . Los operadores h son homotecias porque en la base N su matriz es I y por lo tanto el polinomio m nimo de h es x . Tenemos que h es la suma nimo es el producto de los x ya que todos directa de los h y que su polinomio m estos son diferentes. Ejercicio 129 (Secci on 6.6 p agina 182) Si 1 , . . . , n son n diferentes valores propios de un operador lineal en dimensi on n entonces su polinomio caracter stico es

252

Soluciones de ejercicios selectos

(x 1 ) (x k ) y por el Teorema de Hamilton-Caley-Frobenius este coincide con su polinomio m nimo. Por el ejercicio anterior el operador es diagonalizable. Ejercicio 130 (Secci on 6.6 p agina 182) Supongamos que h es triangulable entonces existe una base B = {v1 , . . . , vn } en la cual la matriz de h es triangular. Denotemos Ek = hv1 , . . . , vk i , evidentemente {0} E1 En = E y dim Ek = k. Ademas {h (v1 ) , ...., h (vk )} Ek debido a la forma triangular de la matriz de h. Luego, los Ek son invariantes. Rec procamente supongamos que una cadena de subespacios invariantes {0} E1 En = E cumple que dim Ek = k. Escojamos v1 E1 y para k {2, ..., n} escojamos vk Ek \ Ek+1 . El conjunto B = {v1 , . . . , vn } es LI ya que ning un vk es combinaci on lineal de los anteriores. Luego {v1 , . . . , vk } es una base de Ek . Como Ek es invariante entonces por 6.2, en la base B la matriz de h tiene las entradas cuyas columnas est an indexadas por {1, . . . .k} y cuyos renglones est an indexados por {k + 1, . . . .n}; iguales a cero. En particular, k en la columna k solo pueden ser distintos de cero las entradas correspondientes a los renglones {1, . . . .k}. Ejercicio 131 (Secci on 6.6 p agina 182) Si f y g son triangulables entonces en cierta base la matriz de f es diagonal con dos bloques y cada uno de ellos triangular. Luego, f es triangulable. Rec procamente, sea {0} E1 En = E la cadena de subespacios invariantes def ease el ejercicio anterior). que hace que h = f g sea triangulable (v Sea E = F G la descomposicion en subespacios invariantes de tal manera que f es la restricci on de h al subespacio F. Sea la proyecci on a F a lo largo de G, o sea, si x = y + z con y F y z G entonces (x) = y. Para k {1, . . . , n} denotemos Fk = (Ek ) . Los subespacios Fk cumplen que {0} F1 Fn = F. Probemos que los espacios Fk son invariantes. Para esto sea x = y + z con y F y z G. Por linearidad tenemos h (x) = h (y) + h (z) . Como F y G son invariantes entonces h (y) F y h (z) G y por denici on de tenemos que (h (x)) = h (y) = h ( (x)) esto quiere decir que conmuta con h. Luego h (Fk ) = h ( (Ek )) = (h (Ek )) (Ek ) = Fk y por lo tanto los Fk son invariantes. Por otro lado, como dim Ek = 1 + dim Ek1 tenemos dos alternativas posibles Fk = Fk1 o dim Fk = 1 + dim Fk1 y si en la cadena de subespacios invariantes {0} F1 Fn = F

Soluciones de ejercicios selectos


eliminamos las repeticiones obtendremos otra cadena de subespacios invariantes

253

{0} F01 F0m = F en la cual se cumple que dim F0k = k. Por el ejercicio anterior esto quiere decir que f es triangulable. Ejercicio 132 (Secci on 6.6 p agina 182) Por Teorema de Descomposici on en Componentes Radicales C clicas (6.36) y el ejercicio anterior solo hay que probarlo para operadores c clicos radicales. Sea h c clico radical con polinomio m nimo pn . La u nica cadena de subespacios invariantes posible es por 6.43 la siguiente
n {0} ker ph ker pk h ker ph = E. k Por 6.42 y 6.23 tenemos que dim ker pk h es igual al grado de p . Luego, esta cadena cumple los requisitos del ejercicio 130 si y solo si el grado de p es 1. En los complejos, todo polinomio irreducible es de grado 1.

Ejercicio 133 (Secci on 6.7 p agina 188) Sean f y g del mismo tipo. Entonces, usando la Forma normal can onica (6.57) vemos que existen bases del espacio en las cuales f y g tienen la misma matriz. Esto quiere decir que en la misma base f y g tienen matrices A y CAC1 donde C es la matriz adecuada de cambio de bases. La matriz C es la matriz de un OL invertible h por lo que f = h g h1 . Rec procamente, supongamos que f = h g h1 . Si A, B y C son las matrices de f, g y h respectivamente en cierta base entonces A = CBC1 . Luego , en otra base (denida por el cambio de base C), la matriz de g es A. Por lo tanto, existen bases en las cuales las matrices de g y f son las mismas. Como el tipo de un operador se puede calcular por su matriz sin usar la base en la que est a denida entonces, los tipos de f y g son el mismo. Ejercicio 134 (Secci on 7.1 p agina 191) En la base N tenemos iH (k) = 1. En la base M tenemos iH (k) = 0. Ejercicio 136 (Secci on 7.1 p agina 193) Para cada sucesi on (innita) (a0 , a1 , ...) con elementos en K hay un funcional lineal n n X X i i x 7 ai i K K [x] 3 i =0 i =0 y estos son todos, pues estos funcionales restringidos a la base can onica A = 1, x, x2 , ... nos dan todas las funciones de A en K. En este caso no tenemos base dual. Los fun n cionales X AH = ai xi 7 aj | j N
i= 0

son un conjunto LI pero no generador pues con combinaciones lineales nitas solo podemos generar funciones de A en K de soporte nito.

Ejercicio 137 (Secci on 7.1 p agina 194) Si existe g entonces, por el ejercicio 20, f es

254

Soluciones de ejercicios selectos


f i

Ejercicio 138 (Secci on 7.1 p agina 194) Si existe f entonces, por el ejercicio 20, g es sobreyectiva. Supongamos que g es sobreyectiva. Entonces, por el Teorema de g0 Descomposici on de una TL (3.26) la funci on g se factoriza como F K E donde K es un subespacio complementario al n ucleo de g, es la proyecci on a K a lo largo del n ucleo de g y g0 es la restricci on de g a K. Sabemos que g0 es un isomorsmo. 1 Si i : K F es la inmersion, entonces f = i g 0 cumple que g f es la identidad en E. Ejercicio 139 (Secci on 7.1 p agina 194) Si f es sobreyectiva entonces, por el ejercicio 138 existe g tal que g f = I y por lo tanto f# g# = (g f)# = I# = I. Aplicando el ejercicio 137 obtenemos que f# es inyectiva. La prueba de la otra armaci on es an aloga.

0 injectiva. Supongamos que f es inyectiva. Entonces f se factoriza como E Im f F 1 donde f0 es un isomorsmo. Si : F Im f es cualquier proyecci on entonces, g = f 0 cumple que g f es la identidad en E.

Ejercicio 141 (Secci on 7.2 p agina 197) Sean y dos funcionales bilineales. Su suma est a denida como x ( + ) y = x y + x y . Luego, tenemos la igualdad de covectores x ( + ) = x + x y de aqu la igualdad de TLs ( + ) = + . Observese que el u nico argumento que se usa para pasar de una igualdad a la siguiente es la denici on de cuando dos funciones son iguales. De la misma manera se comprueba que () = . Ejercicio 144 (Secci on 7.3 p agina 205) Tenemos 0= x+yx+y = xx + yy + xy + yx = xy + yx = luego x y y x. P Ejercicio 148 (Secci on 7.3 p agina 211) Sea 0 = n i=1 (i xi + i yi ) una combinaci on lineal nula de un conjunto de Darboux. Multiplicando por xj obtenemos n X (i xj xi + i xj yi ) = j xj yj = j 0 = xj 0 =
i =1

y por lo tanto todos los j son cero. Multiplicando por yj obtenemos n X (i xi yj 0 = 0 yj =


i =1

+ i yi yj ) = j xj yj

= j

Soluciones de ejercicios selectos


y por lo tanto todos los j son cero.

255

Ejercicio 149 (Secci on 7.3 p agina 211) Sea (E, ) un espacio de dimensi on 2n < con producto escalar. Si el espacio es simpl ectico entonces existen n planos simpl ecticos tales que E = E1 En . Por denici on de plano simplectico existe una base de vectores isotr opicos xi , yi Ei tales que xi yi = yi xi = 1. Por denici on de suma perpendicular, la base de todo el espacio {x1 , . . . , xn , y1 , . . . , yn } es una base de Darboux. Reciprocamente, si {x1 , . . . , xn , y1 , . . . , yn } es una base de Darboux entonces los planos E1 = hxi , yi i son simpl ecticos y el espacio es suma perpendicular de ellos. Ejercicio 156 (Secci on 7.4 p agina 225) Supongamos que son isomorfos. Sean {a, b} y {c, d} bases ortogonales en las cuales el producto bilineal tiene huellas {1, 1} y {1, } respectivamente. Tenemos que los subespacios hai y hci son isomorfos pero los subespacios hai = hbi y hci = hdi por Clasicaci on de los espacios ortogonales en dimensi on 1 (7.47) no lo son. Esto contradice el Teorema de Witt. Ejercicio 157 (Secci on 7.4 p agina 225) Sean {a, b} y {c, d} bases ortogonales en las cuales el producto bilineal tiene huellas {1, 1} y {1, } respectivamente. Sean , , y escalares tales que c = a + b y d = a + b. Tenemos c d = + = 0 c c = 2 + 2 = 1 d d = 2 + 2 = De = 0 obtenemos que = 1, = 0 y 2 = lo que contradice que no es un cuadrado. Luego, podemos suponer que 6= 0. Multiplicando la tercera igualdad por 2 y usando las dos primeras obtenemos que 2 = 2 2 + 2 2 = 2 2 + 2 2 = 2 + 2 2 = 2 y de aqu obtenemos que es el cuadrado de /. Esto contradice que no es un cuadrado.

256

Algebra. Espacio vectorial con un producto de vectores asociativo, distributivo, con elemento neutro y que conmuta con el producto por escalares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70, 78, 99 Algebra conmutativa. Algebra en la cual el producto de vectores es conmutativo . . . . . . . . . . . . . . . . . . . . 71, 159 Anillo. Conjunto con dos operaciones binarias denotadas por + y que es grupo abeliano para la suma, que el producto es asociativo con elemento neutro y distributivo respecto a la suma . . . . . . . . . . . . . . . . . . . . . 7, 12, 70 Anillo conmutativo. Anillo en el cual el producto es conmutativo . . . . . . . . . . . . . 7, 15, 22, 130, 145 Anulador de un conjunto de vectores. La intersecci on de los anuladores de todos los vectores en el conjunto. . . . . . 161 Anulador de un OL. El anulador de todo el espacio. . . . . . . . . . . . . . . . . . . . . . . 161 Anulador de un vector. El conjunto de polinomios p tales que ph (a) = 0 . . 161 Argumento de un complejo. El a ngulo que forma el vector 0z con el eje real del plano complejo. . . . . . . . . . 139 Asociatividad. Propiedad de algunas operaciones binarias que consiste en que a (b c) = (a b) c para cualesquiera elementos a, b y c del conjunto en el cual est a denida la operaci on . . . . . . . . . . 3, 14, 20, 69, 78, 130 Asociatividad del producto por escalares. Axioma de espacio vectorial: (a) = () a . . . . . . . . . . . . . . . . . . . . . . . . 28

Automorsmo. Endomorsmo biyectivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 Automorsmo de Frobenius. La funci on K 3 x 7 xp K donde K es un campo nito de caracter stica p > 0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 Automorsmo semilineal. Transformaci on semilineal biyectiva de un espacio en si mismo. . . . . . . . . . . . . . . 87 Base. Conjunto de vectores que es generador y LI. Conjunto generador minimal. Conjunto LI maximal . . . . . 40, 45, 49, 61, 72, 80, 117 Base can onica. El conjunto de N-adas {ei | i N} donde la j- esima coordenada de ei es el delta de Kronecker ij . . . . . . . . . . . . . 43, 77, 82 Base de las columnas. Conjunto de columnas diferentes que son una base del espacio de columnas . . . . . . . . . . . . . 116 Base de los renglones. Conjunto de renglones diferentes que son una base del espacio de renglones. . . . . . . . . . . . . 116 Base de una matriz. Submatriz no singular maximal por contenci on. . . . . . . . . . . . . . . . . . . . . . . . . 118, 124 Binomio de Newton. F ormula para expandir (x + y)n 21, 137 Cadena. Subconjunto de un conjunto ordenado que est a totalmente ordenado . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 61 Cambio de ndices. Biyecci on mediante la cual los ndices de una Nada (o columnas, o renglones) obtienen nuevos nombres. Es la operaci on en que una biyecci on : N L se le aplica a las columnas de una matriz MN pa-

258

cam com
Ciclo. Permutaci on del grupo sim etrico de N que cambia un conun la regla junto {x0 , . . . , xn 1 } N seg as (xi ) = xi+1 mod n y deja todos los dem elementos de N jos . . . . . . 94, 107, 115 Ciclos disjuntos. Ciclos tales que los conjuntos de elementos que ellos no dejan jos no se intersectan . . . . . . 94 Clases de equivalencia. Si es una relaci on de equivalencia en A entonces, las clases de equivalencia son los subconjuntos de A para los cuales a b si y solo si a y b est an en la misma clase *, 55, 62 Coalineaci on. Funci on biyectiva de un espacio vectorial en si mismo que tal que f y f1 preservan subespacios anes. 88 Cociente. Al efectuar la divisi on con resto de un elemento p de un anillo conmutativo (Z, K [x]) entre otro q obtenemos la igualdad p = cq + r. Al elemento c se le llama cociente de la divisi on de p entre q . . . 131 Codominio de una funci on. Sea f : A B una funci on. Al conjunto B se le llama codominio de la funci on f . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11, 82 Coeciente principal. El coeciente diferente de cero de un polinomio que multiplica a la potencia m as grande de la variable . . . . . . . . . . . . . . . . . . . . . . . . 129 Coecientes de un polinomio. (v ease polinomio) . . . . . . . . . . . . . . . . . . . 129 Cofactor. De la entrada ij es el escalar sgn det N \i (N \ j) donde es cualquier permutaci on de N tal que (j) = i . . . . . . . . . . . . . . . . . . . . . 106 Columna de una matriz. Dada una matriz NM y j M a la Na jo, los elementos de N ada Nj (j est var an) se le llama j- esima columna de la matriz NM . . . . . . . . . . . . . . . . . . . . . . 33, 76 Combinaci on lineal. Los vecP tores de la forma iN i i (donde solo un n umero nito de los ai es diferente de

ra obtener la matriz ML = M (N ) que alogamencumple que ij = i 1 (j) . An te se denen los cambios de ndices de los renglones . . . . . . . . . . . . . . . . . . . . . . . . . 104 Campo. Anillo conmutativo en el cual todo elemento diferente de cero tiene inverso . . . . . . . . . . . . . . . . . . 8, 16, 17 Campo algebraicamente cerrado. Campo en el cual todo polinomio de grado al menos uno tiene una ra z. Campo el cual los polinomios irreducibles son todos de grado uno . . . . 10, 47, 138, 145 Campo de fracciones. Entre las fracciones de un dominio de integridad se dene la suma y el producto exactamente de la misma manera que se denen estas operaciones en Q. Para estas operaciones el conjunto de fracciones es un campo . . . . . . . . . . . . . . . . . . . . . . . . . 147 Campo ordenado. Campo con una relaci on de orden en el cual todo elemento es comparable con el cero. Los elementos mayores que cero se les llama positivos y los menores que cero negativos. Los axiomas que debe cumplir la relaci on de orden son: 1. El opuesto de un positivo es negativo, 2. El opuesto de un negativo es positivo, 3. La suma de positivos es positiva, 4. El producto de positivos es positivo. Los campos R y Q est an ordenados. Cualquier campo ordenado tiene que ser de caracter stica cero. Adem as, C no se puede ordenar . . . . . . . . . . . . . . . . *, 9, 106 Campo primo. Campo cuyo u nico subcampo es el mismo . . . . . . . . . . . . . . . 17 Caracter stica de un campo. Es cero si el campo contiene como subcampo a Q. Es igual al n umero primo p si el campo contiene como subcampo a Zp . . . . . . . . . . . . . . . . . . . . 19, 97, 105, 148 Cerradura lineal. El conjunto de todas las combinaciones lineales de un conjunto de vectores . . . . . 37, 45, 49

com dia
cero) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35, 49 Complemento algebraico. Cofactor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 Componente radical. Restricci on del OL a un subespacio radical maximal . . . . . . . . . . . . . . . . . . . . . . . . . 165 Composici on de funciones. Operaci on entre dos funciones que consiste en aplicar primero una funci on y despu es la otra . . . . . 14, 44, 69, 78, 93 Conjunto acotado inferiormente. Conjunto que tiene una cota inferior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 143 Conjunto acotado superiormente. Conjunto que tiene una cota superior . * Conjunto generador. Conjunto de vectores cuya cerradura lineal es todo el espacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38, 45 Conjunto h-independiente. Conjunto de vectores no nulos tales que los sumandos de cualquier h-combinaci on nula son nulos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169 Conjunto inductivamente ordenado. Conjunto ordenado no vac o dentro del cual cada cadena tiene cota superior 61 Conjunto LD. Acr onimo de conjunto linealmente dependiente . . . . . . . . . . . . . 39 Conjunto LI. Acr onimo de conjunto linealmente independiente . . . . . . . . . . . 39 Conjunto linealmente dependiente. Conjunto de vectores que no es LI . . 39 Conjunto linealmente independiente. Conjunto de vectores A tal que a A se cumple que hA\ai 6= hAi . . . . 39, 116 Conjunto ordenado. Conjunto en el cual est a denida una relaci on de orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 61 Conjunto totalmente ordenado. Conjunto ordenado en el cual dos elementos cualesquiera son comparables . * Conmutatividad. Propiedad de algunas operaciones binarias que consiste en que ab=ba

259

elementos a y b del conjunto en el cual est a denida la operaci on . . . . . . . . . . . . . . 3 Contracci on. Homotecia cuyo escalar es un real mayor que 0 y menor que 1 . 66 Coordenada. De la n-ada (a1 , a2 , ..., an ) es alguno de los ai . De la N-ada aN es alguno de los ai para i N . . . . . . . . . . . . . . . . . . . . . . . . . 29 Coordinatizaci on. Dada una base N de F, es el isomorsmo P F 3 iN i i 7 N K{N } . . . . . . 46, 80 Cota inferior. Una cota inferior de un subconjunto A de un conjunto ordenado B es un elemento b de B tal que cualquier elemento de A es mayor o igual que B . . . . . . . . . . . . . . *, 143 Cota superior. Una cota superior de un subconjunto A de un conjunto ordenado B es un elemento b de B tal que cualquier elemento de A es menor o igual que B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 61 Covector. Vector en el espacio dual. Sin onimo de funcional lineal. . . . . . . . 189 Dena la multiplicidad de una ra z. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 Delta de Kronecker. Funci on ij de dos variables que toma valor 1 si i = j y toma valor 0 si i 6= j . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137, 78, 99 Desarrollo de Taylor. Expresi on de una funci P on como iserie de potencias f (x) = ai (x x0 ) . El esicoeciente de la serie ai es la i- ma derivada de f evaluada en el punto x0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137, 142 Determinante. El determinante de NN es P Q SN sgn iN i i . . . . 98, 21, 124 Determinante de un OL. Determinante de su matriz en una base. No depende de la base escogida . . . . 111 Diagrama. Reperesentaci on gr aca de una familia de conjuntos y de funciones entre ellos mediante la utilizaci on de

260

dia esp

echas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 Ecuaci on N xN = N donde las N-adas Diagrama conmutativo. N y N son conocidos y el vector xN es inc ognito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 Diagrama en el cual cualesquiera dos caEcuaci on matricial. Ecuaci on AX = B minos dirigidos (que siguen el orden de donde la matrices A y B son conocidas y las echas) de un conjunto a otro reprela matriz X es inc ognita . . . . . . . . . . . . . 127 sentan dos descomposiciones de la misma Elemento maximal. Elemento funci on como composici on de las funciotal que cualquier otro no es mayor que nes de las echas de los caminos . . . . 81 el . . . . . . . . . . . . . . . . . . . . . . . . *, 40, 61, 118 Dilataci on. Homotecia cuyo escalar es Elemento minimal. Elemento tal que un real mayor que 1 . . . . . . . . . . . . . . . . . . 66 cualquier otro no es menor que el *, 40 Dimensi on. Elementos comparables. Dos elementos El cardinal de cualquier baa y b de un conjunto ordenado para los se . . . . . . . . . . . . . . . . . . . . . . . . 42, 50, 55, 84 cuales o a b o b a o los dos . *, 40 Dimensi on de un OL. Dimensi on Endomorsmo. Morsmo cuyo dominio del espacio donde est a denido el operay codominio coinciden . . . . . . . . . . . . . . . 13 dor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 Entensi on lineal de una funci on. Dimensi on de un subespacio af n. Si Extensi on que es transformaci on lineal. E es una traslaci on del subespacio E enSi la funci on tiene como dominio una batonces la dimensi on de E es la dimensi on se, entonces la extensi on lineal existe y es de E . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 u nica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 Distributividad. Entrada de una matriz. Relaci on de una operaci on binaria con Coordenada de una NM-ada . . . . . . . . 33 respecto a otra que consiste en que las Epimorsmo. Morsmo sobreyectivo 13 igualdades a (b c) = (a b) (a c) Escalar. Elemento del campo (b c) a = (b a) (c a) (la escala!) sobre el cual est a denido el se cumplen para cualesquiera elementos espacio vectorial . . . . . . . . . . . . . . . . . . 28, 28 a, b y c del conjunto en el cual est a deEspacio cociente. Si E nida la operaci on. . . . . . . . 5, 20, 69, 78 es un subespacio de F entonces, el espaDistributividad del producto por escalares. cio cociente F/E es el conjunto de todos los subespacios anes paralelos a E doAxioma de espacio vectorial: tado con la suma de subespacios anes (a + b) = a + b y ( + ) a =a+a 28 y el producto de subespacios anes por Divisor. Para dos polinomios p y q escalares . . . . . . . . . . . . . . . . . . . . . . . . . . 56, 85 se dice que q es un divisor de p si c tal Espacio de columnas. que q = cp . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 El espacio generado por las columnas de Dominio de integridad. Anillo una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 conmutativo en el cual el producto de Espacio de renglones. elementos diferentes de cero es diferente El espacio generado por los renglones de de cero . . . . . . . . . . . . . . . . . . . . . . 15, 19, 147 una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 Dominio de una funci on. Sea Espacio vectorial. Grupo f : A B una funci on. Al conjunto A se abeliano con un producto por escalale llama dominio de la funci on f . 11, 82 res distributivo, asociativo y con neuEcuaci on lineal. tro. . . . . . . . . . . . . . . . . . . 28, 46, 54, 56, 69

ext gru
Extensi on de una funci on. Si f es una restricci on de g entonces g es una extensi on de f . . . . . . . . . . . . . . . . . . . 71 Factor de un polinomio. Divisor m onico de grado al menos 1 . . . . . . . . 132 Factor propio. Factor m onico diferente al polinomio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 Forma polar de un complejo. Es la expresi on r (cos + i sin ) donde r es el m odulo de z y es el argumento de z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 F ormula multinomial. F ormula para expandir la n-sima potencia de una suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 Fracci on. Pareja de elementos de un dominio de integridad (por ejemplo K (x) o Z) que se denota por a/b. Dos fracciones a/b y c/d se consideran iguales si ad = bc . . . . . . . . . . . . . . . . 146, 8 Funci on. Informalmente es una regla o procedimiento mediante el cual para cada elemento de un conjunto a podemos obtener (calcular) otro u nico elemento f (a) de otro conjunto y que llamamos la imagen de a mediante la funci on f. Formalmente, una funci on f : A B es un subconjunto del producto cartesiano f A B que cumple que para cualquier a A existe una u nica pareja (a, b) f. . . . . . * Funci on antipodal. La funci on x 7 x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 Funci on biyectiva. Funci on inyectiva. y sobreyectiva . . . . . . . . . . . . . . . . . . . . . . . *, 93 Funci on continua. Funci on continua en todos los puntos de su dominio . . . . . 140 Funci on continua en un punto. La funci on f es continua en z0 si > 0 tal que kz z0 k < kf (z) f (z0 )k < . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 Funci on de evaluaci on. De un polinomio p (x) es la funci on: p : K 3 b 7 p (b) K. . . . . . 131

261

Funci on identidad. La que a todo elemento le corresponde el mismo . . . 66 Funci on inversa. La inversa de una funci on f : A B es una funci on g tal que f g = IB y g f = IA . Una funci on tiene inversa si y solo si esta es biyectiva . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 44 Funci on inyectiva. Cada elemento de la imagen tiene una u nica preimagen . . . . . . . . . . . . . . . . . . . . . . . . . *, 83 Funci on nula. La que a todo elemento le corresponde el cero . . . . . . . . . . . . . . . . . . . 66 Funci on racional. Fracci on de dos polinomios . . . . . . . . . 148 Funci on sobreyectiva. Funci on tal que su imagen coincide con su codominio . . . . . . . . . . . . . . . . . . . . . . *, 84 Funcional. Funci on de un espacio vectorial en su campo . . . . . . . . . . . . . . . 109 Funcional bilineal. Funcional lineal en sus dos variables 109 Funcional lineal. TL del espacio en el campo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 Funcional lineal. TL del espacio en el campo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 Funcional lineal en una variable. Funci on de muchas variables con imagenes en un campo que para cualesquiera valores jos de las dem as variables determina un funcional lineal de la variable que se trata . . . . . . . . . . . . . . . . . . . . . . . . . . 109 Funcional multilineal. Funcional lineal en todas sus variables. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 Grado de un polinomio. La potencia mayor de la variable con coeciente diferente de cero. Si el grado es cero el polinomio es un elemento del campo. No est a denido el grado del polinomio cero. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 Grupo. Conjunto con una operaci on binaria asociativa que tiene elemento neutro y en el cual todo elemento tiene inverso. . . . . . . . . . . . 7, 11, 14, 17, 57, 71, 93

262

gru mat
Su espacio de columnas . . . . . . . . . . . . . 123 Inmo. El m aximo de las cotas superiores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 143 Inmo de un conjunto de reales. El n umero m aximo x tal que x a para cualquier a A. Para el nmo x de A siempre existe una sucesi on {ak } de elementos de A cuyo l mite es x . . . . . . . 143 Inmersi on. Restricci on de la funci on identidad a un subconjunto . . . . . . 67, 83 Inverso. De un elemento a para la operaci on binaria es un elemento b que cumple que a b = b a = e para cualquier elemento a del conjunto en el cual est a denida la operaci on. Si un elemento tiene inverso entonces este es u nico. En los anillos y campos es el inverso para el producto . 5 Isomorsmo. Morsmo biyectivo. La inversa de cualquier isomorsmo es tambi en un isomorsmo. . . . . . . 12, 51 Isomorsmo can onico. Isomorsmo cuya construcci on no depende de escoger algo (una base, un complementario, etc.) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51, 57 Isomorsmo de espacios vectoriales. Transformaci on lineal biyectiva . . 44, 73 Isomorsmo lineal. Isomorsmo de espacios vectoriales . 44 L mite de una sucesi on. mite z si > 0 La sucesi on {zk } tiene l N tal que k > N kzk zk < . . . . 141 Matriz. Es una NM-ada o sea un conjunto indexado por dos conjuntos 33 Matriz acompa nante de un polinomio. Matriz cuadrada cuya u ltima columna es el vector de coecientes del polinomio multiplicado por -1, la paralela inferior a la diagonal contiene unos y todas las dem as entradas son cero. . . . . . . . . . . . 180 Matriz ampliada. Del sistema Ax = b es la matriz (A|b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122

Grupo abeliano. Grupo en el cual la operaci on es conmutativa . . . . . . . . . . . . . . 7 Grupo alternante. El subgrupo (del grupo sim etrico) de todas las permutaciones pares . . . . . . . . . 97 Grupo general lineal. El grupo de automorsmos de un espacio vectorial. El grupo de operadores lineales no singulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 Grupo sim etrico. El grupo de todas las permutaciones con la operaci on de composici on . . . . . . . . . 93 h-base. Conjunto hindependiente y h-generador. Todo OL h tiene h-bases . . . . . . . . . . . . . . . . . . . . . . 169 h-cerradura. Conjunto de todas las h-combinaciones . . . . . . . . . . . . . . . . . . . . . 167 h-combinaci on. Vector de la forma ph (v1 ) + qh (v2 ) + + rh (vn ) donde p, q, ..., r son polinomios . . . . . 166 h-generador. Conjunto de vectores que h-genera a todo el espacio . . . . . . . . . . 167 Homotecia. Transformaci on lineal que consiste en la multiplicaci on por un escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 Ideal. Subconjunto I de un anillo A tal que 1. p, q I p + q I, 2. p I r A rp I . . . . . . . . . . 133 Ideal principal. Ideal formado por todos los m ultiplos de un polinomio . . . . . . 134 Idempotencia. Propiedad de una funci on que consiste en que f f = f2 = f . . . . 37 Igualdad de Moivre. F ormula para calcular la n-esima potencia de un n umero complejo en forma polar . . . 139 Imagen de un elemento. (v ease: Funci on) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . * Imagen de una funci on. El conjunto de los elementos del codominio que tienen alguna preimagen. Se denota por Im f . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 82 Imagen de una matriz. La imagen de su transformaci on lineal.

mat mon
Matriz cuadrada. Matriz con la misma cantidad de columnas y renglones . . . . . . . . . . . . . . . . . 105, 79 Matriz de cambio de base. Escogidas dos bases V y N de un espacio vectorial la matriz NV cuyas columnas son los coecientes de las expresiones de la base V como combinaci on lineal de la base N. O sea, para P cualquier v V se cumple que v = iN iv i. Si V son las coordenadas de un vector en la base V entonces NV V son las coordenadas del mismo vector en la base N . . . . . . . 80 Matriz de permutaci on. La matriz que se obtiene al permutar las columnas o los renglones de la matriz identidad. Matriz que tiene exactamente un 1 en cada rengl on y columna y todas las dem as entradas son cero . . . . . . . . . . . . 102 Matriz de una transformaci on lineal. Escogidas una base N en el dominio y otra M en el codominio de una TL f la matriz MN cuyas columnas son los coecientes de las expresiones de las imagenes de la base N como combinaci on lineal de la base M. O sea, para cualquier j N se cumple que P f (j) = iM ij i . . . . . . . . . . . . 77, 74, 81 Matriz del sistema. La matriz A del sistema de ecuaciones lineales Ax = b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 Matriz diagonal. Matriz MM en la cual si i 6= j entonces, ij = 0 . . . . . . . 114 Matriz diagonal por bloques. Matriz on del MM en la cual hay una partici conjunto de ndices M1 Mt = M y que ij = 0 si i y j pertenecen a bloques diferentes . . . . . . . . . . . . . . . . . . . . . . . 114 Matriz identidad. La matriz INN cuyas entradas son el delta de Kronecker: unos en la diagonal y ceros en el resto de las entradas. La matriz de la transformaci on lineal identi-

263

dad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78, 99 Matriz inversa. La matriz cuadrada MN es la inversa de NM si NM MN = INN y MN NM = IMM . Si ambos N y M son nitos entonces, basta comprobar una de las dos igualdades. Una matriz cuadrada tiene inversa si y solo si su determinante es diferente de cero . . . . . . . . . . . . . . 79, 110, 116, 127 Matriz singular. Matriz cuadrada con determinante igual a cero . . . . . . . . . . . . . . . . . . . . 105, 116, 121 Matriz triangular. Matriz triangular por bloques en la cual cada bloque es de cardinalidad 1 . . . 114 Matriz triangular inferior. Matriz MM en la cual M = {1, . . . , m} y tal que en su representaci on gr aca todas las entradas por encima de la diagonal son cero . . . . . . . . . . . . . . . . . . . . . . . . . . 114 Matriz triangular por bloques. Matriz on del MM en la cual hay una partici conjunto de ndices M1 Mt = M y que ij = 0 si i Mp , j Mq y p < q . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 Matriz triangular superior. Matriz MM en la cual M = {1, . . . , m} y tal que en su representaci on gr aca todas las entradas por debajo de la diagonal son cero . . . . . . . . . . . . . . . . . . . . . . . . . . 114 M aximo. El m aximo de un subconjunto A de un conjunto ordenado B es una cota superior que pertenece a A. Si existe entonces, el m aximo es u nico . . . . . . . . . . * M nimo. El m nimo de un subconjunto A de un conjunto ordenado B es una cota inferior que pertenece a A. Si existe entonces, el m nimo es u nico . . . . . . . . . . . . . . . . . . *, 143 M odulo de un complejo. La longitud del vector 0z en el plano complejo . 139 Monomorsmo. Morsmo inyectivo. 13 Monoton a. Propiedad de una funci on de un conjun-

264

mor orb
el caso de grupos la preimagen del neutro. Para anillos y espacios vectoriales la preimagen del cero . . . . . . . . . . . . . . . . . . . 82 N ucleo de un polinomio. La colecci on de sus raices. Cada ra z aparece tantas veces como su multiplicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 N ucleo de una matriz. El n ucleo de su transformaci on lineal. El conjunto soluci on de un sistema de ecuaciones con vector de coecientes libres igual a cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 N ucleo de una TL. La preimagen del cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 N ucleo trivial. N ucleo igual a {0} . . 83 OL. Acr onimo de operador lineal . . . 70 Operaci on binaria. Funci on mediante la cual para cualesquiera dos elementos a y b de un conjunto A podemos encontrar otro elemento de A que es el resultado de la operaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Operador c clico. OL h tal que todo el espacio es h-c clico . . . . . . . . . . . . . . . . . . 167 Operador diagonalizable. OL tal que existe una base en la cual su matriz es diagonal . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 Operador irreducible. OL que no se puede decomponer como suma directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 Operador lineal. Transformaci on lineal de un espacio en si mismo . . . . . . . . . . . 70 Operador radical. OL cuyo polinomio stico) es potencia de m nimo (o caracter un polinomio irreducible . . . . . . . . . . . . 164 Operador singular. OL no biyectivo 71 Operador triangulable. OL tal que existe una base ordenada en la cual su matriz es triangular . . . . . . . . . . . . . . 182 Opuesto. El inverso de un elemento de un anillo o campo respecto a la suma . 7 Orbita de una permutaci on. Clase de equivalencia de la relaci on (a b) (a = n (b)) . . . . . . . . . . . . . . . . . . . . . . . . . . 95

to ordenado a otro que consiste en que x y f (x) f (y) . . . . . . . . . . . . . . . . . 37 Morsmo. Es una funci on f : A B que cumple que f (x y) = f (x) f (y) donde es una operaci on denida en A y es una operaci on denida en B . . . . . 10, 44 Morsmo de algebras. TL que conmuta con el producto y preserva el 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 Morsmo de anillos. Funci on entre dos anillos que es morsmo para la suma y para el producto 12 Morsmo de campos. Funci on entre dos campos que es morsmo para la suma y para el producto 12 Morsmo de espacios vectoriales. Funci on f de un espacio vectorial a otro sobre el mismo campo que es un morsmo de los grupos abelianos de vectores y que cumple f (a) = f (a) para cualquier vector a y cualquier escalar . 44 Morsmo de grupos. Morsmo cuyo dominio y codominios son grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11, 93 Multiplicidad de una ra z. El elemento del campo es una ra z de multiplicidad n del polinomio p si n es el mayor natural tal que p ` (x )n . 133 M ultiplo. Para dos polinomios p y q se dice que p es un m ultiplo de q si c tal que p = cq . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 n-ada. Elemento (a1 , a2 , ..., an ) del producto cartesiano An . . . . . . . . . . . . . . 29 N-ada. Funci on en una notaci on diferente, N : N 3 i i A. A N se le llama el conjunto de ndices y a las i se le llaman coordenadas. . . . . . . . . 31, 76 Neutro. De una operaci on binaria es un elemento e que cumple que a e = e a = a para cualquier a del conjunto en el cual est a denida la operaci on. Si una operaci on tiene neutro entonces este es u nico . . . . . . . . . . . . . . . . . . 4 N ucleo de un morsmo. El

ord ran
Orden de un ciclo. El n umero de elementos que un ciclo no deja jos . 94 Orden de una matriz. El n umero de renglones y columnas de una matriz cuadrada . . . . . . . . . . . . . . . . 105 Per odo de un conjunto de vectores. El generador del anulador del conjunto de vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 Per odo de un vector. El polinomio m onico p m as peque no tal que ph (a) = 0. El generador del anulador del vector. . . . . . . . . . . . . . . . . . . . . . . . 160 Permutaci on. Biyecci on de un conjunto nito en si mismo . . . . . . . . . . . . . . . . . . . . 93 Permutaci on impar. Permutaci on que se descompone en la composici on de un n umero impar de transposiciones 97 Permutaci on par. Permutaci on que se descompone en la composici on de un n umero par de transposiciones . . . 97 Plano. Subespacio af n de dimensi on dos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55, 35 Polinomio. Expresi on formal Pn i donde los coecientes a son a x i i i= 0 elementos de un campo . . . . . . . . . . . . . 129 Polinomio caracter stico. El polinomio det (xI h). Es un m ultiplo del polinomio m nimo y tiene los mismos factores irreducibles que el polinomio m nimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 Polinomio irreducible. Polinomio m onico de grado al menos 1 sin factores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 Polinomio m nimo. El polinomio m onico m as peque no que anula un OL. El generador del anulador del operador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 Polinomio m onico. Polinomio cuyo coeciente principal es 1 . . . . . . . . . . . . 135 Preimagen de un elemento. Sea b un elemento del codominio de f. La preimagen de b es el conjunto de todos x en dominio tales que f (x) = b . . . . . . . *, 82

265

Producto de matrices. Si MN y NL son dos matrices entonces ML = MN N,L es la matriz cuyas entradas son los productos escalares can onicos ij = iN Nj de los renglones de MN por las columnas de NL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76, 101 Producto de un escalar por una funci on. Si en el codominio de f est a denido un producto por escalares entonces f es la funci on tal que (f) (a) = f (a) . . . . 68 Producto de un vector por una matriz. Es la combinaci on lineal de los renglones de la matriz cuyos coecientes son las coordenadas del vector . . . . . . . . . . . . . . . 76 Producto de una matriz por un vector. Es la combinaci on lineal de las columnas de la matriz cuyos coecientes son las coordenadas del vector . . . . . . . . . . . . . . . 76 Producto escalar. Producto bilineal de dos vectores cuyo resultado es un escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 Producto escalar can onico. ProductoP escalar denido en K{N } como: N N = iN i i . . . . . . . . . . . . . . . . . . 75 Proyecci on. Si C = A B entonces, la funci on f : c = (a, b) 7 a se le llama proyecci on de C a A a lo largo de B. En particular, nosotros la usamos en el caso de que E = F G (la suma directa es un producto cartesiano!). En este caso las proyecciones son TLs . . . . . . . . . 67, 83 Punto. Subespacio af n de dimensi on cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 Ra z de un polinomio. Elemento del campo en el cual la funci on de evaluaci on del polinomio toma valor cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 Rango de una matriz. El orden de sus bases. La dimensi on de su espacio de columnas. La dimensi on de su espacio de renglones.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

266

rec sub
corresponder 1 si esta es par y 1 si esta es impar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 Sistema de ecuaciones lineales. Ecuaci on Ax = b donde la matriz A y el vector b son conocidos y el vector x es inc ognito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 Sub algebra. Subespacio vectorial que contiene al 1 y en el cual el producto es interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 Subanillo. Subconjunto de un anillo que es un anillo para las mismas operaciones del anillo m as grande . . . . . . . . . . . . . . . . 17 Subcampo. Subconjunto de un campo que es un campo para las mismas operaciones del campo m as grande . . . . 17, 32 Subespacio. Subconjunto de un espacio vectorial que es a su vez espacio vectorial para las mismas operaciones que las de todo el espacio. . . . . . . . . . 34, 48, 52, 82 Subespacio af n. Traslaci on de un subespacio 54, 68, 85 Subespacio generado. Cerradura lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 Subespacio h-c clico. Subespacio h-generado por un solo vector . . . . . . 167 Subespacio h-generado. La h-cerradura de un conjunto de vectores . . . . . . . . . 167 Subespacio invariante. Subespacio donde est a bien denida la restricci on de un OL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 Subespacio radical. Subespacio invariante en el cual el operador es radical . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 Subespacios anes paralelos. Dos subespacios anes son paralelos si uno es traslaci on del otro . . . . . . . . . . . . 55 Subespacios complementarios. Dos subespacios cuya suma es todo el espacio y cuya intersecci on es el origen . . . . . . . . . . . . . . . . . . 52, 54, 56, 67, 83 Subgrupo. Subconjunto de un grupo que es un grupo para la misma operaci on del grupo m as grande . . . . . . . . . . . . . . . . . . . . 17 Submatriz. Dada una matriz

Recta. Subespacio af n de dimensi on uno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55, 35 Regla del tablero de ajedrez. Regla mediante la cual se hallan los signos de los cofactores de una matriz en forma gr aca. El signo del cofactor de ij es (1)i+j . . . . . . . . . . . . . . . . . . . . . . . . 108 Relaci on antisim etrica. Si a b y b a entonces, a = b . . . . . * Relaci on de equivalencia. Relaci on sim etrica, reexiva y transitiva . . . *, 55 Relaci on de orden. Relaci on antisim etrica, reexiva y transitiva . . . . . . . . . . . . . . . . . . . . . . . . . *, 61, 118 Relaci on en un conjunto. Subconjunto del producto cartesiano A A = A2 . . * Relaci on reexiva. Para todo a se tiene a a . . . . . . . . . . . . * Relaci on sim etrica. (a b) (b a) . . . . . . . . . . . . . . . . . . . . . * Relaci on transitiva. Si a b y b c entonces, b a . . . . . . * Rengl on de una matriz. Dada una matriz NM e i N a la M-ada iM (i est a jo, los elementos de M var an) se le llama i- esimo rengl on de la matriz NM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33, 76 Resto. Al efectuar la divisi on con resto de un elemento p de un anillo conmutativo (Z, K [x]) entre otro q obtenemos la igualdad p = cq + r. Al elemento r se le llama resto de la divisi on de p entre q . . . . . . . . . . . . . . . . . . . . 131, 14 Restricci on de una funci on. Una funci on f : A0 B se le llama restricci on de g : A B si A0 A y para cualquier a A0 se cumple f (a) = g (a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 Serie. Expresi on formal del tipo P i . A los elementos del campo a a x i i= 0 i se le llaman coecientes de la serie . . 30 Signo de una permutaci on. Funci on que a cada permutaci on le hace

suc vec
NM a cualquier matriz N 0 M 0 tal que N0 N y M0 M se le llama submatriz de NM . . . . . . . . . . . . . . . . . . . . . . . . . 33, 118 Sucesi on. Elemento (a0 , a1 , ..., an , ...) del conjunto AN de funciones f : N A 30 Sucesi on acotada. La sucesi on {zk } es acotada si existe un real M tal que k kzk k M . . . . . . . . 141 Sucesi on convergente. Una sucesi on que tiene l mite . . . . . . . 141 Suma de conjuntos. Si A y B son conjuntos y entre sus elementos hay una operaci on de suma entonces: A + B = {a + b | a A y b B} . . . . . 49 Suma de funciones. Si en el codominio mutuo de f y g est a denida una suma entonces f + g es la funci on tal que ( + g) (a) = f (a) + g (a) . . . . . . . 69 Suma directa de espacios. El producto cartesiano de los subespacios con la suma denida por coordenadas y tambi en el producto por escalares. Si la intersecci on de dos subespacios tiene dimensi on cero entonces, la suma directa de ellos es can onicamente isomorfa a la suma . . 50 Suma directa de OL. OL denido por coordenadas en la suma directa de espacios . . . . . . . . . . . . . . . . . . 153 Supremo. El m nimo de las cotas inferiores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . * Tensor de exponente n. Un conjunto indexado por n conjuntos de ndices 34 Tipo de una descomposici on. Si h = f1 fn es una descomposici on de h entonces, su tipo es la sucesi on de los polinomios m nimos de f1 , . . . , fn . Dos tipos son iguales si uno se puede obtener del otro reordenando la sucesi on. En el tipo pueden haber polinomios iguales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175 TL. Acr onimo de transformaci on lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 Transformaci on elemental. Una trans-

267

formaci on elemental de los renglones de una matriz consiste en sumarle a un regl on otro multiplicado por un escalar. An alogamente se denen las transformaciones elementales de las columnas . 124 Transformaci on lineal. Morsmo de espacios vectoriales . . . . . . . . . . 44, 65, 72 Transformaci on lineal de una matriz. on: Dada la matriz MN es la funci N M K 3 N MN N K . . . . . . . . . . 77 Transformaci on semilineal. Funci on de un espacio vectorial a otro que es morsmo para la suma y que cumple que f (x) para cierto automorsmo f (x) = del campo de escalares. . . . . . . . 86 7 Transposici on. Ciclo de orden dos. . 96 Transpuesta. Matriz que se obtiene de otra intercambiando los sub ndices de sus entradas, o sea si A = NM y AT = B = MN entonces ij = ji . . . . . . . . . . . . . . . . . . . . . . 100 Traslaci on de un conjunto de vectores. Si A es un conjunto de vectores y x otro vector entonces A + x es la traslaci on de A con el vector x . . . . . . . . . . . . . . . . . . . . . 54 Valor propio. Escalar tal que para cierto vector propio a se tiene que h (a) = a. Ra z del polinomio caracter stico . . . 178 Vector. Elemento de un espacio vectorial. En Rn son los segmentos dirigidos del origen a un punto del espacio . . . . . . . . . . . . . 28, 28 Vector columna. Matriz con una sola columna . . . . . . . . 76 Vector de coecientes libres. El vector b del sistema de ecuaciones lineales Ax = b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 Vector propio. Vector a tal que la recta hai es invariante . . . . . . . . . . . . . . . . . . . . . 178 Vector rengl on. Matriz con un solo rengl on . . . . . . . . . . 76

268

vec vec

! PQ

Para todo. Existe. Existe y es u nico. Si P entonces Q. P implica Q. P es suciente para Q. P Q P solo si Q. P es necesario para Q. P Q P si y solo si Q. P y Q son equivalentes. P es necesario y suciente para Q.

AN

de todos las n-adas (a1 , . . . , an ) donde todos los ai est an en A. El conjunto de todas las funciones f : N A. El conjunto de todos las N-adas aN donde i N el elemento ai pertenece a A. Si N = {1, . . . , n} entonces AN = An . El vector cero. El origen de coordenadas. Cero es elemento neutro para la suma de un anillo o campo. Uno es el elemento neutro para el producto de un anillo o campo. Menos uno es el opuesto de 1 en un anillo o campo. Matriz identidad. La funci on identidad. La permutaci on identidad La funci on nula. La matriz nula El cardinal de N. Un campo arbitrario. El espacio de las n-adas. El espacio de las N-adas. El algebra de polinomios en la variable x con coecientes en K. El algebra de series en la variable x con coecientes en K. El campo de funciones racionales en x con coecientes en K. El conjunto de los naturales. El anillo de los enteros. El anillo de restos m odulo n. Para n primo Zn es un campo.

0 0 1

b pertenece a B. B contiene a b. A es subconjunto de B. A es sobreconjunto de B. A es subconjunto propio de B. O sea, A B y A 6= B. A ! B A es sobreconjunto propio de B. O sea, A B y A 6= B. AB La uni on de A y B. AB La intersecci on de A y B. A\B La resta de conjuntos. El conjunto de los elementos de A que no pertenecen a B. AB El producto cartesiano de dos conjuntos. El conjunto de todas las parejas (a, b) con a A y b B. A 2 El conjunto de todos los subconjuntos del conjunto A. El conjunto de todas las funciones f : A {0, 1}. An El producto cartesiano de A consigo mismo n veces. El conjunto

bB B3b AB AB AB

1 INN I O 0 K Kn KN K [x] K [[x]] K (x) N Z Zn

270 Q R C SN AN A N

Notaciones
El campo de los racionales. El campo de los reales. El campo de los complejos. El grupo sim etrico de N. El grupo alternante de N. Las permutaciones impares de N. A+B A A+x La suma de dos conjuntos de vectores. El producto de un escalar por un conjunto de vectores. El conjunto de vectores A trasladado mediante el vector x. Si A es un subespacio entonces, es un subespacio af n. La suma directa de dos espacios. Si E y F son subespacios que se intersectan solo en el origen entonces es can onicamente isomorfa a la suma de E y F. Una matriz cuyos renglones est an indexados por M y cuyas columnas est an indexadas por N. La entrada ij de una matriz MN . El i- esimo rengl on de la matriz NM . La j- esima columna de la matriz NM . Si es una permutaci on de N, es la matriz MN cuyas columnas est an permutadas mediante . Si : N L es una biyecci on, es la matriz cuyas columnas est an indexadas por L mediante el cambio de ndices . Lo mismo que el anterior pero para los renglones El cofactor de la entrada ij de una matriz cuadrada. La matriz de cofactores de A. La matriz transpuesta de A. La matriz ampliada del sistema Ax = b.

f:AB Una funci on que tiene dominio A y codominio B. f : A 3 a 7 f (a) B Usada para denotar funciones concretas por ejemplo, f : R 3 a 7 a2 R+ es la funci on con dominio R y codominio R+ que a cada real le hace corresponder su cuadrado. p mod q El resto de la divisi on de p entre q. Est a bien denido en cualquier anillo con divisi on. Por ejemplo, en los n umeros enteros y en los polinomios con coecientes en un campo. n! El factorial del natural n. Se dene como n! = 1 2 n. |A| El cardinal del conjunto A. Puede ser nito o innito. kzk El m odulo del n umero complejo z. hNi La cerradura lineal de N. El conjunto de todas las combinaciones lineales de N. l m zk dim E sgn det A Im f ker f El l mite de la sucesi on {zk }. La dimensi on de E. El signo de la permutaci on . El determinante de la matriz A. La im agen de la funci on f. El nucleo del morsmo f.

EF

MN

ij iN Mj M (N )

(M )N ij A AT (A|b)

Notaciones

271

272

Notaciones

Alfabeto g otico
A B C D E F G H I J K L M A B C D E F G H I J K L M N O P Q R S T U V W X Y Z N O P Q R S T U V W X Y Z a b c d e f g h i j k l m a b c d e f g h i j k l m n o p q r s t u v w x y z n o p q r s t u v w x y z

Alfabeto caligr aco


A B C D E F A B C D E F G H G H I J K L M I J K L M

N O P Q R S T U V W X Y Z N O P Q R S T U V W X Y Z

Alfabeto griego
A B E Z H I alfa beta gamma delta epsilon zeta eta zita iota K M N O P o kappa lamda mu nu xi omicron pi ro sigma T X tau u psilon chi psi omega

Cap tulo 1
1. Dena los siguientes conceptos: Operaci on binaria. Propiedad conmutativa. Propiedad asociativa. Propiedad distributiva. Elemento neutro. Elemento inverso. 2. En cualquier campo 0x = 0. 3. Dena los siguientes conceptos: Grupo y grupo abeliano. Anillo y anillo conmutativo. Campo. 4. Dena los morsmos. 5. Los morsmos preservan las operaciones binarias. 6. Los morsmos preservan la conmutatividad. 7. Los morsmos preservan la asociatividad. 8. Los morsmos preservan el neutro. 9. Los morsmos preservan el inverso. 10. Los morsmos preservan la distributividad. 11. La inversa de un isomorsmo es un isomorsmo. 12. Dena la suma y el producto en Zn . 13. (Zn , +, ) es un anillo conmutativo. 14. Todo campo es un dominio de integridad. 15. Zn es un dominio de integridad si y solo si n es primo. 16. Todo dominio de integridad nito es un campo. 17. Denici on de subcampo. 18. Denici on de campo primo

19. Todo campo K contiene un u nico subcampo primo que est a contenido en cualquier subcampo de K. 20. Q es un campo primo. 21. Los campos Zp son primos. 22. Teorema de Clasicaci on de Campos Primos. 23. Dena la caracter stica de un campo. 24. En un campo de caracter stica t para cualquier elemento x se cumple que tx = 0. 25. Demuestre la f ormula del binomio de Newton en base a la f ormula multinomial.

Cap tulo 2
1. Denici on de espacio vectorial. 2. Que es una n-ada? Que es una N-ada? Cual es su conjunto de ndices? Que son sus coordenadas? 3. Que es una NM-matriz? Que es una entrada, rengl on, columna? 4. Denici on de subespacio. 5. Los subespacios son los conjuntos cerrados para la suma y el producto por escalares. 6. La uni on de subespacios no es un subespacio. 7. La intersecci on de subespacios es un subespacio. 8. Denici on de combinaci on lineal y sus coecientes. 9. El conjunto de todas las combinaciones lineales de un conjunto de vectores es un subespacio. 10. Los siguientes tres conjuntos de vectores coinciden:

274

Gu a de estudio
traci on del lema). 30. Si E y F son subespacios tales que EF = {0} entonces la funci on E F 3 (a, b) 7 a + b E + F es un isomorsmo de espacios vectoriales. 31. Que es un isomorsmo can onico. Demuestre que E F y F E son can onicamente isomorfos. 32. Todo subespacio tiene complementario. 33. Si E y F son dos subespacios complementarios entonces cada vector x se expresa de forma u nica como x = a + b donde a E y b F. 34. Dena los subespacios anes. 35. Que es el paralelismo de subespacios anes? 36. Todo subespacio af n es paralelo a un solo subespacio vectorial. 37. Dos diferentes subespacios anes paralelos no se intersectan 38. Que es el espacio cociente? Cuales son sus operaciones? 39. Cualquier subespacio complementario a E intersecta al subespacio af n (E + x) en un solo punto. 40. D/E es can onicamente isomorfo a cualquier complementario de E.

El conjunto de todas las combinaciones lineales de N. La intersecci on de todos los subespacios que contienen a N. El subespacio m as peque no que contiene a N. 11. Propiedades b asicas de la cerradura lineal: incremento, monoton a, idempotencia. 12. Todo sobreconjunto de un conjunto generador es generador. 13. Teorema de caracterizaci on de conjuntos LI. 14. Todo subconjunto de un conjunto LI es LI. 15. Lema de aumento de un conjunto LI. 16. Teorema de caracterizaci on de bases. 17. Teorema de existencia de bases. 18. Propiedad del cambio de las bases. 19. Dos bases cualesquiera de un espacio vectorial tienen el mismo cardinal. 20. Si E es un subespacio de F y dim E = dim F < entonces, E = F. 21. Describa las bases can onicas de los espa{ N } y K [x]. cios vectoriales K 22. La inversa de un isomorsmo lineal es un isomorsmo lineal. 23. Un isomorsmo transforma conjuntos LI en conjuntos LI, conjuntos generadores en conjuntos generadores y bases en bases. 24. Describa el isomorsmo de coordinatizaci on en una base. 25. Dos espacios vectoriales sobre un mismo campo son isomorfos si y solo si tienen la misma dimensi on. 26. Todo espacio vectorial nito dimensional es isomorfo a Kn . 27. El n umero de elementos en un campo nito es potencia de un n umero primo. 28. hE Fi = {a + b | a E, b F} 29. La igualdad modular (incluye la demos-

Cap tulo 3
1. Denici on de transformaci on lineal. 2. Toda TL transforma subespacios en subespacios. 3. Toda TL de un espacio de dimensi on 1 es una homotecia. 4. Denici on de proyecci on. Toda proyecci on es una TL. 5. El producto de un escalar por una TL es una TL. 6. La suma de dos TLs es una TL. 7. La composici on de TLs es una TL. 8. Propiedades de la composici on de TLs: asociatividad, distributividad y conmutatividad con el producto por escalares.

Gu a de estudio
9. Denici on de Algebra. De tres ejemplos de a lgebras. Que es el grupo general lineal? 10. Las extensiones lineales son TLs. 11. Las TLs est an predeterminadas por sus valores en una base. 12. Si N es una base de E entonces, la funci on que a cada TL h Hom (E, F) le hace corresponder su restricci on hN FN es un isomorsmo de espacios vectoriales. 13. Una TL es un isomorsmo si y solo si su restricci on a una base es inyectiva y la imagen de esta restricci on es una base. 14. Propiedades del producto escalar can onico de N-adas conmutatividad, distributividad y conmutatividad con el producto por escalares. 15. Denici on del producto de matrices. 16. Cual es la TL denida por una matriz?. Cual es la matriz de una TL? 17. La matriz de la composici on de dos TLs es igual al producto de las matrices de las TLs. 18. Dena las matrices de cambio de base. 19. La N-ada de las coordenadas de un vector en la base nueva se obtiene multiplicando la matriz de cambio de base por la V -ada de las coordenadas del vector en la base vieja. 20. Sea f : E F una TL. Sean B y C matrices de cambio de base en E y F respectivamente. Si A es la matriz de f en las bases viejas entonces CAB1 es la matriz de f en las bases nuevas. 21. Denici on de n ucleo e im agen de una TL. 22. La im agen y el n ucleo son subespacios. 23. Una TL es injectiva si y solo si su n ucleo es trivial. 24. Si K es un subespacio complementario a ker f entonces, la restricci on de f a K es inyectiva. 25. Sean E y F dos espacios tales que dim E = dim F < . Una TL de E a

275

F es inyectiva si y solo si es sobreyectiva. 26. Los subespacios anes paralelos a ker f son precisamente los conjuntos de vectores en que la TL f es constante.

Cap tulo 4
1. Si |M| = |N| entonces, los grupos sim etricos SM y SN son isomorfos. 2. El n umero de permutaciones de un conjunto con n elementos es n!. 3. Que son las o rbitas de una permutaci on. 4. La restricci on de una permutaci on a una orbita es un ciclo. 5. Denici on de permutaciones pares e impares. Denici on del signo. 6. La composici on de una permutaci on con una transposici on cambia la paridad de la permutaci on. 7. Toda permutaci on es composici on de transposiciones. 8. Pruebe que sgn ( ) = sgn sgn y que sgn 1 = sgn . 9. Denici on de determinante de una matriz. Regla del tri angulo para los determinantes de orden 3. 10. El determinante de la matriz identidad es 1. 11. Si una matriz tiene una columna o un rengl on nulo entonces, su determinante es cero. 12. El determinante no se altera al transponer una matriz. 13. Si una matriz tiene dos columnas iguales entonces, su determinante es cero. 14. Si y son dos cambios de ndices de N en M entonces, se cumple la igualdad: det M (N ) = 1 det M (N ) . sgn 15. Denici on de matriz no singular. 16. Denici on de cofactores de una entrada de una matriz. Pruebe que los cofactores no dependen del cambio de ndices usado para calcular el determinante. 17. Teorema de expansi on de Laplace.

276

Gu a de estudio
mios. 3. Dena la funci on de evaluaci on de un polinomio. 4. Un polinomio de grado n est a predeterminado por su evaluaci on en n + 1 diferentes elementos del campo. 5. Divisi on con resto de polinomios. 6. Dena los divisores, los m ultiplos y los factores de un polinomio. 7. Si p a q y q a p entonces existe un elemento del campo tal que p = q. 8. Dena los divisores, los m ultiplos y los factores de un polinomio. 9. Dena las raices de un polinomio. 10. Para que b sea una ra z de p es necesario y suciente que (x b) sea un factor de p. 11. Un polinomio de grado n tiene a lo m as n raices. 12. Dena los ideales de un anillo y los ideales principales. 13. Todo ideal de polinomios es principal. 14. Teorema de Bezout. 15. Dena factores propios, polinomios m onicos, factores irreducibles. 16. Si p y q son dos polinomios y r es un factor irreducible de pq entonces r es un factor de p o de q. 17. Sea p = p1 pn una descomposici on en factores irreducibles de p. Si q es cualquier factor irreducible de p entonces, q es igual a alguno de los pi . 18. Teorema de Factorizaci on de Polinomios. 19. Desarrollo de Taylor. 20. Enuncie el Teorema de Gauss. 21. Usando el Teorema de Gauss demuestre la clasicaci on de los polinomios complejos irreducibles. 22. Demuestre la clasicaci on de los polinomios reales irreducibles. 23. Denici on de polinomio de muchas variables 24. Denici on de la funci on de evaluaci on de un polinomio de muchas variables.

18. Denici on de funcional multilineal 19. El determinante es un funcional multilineal de los renglones. 20. det A1 = (det A)1 . 21. A1 = AT / det A. 22. El determinante de un OL no depende de la base que se use para calcularlo. 23. Enuncie la expansi on generalizada de Laplace 24. El determinante de una matriz triangular por bloques es igual al producto de los determinantes de sus bloques. 25. Enuncie la caracterizaci on de matrices no singulares. 26. Las dimensiones del espacio de columnas y del espacio de renglones de una matriz coinciden. 27. Lema de aumento de submatrices no singulares. 28. Caracterizaci on de las bases de una matriz 29. Regla de Cramer. 30. Teorema de existencia de soluciones. 31. Lema de eliminaci on de ecuaciones dependientes. 32. Describa el procedimiento general de soluci on de los sistemas de ecuaciones lineales. 33. Las transformaciones elementales no cambian los determinantes. 34. Las transformaciones elementales de los renglones de la matriz ampliada no cambian el subespacio af n soluci on de un sistema de ecuaciones lineales. 35. Resuelva un sistema de ecuaciones lineales por el m etodo de Gauss. 36. Encuentre la inversa de una matriz por el m etodo de eliminaci on de Gauss

Cap tulo 5
1. Dena los polinomios sobre un campo, sus coecientes, el grado y el coeciente principal. 2. Dena la suma y el producto de polino-

Gu a de estudio
25. Denici on 26. Denici on 27. Denici on 28. Denici on de de de de forma forma forma forma lineal cuadr atica bilineal multilineal.

277

Cap tulo 6
1. Dena la suma directa de operadores lineales. 2. Dena los subespacios inveriantes de un operador lineal. 3. Un OL se descompone como suma directa de dos OLs si y solo si el tiene dos subespacios invariantes complementarios. 4. Dena los operadores lineales irreducibles. 5. Demuestre que todo operador lineal se descompone en suma de irreducibles. 6. Demuestre que si un operador lineal se descompone en suma directa de otros dos entonces, en cierta base su matriz es diagonal por bloques. 7. Dena la funci on de evaluaci on de un polinomio en un operador lineal. 8. La funci on de evaluaci on de polinomios en un operador lineal es un morsmo de algebras. 9. La imagen de la funci on de evaluaci on de polinomios es una sub algebra conmutativa del a lgebra de operadores lineales. 10. El n ucleo del morsmo de evaluaci on en h es un ideal de K [x]. 11. Dena el polinomio m nimo de un operador lineal. 12. Dena el anulador de un conjunto de vectores. 13. Dena el h-per odo de un conjunto de vectores. 14. El h-anulador de A es el conjunto de los m ultiplos comunes a los per odos de los vectores en A. 15. Si h = f g entonces el polinomio m nimo de f es igual al m nimo com un m ultinimos de f y g. plo de los polinomios m 16. Monoton a del per odo.

17. Invariancia de los n ucleos. 18. Monoton a de los n ucleos. 19. Lema de Descomposici on de N ucleos. 20. Si h es irreducible entonces, es radical. 21. Enuncie el Teorema de Descomposici on en Componentes Radicales (sin demostraci on). 22. Para cualquier operador lineal h existe un vector tal que su per odo es igual al polinomio m nimo de h. 23. Denici on de h-combinaci on y sus coecientes. 24. El conjunto de todas las hcombinaciones de V es un subespacio invariante. 25. Denici on de subespacio h-generado y conjunto de vectores h-generador. 26. perh hV ih = perh V . 27. Denici on de subespacio h-c clico y de operador c clico. 28. Si q es un polinomio coprimo con perh a entonces haih = hqh (a)ih . 29. Si el per odo de a es de grado n conjunto de vectores , entonces eln a, h (a) , . . . , h 1 (a) es una base de haih . 30. Denici on de conjunto h-independiente. 31. Si V = {v1 , . . . , vn } es h-independiente entonces hV ih = hv1 ih hvn ih . 32. Denici on de h-base. 33. El conjunto EndF (E) de todos los operadores lineales que dejan invariante F es una sub algebra de End (E). e 34. La funci on EndF (E) 3 h 7 h End (E/F) es un morsmo de algebras. f = p . 35. Pruebe que p h h 36. Si b v + F entonces perh (b) ` perh (v + F). 37. Lema del per odo (sin demostraci on) 38. Lema del cociente. 39. Teorema de Existencia de h-bases. 40. Teorema de Descomposici on en Componentes Radicales C clicas 41. Dena el tipo de una descomposici on.

278

Gu a de estudio
ses, entonces AT es la matriz de su dual en las bases duales. 9. La dual de la identidad en E es la identidad en E# . g f 10. Si E F G son dos transformaciones lineales entonces, (g f)# = f# g# . 11. Denici on de funcional bilineal 12. Cual es la matriz de un funcional bilineal. 13. Que es la funci on ? 14. Dena los n ucleos de los funcionales bilineales 15. Si E y F son nito dimensionales y es no singular entonces, dim E = dim F. 16. Si E y F son de la misma dimensi on nita entonces, los n ucleos derecho e izquierdo on. de tienen la misma dimensi 17. Demuestre que los funcionales bilineales no singulares est an en correspondencia biun voca con los isomorsmos entre un espacio y su dual. 18. Denici on de anulador 19. Los anuladores son subespacios. 20. Si A B entonces B A . hAi . 21. A = A 22. A 23. Qu e condiciones hay que pedirle a un funcional bilineal para que se cumpla que A = A y que dim A = n dim A? 24. Denici on de producto escalar. 25. Denici on de perpendicularidad. 26. Denici on de vector isotr opico. 27. Si x es anisotr opico entonces, hxi hxi = 0. 28. Denici on de producto escalar sim etrico, alternante, antisim etrico. 29. Demuestre que si un producto escalar es sim etrico y alternante entonces la caracteristica del campo es 2. 30. Demuestre que si un producto escalar es alternante y pro no sim etrico entonces la caracteristica del campo es diferente de 2. 31. Denici on de suma perpendicular (inter-

42. Teorema de Unicidad del Tipo (sin demostraci on). 43. Teorema de Caracterizaci on de los OLs irreducibles. 44. Denici on de un vector propio y un valor propio de un operador lineal. 45. La recta hai es h-invariante si y solo si a es un vector propio de h. 46. Denici on de polinomio caracter stico. Cual es el grado del polinomio caracter stico (sin demostraci on). 47. Demuestre que las raices del polinomio caracter stico son los valores propios. 48. Denici on de matriz acompa nante de un polinomio. 49. Sea h un OL c clico con polinomio m nimo p de grado n. La matriz de h en la base a, h (a) , . . . , hn 1 (a) es la matriz acompa nante de p. 50. Si h = f g entonces, el polinomio caracter stico de h es igual al producto de los polinomios caracter sticos de f y g. 51. Teorema de Hamilton-Caley-Frobenius. 52. Denici on de celda de Jord an. 53. Si h es un operador c clico-radical con polinomio m nimo (x )n entonces, en cierta base, la matriz de h es una celda de Jordan. 54. Forma normal de Jord an

Cap tulo 7
1. Denici on de funcional lineal 2. Denicici on del espacio dual 3. Explique la diferencia entre los funcional lineales y las formas lineales 4. Denici on de la base dual. 5. El conjunto de covectores de la base dual es linealmente independiente. 6. Si el espacio es de dimensi on nita entonces, la base dual es un conjunto generador. 7. Denici on de Transformaci on Lineal Dual 8. Si A es la matriz de una TL en ciertas ba-

Gu a de estudio
na). 32. Denici on de plano simplectico. 33. Los planos simpl ecticos son irreducibles. 34. Caracterizaci on de los productos irreducibles (enunciado y demostraci on) 35. Denici on de espacios ortogonales y simpl ecticos 36. Denici on de conjunto ortogonal 37. Todo conjunto ortogonal es linealmente independiente. 38. Un espacio es ortogonal si y solo si tiene una base ortogonal. 39. Qu e se obtiene cuando se suma perpendicularmente un espacio de dimensi on 1 con un plano simpl ectico? 40. Enuncie el Teorema de caracterizaci on de los productos escalares. 41. Denici on de funcional cuadr atico de un funcional bilineal. 42. Si Q es el funcional cuadr atico del entonces, funcional bilineal

279

def x y = Q (x + y) Q (x) Q (y) /2 es es un funcional bilineal. Si sim etrico entonces, = . 43. Si Q : E K es un funcional cuadr atico no singular entonces, existe una base de E en la cual Q es una forma cuadr atica diagonal. 44. Denici on de productos denidos positivos. 45. Ley de inercia de Silvestre 46. Denici on de funcional semilineal. 47. Denici on de producto interior. 48. Denici on de norma 49. Teorema de Pit agoras 50. kxk = ||2 kxk. 51. Desigualdad de Cauchy-Schwarz 52. Desigualdad del Tr angulo

Cap tulo 8
1. Denici on de producto tensorial.

You might also like