You are on page 1of 197

DEPARTAMENTO DE MATEMTICA APLICADA

ESCUELA TCNICA SUPERIOR DE INGENIERA

LGEBRA LINEAL

NOTAS DE CLASE

Profesores de la asignatura
CONTENIDOS

Tema 1: LGEBRA MATRICIAL Y SISTEMAS DE ECUACIONES LINEALES

1.1 Operaciones con matrices.


1.2 Tipos especiales de matrices.
1.3 Determinantes.
1.4 Matriz inversa de una matriz regular.
1.5 Matrices particionadas.
1.6 Sistemas de ecuaciones lineales.
Ejercicios tema 1.
Soluciones ejercicios tema 1.

Tema 2: ESPACIOS VECTORIALES

2.0 Introduccin. Vectores en el plano y en el espacio.


2.1 Estructura de espacio vectorial.
2.2 Subespacios vectoriales.
2.3 Dependencia e independencia lineal.
2.4 Espacio vectorial de dimensin finita. Bases. Coordenadas. Cambio de
base.
2.5 Cambio de base en un espacio vectorial de dimensin finita.
2.6 Dimensin y ecuaciones de un subespacio vectorial.
2.7 Operaciones con subespacios vectoriales.
2.8 Definicin de normas. Ejemplos de normas.
Ejercicios tema 2.
Soluciones ejercicios tema 2.

Tema 3: ESPACIOS EUCLDEOS

3.1 Espacios eucldeos.


3.2 Propiedades del producto escalar. Desigualdad de Schwartz.
3.3 Norma inducida por un producto escalar.
3.4 Vectores ortogonales, normalizados y ortonormados.
3.5 Mtodo de ortogonalizacin de Gram-Schmidt.
3.6 Expresin matricial del producto escalar. Cambio de base.
3.7 Subespacio ortogonal de un espacio vectorial.
Ejercicios tema 3.
Soluciones ejercicios tema 3.

Tema 4: APLICACIONES LINEALES

4.1 Definicin de aplicacin lineal. Propiedades.


4.2 Imagen y ncleo de una aplicacin lineal.
4.3 Teorema fundamental de las aplicaciones lineales.
4.4 Clasificacin de las aplicaciones lineales.
4.5 Expresin matricial de una aplicacin lineal.
4.6 Rango de una aplicacin lineal.
4.7 Relacin entre las matrices que caracterizan a una misma aplicacin en
distintas bases.
Ejercicios tema 4.
Soluciones ejercicios tema 4.

Tema 5: DIAGONALIZACIN POR TRANSFORMACIONES DE


SEMEJANZA

5.1 Introduccin. El problema de reduccin de los endomorfismos.


5.2 Autovalores y autovectores: clculo y propiedades.
5.3 Diagonalizacin en dimensin finita.
5.4 Diagonalizacin de matrices simtricas reales por semejanza ortogonal.
Ejercicios tema 5.
Soluciones ejercicios tema 5.

Tema 6: TRIANGULARIZACIN POR TRANSFORMACIONES DE


SEMEJANZA

6.1 Introduccin.
6.2 Forma de Jordan de matrices de orden dos y tres.
6.3 Teorema de clasificacin de Jordan.
6.4 Algoritmo para obtener la forma de Jordan de una matriz.
Ejercicios tema 6.
Soluciones ejercicios tema 6.

Bibliografa
Tema 1

LGEBRA MATRICIAL Y SISTEMAS DE


ECUACIONES LINEALES

1.1. OPERACIONES CON MATRICES.

1.1.1 Introduccin.

Antes de presentar las operaciones matriciales y sus propiedades se vern unas


definiciones:

Definicin. Se llama matriz de orden mxn a un rectngulo de mxn elementos


dispuestos en m filas y n columnas. Tales elementos, que se representan por aij donde
i es la fila y j la columna, pertenecen a un cuerpo , siendo el conjunto de los
nmeros reales o el conjunto de los nmeros complejos .

El conjunto de todas las matrices de orden mxn definidas sobre el cuerpo se


representa por Emxn ( ) o simplemente Emxn.

Definicin. Dos matrices A y B se dicen equidimensionales o del mismo tipo si tienen


el mismo nmero de filas y de columnas.

Dos matrices A y B equidimensionales son iguales si:

aij = bij i = 1, 2,...,m j = 1, 2, ..., n.

Definicin. La matriz de Emxn que tiene todos sus elementos nulos se denomina matriz
nula, y se la representa por (0)mxn.

Definicin. Dada una matriz A = (aij)mxn se llama matriz opuesta de A y se la


representa por -A, a la matriz -A = (-aij)mxn.
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 2

Definicin. Se llama matriz lnea la matriz que consta de una sola lnea. Si est formada
por una sola fila se llama matriz fila y si est formada por una sola columna matriz
columna.

Definicin. Una matriz cuadrada de orden "n" es un cuadrado de n2 nmeros colocados


en n filas y n columnas.

Definicin. Los elementos aii de una matriz cuadrada se dice que pertenecen a la
diagonal principal y se llaman elementos principales.

Definicin. Se llama matriz diagonal a toda matriz cuadrada cuyos trminos situados
fuera de la diagonal principal son todos nulos.

Un caso particular de matriz diagonal es la matriz escalar en la que todos los elementos
de la diagonal principal son iguales.

Definicin. La matriz cuadrada en la que todos los elementos de la diagonal principal


son 1 y el resto 0 se denomina matriz unidad.

1 0 ... 0
0 1 ... 0
I= = ( ij ) = 1 si i = j
. . ... . 0 si i j

0 0 ... 1

Definicin. Una matriz cuadrada se dice triangular superior si todos los trminos
situados por debajo de la diagonal principal son ceros. Anlogamente, se dice triangular
inferior si todos los trminos situados por encima de la diagonal principal son ceros.

Ejemplo.
1 0 0 0
1 2 3
2 3 0 0
0 5 6 4 5 6 0
0 0 8

matriz triangular superior
7 8 9 10
matriz triangular inferior
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 3

Definicin. Se llama traza de una matriz cuadrada a la suma de los elementos de su


n
diagonal principal, es decir, Traza(A) = a
i =1
ii = a11 + a 22 + ... + a nn .

1.1.2. Suma de matrices y producto por un escalar

Sea Emxn ( ) el conjunto de matrices de orden mxn definidas sobre .

Definicin. Dadas dos matrices A, B Emxn, se llama suma de A y B, y se denota por


A+B, a otra matriz C Emxn tal que sus elementos cij se obtienen como:

cij = aij + bij , i = 1,2,...,m j = 1,2,...,n

siendo A = (aij), B = (bij).

La suma de matrices verifica las siguientes propiedades:

1- Ley interna: A, B Emxn => A + B = C Emxn

2- Asociativa: A, B, C Emxn => (A + B) + C = A + (B + C)

3- Conmutativa: A, B Emxn => A+B = B+A.

4- Elemento neutro: A Emxn !(0) Emxn / A + (0) = A.

5- Elemento opuesto: A Emxn (-A) Emxn / A + (-A) = (0).

Es decir, el conjunto Emxn con la suma tiene estructura de grupo conmutativo.

Definicin. Dada una matriz A Emxn, A = (aij) y , se define el producto del


escalar por la matriz A y se denota por A a la matriz B Emxn , cuyos elementos
bij = aij se obtienen a partir de los elementos de A multiplicando a todos ellos por el
escalar .

El producto de una matriz por un escalar verifica las siguientes propiedades:

1- (A + B) = A + B A, B Emxn
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 4

2- (+)A=A+A , A Emxn

3- ( ) A = ( A ) , A Emxn

4- 1A=A 1 A Emxn

1.1.3. Producto de matrices.

Definicin. Sean las matrices A Emxp y B Epxn, es decir el nmero de filas de B


coincide con el nmero de columnas de A. Se llama matriz producto de A y B , y se
denota por A B, a otra matriz C de orden mxn tal que sus elementos son de la forma

p
cij = a ik b kj i = 1, 2,..., m j = 1, 2,..., n
k =1

................. ......b1j ...... .............



................. ......b 2j ...... .............
a i1 a i2 ...a ip . ............. = ....cij .....

................. ............. .............
.................
mxp ......b pj ...... pxn ............. mxn

p
cij = a i1b1j + a i2 b 2j + ... + a ip b pj = a ik b kj
k =1

Ejemplo.
0
4 2 5 12 c11 = 4 0 + 2 1 + 5 2 = 12
. 1 =
3 1 2 2x3 2 5 2x1 c 21 = 3 0 + 1 1 + 2 2 = 5
3x1
A B = C

Observacin. Teniendo en cuenta lo dicho anteriormente el producto AB slo tiene


sentido cuando el nmero de columnas de A es igual al nmero de filas de B. Por tanto
puede ocurrir que exista AB y no exista BA , pero an existiendo BA no tiene
porqu coincidir con AB, es decir, el producto de matrices no es conmutativo.

1 2 2 1
Ejemplo. Sean las matrices A= B=
0 3 1 0
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 5

1 2 2 1 0 1
AB = =
0 3 1 0 3 0

2 1 1 2 2 7
B A = =
1 0 0 3 1 -2

Si BA = AB se dice que las matrices A y B son permutables o conmutables.

Segn lo visto con anterioridad, cuando se multipliquen matrices, ha de tenerse cuidado


con el orden de los trminos. Para distinguir el orden en el producto AB se dice que A
premultiplica a B o multiplica a B por la izquierda; de la misma manera, B
postmultiplica a A o multiplica a A por la derecha. Si se quiere multiplicar ambos
miembros de una ecuacin X = Y por una matriz P, es importante que o bien
premultipliquemos ambos miembros por P , o bien postmultipliquemos ambos miembros
por P.

Propiedades.

l- Distributividad del producto respecto de la suma por la izquierda

A Emxn B, C Enxp A(B+C) = AB + AC

2- Distributividad del producto respecto de la suma por la derecha

A, B Emxn C Enxp (A+B) C = AC + BC

3- Asociatividad

A Emxn , B Enxp , C Epxq (AB) C = A (BC)

4- (AB) = (A) B = A (B) A Emxn , B Enxp ,

Observaciones

1. Producto nulo: Se ver que esta propiedad no se cumple. En el producto de escalares se


sabe que ab = 0 si y slo si alguno de los factores es cero. En el producto matricial
puede ocurrir que, siendo A (0) y B (0), su producto AB sea nulo.
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 6

Ejemplo. Sean , entonces

1 0 0 0 0
0 0 0
A B = 0 0 = 0 0 0
1 0 1 1 0 0 0 0

2. En escalares, si ab = ac y a 0 b = c, sin embargo la igualdad matricial


AB = AC an siendo A (0) no implica B = C pues A (B - C) = (0) puede
darse siendo B - C (0).

1 0
0 0 1 0 0 1
Ejemplo. Sean A = 0 0 , B = y C= , entonces
1 0 1 0 0 0 1 0

A B = A C, A (0) y BC

Observacin. Fcilmente se ve que si A es de orden mxn, entonces Im A = A y


A In = A. Es decir, las matrices Im y In juegan el mismo papel que el nmero 1 en la
multiplicacin.

Definicin. Una matriz cuadrada A se dice regular si existe otra matriz cuadrada A-1, a
la que llamaremos inversa de A, tal que A A-1 = A-1 A = I. En caso contrario se dice
que A es singular.

Como un caso particular del producto de matrices se presentan a continuacin las


potencias de matrices cuadradas.

Potencias de matrices cuadradas.

Definicin. Sea p N ; se llama potencia p-sima de una matriz cuadrada A a la


matriz que se obtiene multiplicando A p veces por s misma.

Ap = (A A A ... A)
p veces
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 7

Propiedades.

1- ApAq = Ap+q p,q N

2- (Ap)q = Apq p,q N

3- A = A p p N
p

Nota. A0 = I A cuadrada, por convenio.

Sea p N , y se considera una matriz regular A ( A-1), se define la potencia de


exponente entero negativo de A, A-p, como:

A-p = (A-1)p

Propiedades.

1- A-pA-q = A-(p+q) p,q N A regular

2- (A-p)-q = Apq p,q N A regular

3- A -p = A p N A regular
-p

Finalmente como propiedades en que intervienen exponentes positivos y negativos se


tiene:

a) (A-p) (Aq) = A-p+q p,q N A regular

b) (A-p)q = A-pq p,q N A regular

Potencias de matrices diagonales

Si A es una matriz diagonal, el clculo de las potencias se simplifica notablemente.

1 0 0 1 0 0 1 0 0 12 0 0

A = 0 2 0 A = A A = 0 2
2
0 0 2 0 = 0
2
2 0 ,
0 0 3 0 0 3 0 0 3 0 0 32

I. lgebra Matricial y Sistemas de Ecuaciones Lineales 8

y, en general,

1p 0 0

Ap = 0 2p 0 p N
0 0 3p

En el caso de que A sea regular, A 1 y se debe verificar que A A 1 = A 1 A = I y


como es evidente que:

1 0 0 1-1 0 0 1 0 0 1-1 0 0

0 2 0 0 2-1
0 = 0 1 0 A = 0 2
1 -1
0
0
0 3 0 0 3-1 0 0 1 0
0 3-1

y, en general,

1-p 0 0

A p
= 0
-p
2 0 p N A regular.
0 0 3-p

Estos resultados son vlidos para cualquier orden de la matriz A.

Estos resultados podran inducir a pensar que todos los clculos del lgebra matricial son
anlogos a los del lgebra elemental, pero esto no es cierto.

Ejemplo: Sean A y B dos matrices cuadradas del mismo orden,

(A+B)2 = (A+B)(A+B) = A2 + BA + AB + B2 A2 + 2AB + B2

pues en general AB BA. Del mismo modo

(A+B)(A-B) = A2 + BA - AB - B2 A2 - B2
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 9

1.2. TIPOS ESPECIALES DE MATRICES.

Definicin. Se llama matriz traspuesta de una matriz A a la que se obtiene


intercambiando las filas de A por las columnas de A, y se representa por At . Es decir, si
A = (aij) Emxn At = (aji) Enxm

1 8
1 2 7
Ejemplo. A= , A = 2 5
t

8 5 4 7 4

Propiedades.

1- (At)t = A A Emxn

2- A, B Emxn (A + B)t = At + Bt

3- A Emxq , B Eqxn (A B)t = Bt At

En general:

(A1 + A 2 + ... + A n ) t = A1t + A 2t + ... + A nt

(A1 A 2 ... A n ) t = A nt A n-1


t
... A1t

Definicin. Una matriz cuadrada se dice que es simtrica si coincide con su traspuesta, es
decir A = At ( aij = aji i, j = 1, 2,..., n).

Definicin. Una matriz cuadrada A se dice antisimtrica si coincide con la opuesta de su


traspuesta, es decir A = -At ( aij =-aji i, j = 1, 2,..., n).

1 2 3 0 2 4

2 0 5
Ejemplo.
2 5 6
3 6 8 4 5 0

matriz simtrica matriz antisimtrica
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 10

Definicin. Una matriz cuadrada A se dice ortogonal si su traspuesta es igual a su


inversa, es decir, si At = A-1 At A = A At = I.

1.3. DETERMINANTES.

Definicin.

Asociado a cada matriz cuadrada existe un escalar que es el valor del determinante y se
calcula de la forma siguiente:

a11 a12 ... a1n


a a 22 ... a 2n
A = 21
... ...
=
... ... (j1 ,j2 ,....,jn ) Pn
( 1) p a1j1 a 2j2 ... a njn

a n1 a n2 ... a nn

donde Pn es el grupo de las permutaciones de n elementos, y donde p indica el


nmero de inversiones de la permutacin (j1, j2,..., jn) correspondiente a los indicadores
de columnas, respecto al orden natural (1, 2,..., n).

Es decir, para hallar A se forman todos los productos posibles de n elementos

tomados de los n2 elementos de la matriz, de modo que en cada producto haya un


representante y slo uno de cada columna y de cada fila, asignando al producto el signo +
o - segn que las permutaciones de los indicadores de fila y de columna sean de la
misma paridad o no.

Para hacer esto de modo ms simple se ordenan por filas los elementos de cada trmino,
es decir, el primer factor ser el correspondiente a la primera fila, el segundo el de la
segunda fila,...,el n-simo el de la n-sima fila, es decir, cada trmino es de la forma
a1j1 a 2j2 a 3j3 ... a njn ; en total hay n! sumandos.

Cada uno de estos trminos llevar el signo + o - segn que el nmero de inversiones
de la permutacin (j1,j2,...,jn) respecto del orden natural (1,2,...,n) sea par o impar. El
nmero total de sumandos para calcular un determinante es n! pues ste es el nmero
total de posibles formas de tomar un elemento de cada una de las n columnas.
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 11

Ejemplos.

1. Si el trmino es a12 a23 a31 llevar el signo + , pues en este caso (2,3,1) tiene el
siguiente nmero de inversiones:

El 2 est antes que el 1 1 inversin

El 3 est antes que el 1 1 inversin

luego (2,3,1) tiene dos inversiones, que es un nmero par El trmino llevar
signo +.

2. Determinante de orden 2: Habr 2! sumandos; ordenndolos por filas sern


a11a22 y a12a21:

* a11a22 signo + pues (1,2) no tiene inversiones

* a12a21 signo - pues (2,1) tiene 1 inversin, es decir

a11 a12
A = = a11 a 22 a12 a 21.
a 21 a 22

3. Determinante de orden 3: Habr 3! = 6 sumandos; ordenndolos por filas sern:

* a11a22 a33 signo + pues (1,2,3) no tiene inversiones

* a11a23 a32 signo - pues (1,3,2) tiene 1 inversin

* a12a21 a33 signo - pues (2,1,3) tiene 1 inversin

* a12a23 a31 signo + pues (2,3,1) tiene 2 inversiones

* a13a21 a32 signo + pues (3,1,2) tiene 2 inversiones

* a13a22 a31 signo - pues (3,2,1) tiene 3 inversiones, es decir

a11 a12 a13


A = a 21 a 22 a 23 = a11 a 22 a 33 + a12 a 23 a 31 + a13 a 21 a 32
a 31 a 32 a 33
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 12

a11 a 23 a 32 -a12 a 21 a 33 -a13 a 22 a 31

expresin que se obtiene fcilmente haciendo uso de la Regla de Sarrus.

Cuando el orden de la matriz cuadrada es mayor que 3 no tiene sentido el plantear una
expresin como las obtenidas para orden 2 y 3, ya que sera difcil usarlas en la prctica
para resolver los problemas que se nos van a presentar durante el curso. En su lugar
vamos a plantear un mtodo general que nos permita obtener dicho determinante
reduciendo el orden de la matriz con la que trabajamos. Para ello, vamos a repasar antes
algunos conceptos que nos van a ser tiles en la aplicacin de dicho mtodo:

Definicin. Si en un determinante D de orden n se suprimen q filas y q columnas,


las restantes filas y columnas definen un nuevo determinante de orden (n-q) que se
llama menor del determinante D.

Definicin. A cada elemento aij de un determinante D se le asocia un menor que se


obtiene suprimiendo en D la fila i y la columna j , que se denomina menor asociado a
aij y que se denota por Dij.

Definicin. Cuando un menor de un determinante est formado por las q primeras filas
y las q primeras columnas se denomina menor principal de orden q.

Definicin. Se llama adjunto de un elemento aij al determinante Aij = (-1)i+j Dij , es


decir, al valor del menor correspondiente a aij con signo + o - segn el lugar que
ocupa aij.

Desarrollo de un determinante por los elementos de una lnea.

a11 a12 ... a1n


a a 22 ... a 2n
Sea D = 21 , entonces el valor del determinante D es igual a la suma de
... ... ... ...
a n1 a n2 ... a nn

los productos de los elementos de una lnea (fila o columna) por los adjuntos de los
mismos. En general se elige la lnea que tenga mayor nmero de elementos nulos.
Desarrollando el determinante por la i-sima fila se obtiene que
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 13

D = ai1Ai1 + ai2Ai2 +...+ ainAin

y hacindolo por la j-sima columna se obtiene

D = a1jA1j + a2jA2j +...+ anjAnj

3 5 2 4
1 0 2 3
Ejemplo. Calcular D =
0 4 0 1 2 elementos nulos
6 1 2 3

Desarrollando D por los elementos de la tercera fila:

5 2 4 3 2 4 3 5 4 3 5 2
D = 0 0 2 3 4 1 2 3 + 0 1 0 3 1 1 0 2 = 6
1 2 3 6 2 3 6 1 3 6 1 2

Propiedades de los determinantes.

En algunas ocasiones, para calcular un determinante conviene realizar una serie de


transformaciones que no alteren su valor, pero que lo conviertan en otro que tenga ms
elementos nulos, lo cual facilita de forma evidente su desarrollo por los elementos de una
lnea (sin ms que escoger para ello la lnea del determinante con ms elementos nulos).

Dichas transformaciones deben tener en cuenta siempre las siguientes propiedades de los
determinantes:

1- El valor de un determinante no se altera cuando se cambian las filas por las columnas.

2- Si se cambian entre s dos filas, el valor del determinante cambia de signo


(anlogamente con las columnas).

3- Un determinante que tiene dos filas (o dos columnas) iguales es cero.

4- Multiplicando a todos los elementos de una fila (o columna) por , el determinante


queda multiplicado por .
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 14

5- Si en un determinante los elementos de una fila o columna son mltiplos de los de


otra, el valor del determinante es cero.

6- Sea el determinante

a11 + b11 a12 + b12 ... a1n + b1n a11 a12 ... a1n b11 b12 ... b1n
a 21 a 22 ... a 2n a a 22 ... a 2n a 21 a 22 ... a 2n
= 21 +
... ... ... ... ... ... ... ... ... ... ... ...
a n1 a n2 ... a nn a n1 a n2 ... a nn a n1 a n2 ... a nn

En general: Si todos los elementos de una fila (o columna) de un determinante son sumas
de p nmeros, se puede descomponer dicho determinante en suma de p determinantes que
tienen comunes todas las filas (o columnas) excepto la considerada, la cual viene
sustituda por el primer sumando en el primer determinante, por el segundo sumando en
el segundo determinante,..., por el p-simo sumando en el p-simo determinante.

7- Un determinante en el cual una fila (o columna) es combinacin lineal de otra es nulo.

8- Si una fila (o columna) tiene todos sus elementos nulos, el determinante es cero.

9- Si a una fila (o columna) se le suma otra multiplicada por un escalar, el determinante


no vara.

10- A B = A B A, BEnxn ( ).

1.4. MATRIZ INVERSA DE UNA MATRIZ REGULAR.

Proposicin. Una matriz cuadrada es regular si y slo si su determinante es no nulo. En


otro caso se dice que la matriz es singular.

Definicin. Se llama rango de una matriz A al orden del mayor menor no nulo que puede
extraerse de ella. Tambin, teniendo en cuenta las propiedades de los determinantes, es el
mayor nmero de filas o columnas que son linealmente independientes en A.

Si A es regular de orden n entonces rango(A) = n.

Si A es singular cuadrada de orden n, entonces rango(A) < n.


I. lgebra Matricial y Sistemas de Ecuaciones Lineales 15

Definicin. Sea A una matriz cuadrada, se denomina matriz adjunta de A, y se representa


por Aa, a aquella matriz que resulta de sustituir cada elemento de la traspuesta At por su
adjunto en At.

2 2 0

Ejemplo. Hallar la adjunta de A = 0 3 1 .
1 0 1

2 0 1

Su traspuesta es A t = 2 3 0 y su adjunta
0 1 1

3 0 2 0 2 3

1 1 0 1 0 1
0 3 2 2
2 0
= 1 2 2 .
1 2 1
Aa =
1 1 0 1 0 1

3 2 6
0 1

2 1 2 0
3 0 2 0 2 3

La inversa de una matriz regular existe y es nica, y una posible forma de calcularla es la
siguiente.

1
A 1 = Aa .
A

2 2 0

Ejemplo. Calcular la inversa de A = 0 3 1
1 0 1

A = 2 3 1 + 1 2 1 = 8 0 A 1

2 0 1 3 -2 2 3/8 1/ 4 1/ 4

A = 2 3 0 , A = 1 2 -2 y A = 1/ 8
t a -1
1/ 4 1/ 4 .
0 1 1 3 / 4
-3 2 6 3/8 1/ 4
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 16

Propiedades.

1- Si A es regular y AB = (0) entonces B = (0). AEnxn ( ) BEnxp ( ).

Demostracin. Multiplicando a la izquierda por A-1, que existe por ser A regular

A-1AB = IB = B = (0)

2- Si A es regular y AB = AC B = C AEnxn ( ) B,CEnxp ( ).

1
3- El determinante de A-1 es el inverso del determinante de A: A 1 =
A

A Enxn ( ) ( A regular).

1
Demostracin. A A 1 = A A 1 = I = 1 A 1 =
A

4- (A-1)-1 = A A regular Enxn ( ).

Demostracin. Recordamos que si dos matrices A y B cumplen que AB=I, entonces


A= B-1 y B= A-1. Como:

AA-1 =I (A-1)-1 = A.

5- La traspuesta de la inversa de A es igual a la inversa de la traspuesta de A:

(A-1)t = (At)-1 A regular Enxn ( ).

Demostracin. Por ser , luego (At)-1 . Como

AA-1 = I

trasponiendo

(AA-1)t = (A-1)t At = I

luego la inversa de At es (A-1)t.


I. lgebra Matricial y Sistemas de Ecuaciones Lineales 17

6- (A B)-1 = B-1 A-1 A, B Enxn ( ) (regulares ).

Demostracin. Para demostrar que la inversa de la matriz AB es la matriz B-1A-1


basta comprobar que el producto de estas dos matrices es la identidad:

(A B) B1 A 1 =A A 1 = I
I

En general: (A1 A2 An)-1 = An-1 An-1-1 A1-1

1.5. MATRICES PARTICIONADAS.

En ciertos casos se supondr que una matriz A est formada por submatrices
denominadas bloques de A, dicindose que A es una matriz por bloques. Naturalmente
una matriz puede particionarse en bloques de formas diferentes.

a11 a12 a13 a11 a12 a13


A11 2x2 A12

Ejemplo. A= a 21 a 22 a 23 =
2x1
a 23 = a 21 a 22

a
31 a 32 a 33 a 31 a 32 a 33 A 21 1x2 A 22
1x1

1.5.1. Operaciones sobre matrices por bloques.

Las operaciones sobre matrices por bloques se pueden realizar efectuando el clculo con
los bloques como si stos fueran componentes de las matrices. Para que se pueda operar
con los bloques es preciso que las particiones se hagan de modo que las operaciones
tengan sentido.

Suma de Matrices por Bloques. Sean A y B dos matrices de la misma dimensin


definidas sobre , y particionadas en bloques de la misma forma: es decir, que cada
bloque de A sea de la misma dimensin que el correspondiente bloque de B. Al sumar
los bloques se suman los elementos correspondientes en las matrices A y B.

2 0 1 1 1 2 3 1

Eiemplo. Sea A = 3 2 1 0 y B = 2 3 1 0 , entonces
0 0 2 4 1 1 1 1

I. lgebra Matricial y Sistemas de Ecuaciones Lineales 18

2 0 1 1 2 3 1 1 3 2 4 2
+ +
A + B = 3 2 1 2 3 1 0 0 = 5 5 2 0
( 0 0 2 ) + (1 1 1) ( 4 ) + (1) 1 1 3 5

Producto de un Escalar por una Matriz por Bloques. Sea A una matriz definida
sobre particionada en bloques. Para multiplicar A por el escalar se multiplica
cada bloque de A por .

2 0 1 1

Ejemplo. Sea A = 3 2 1 0 y = 7 ,entonces
0 0 2 4

2 0 1 1 14 0 7 7
7 7
7A = 3 2 1 0 = 21 14 7 0
7 ( 0 0 2 ) 7 ( 4 ) 0 0 14 28

Producto de Matrices por Bloques. Sean A y B dos matrices definidas sobre ,


tales que el nmero de columnas de A coincide con el nmero de filas de B. Se
particionan estas matrices de la siguiente forma:

A11 A12 ... A1p B11 B12 ... B1m



A 21 A 22 ... A 2p B21 B22 ... B2m
A= B=
... ... ... ... ... ... ... ...

A q1 A q2 ... A qp Bp1 Bp2 ... Bpm
siendo

el nmero de columnas de A11 = nmero de filas de B11, B12,..., B1m

el nmero de columnas de A1p = nmero de filas de Bp1, Bp2,..., Bpm

es decir, de forma que el nmero de columnas de cada bloque Aik de A sea igual al
nmero de filas de cada bloque Bkj de B, entonces
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 19

C11 C12 ... C1m



C21 C22 ... C2m p
AB = , siendo Cij = A ik Bkj = A i1B1j + A i2 B2j + ... + A ip Bpj .
... ... ... ... k =1

Cq1 Cq2 ... Cqm

1 2 0

3 0 1 2 0 1 1
Eiemplo. Sea A = 1 4 2 y B= 3 2 -1 0 hallar AB trabajando con

0 0 2 4
5 1 1
2 1 3

matrices particionadas.

Teniendo en cuenta la particin realizada sobre A, es obligatorio realizar en B la


particin:

2 0 1 1

B= 3 2 -1 0
0 0 2 4

Adems de esta particin horizontal se pueden o no hacer otras particiones verticales:

2 0 1 1 2 0 1 1 2 0 1 1

3 2 1 0 , 3 2 -1 0 3 2 1 0
0 0 2 4 0 0 2 4 0 0 2 4

2 0 1 1

Si se elige como particin de B = 3 2 1 0 entonces
0 0 2 4

A11 A12 B11 B12 A11 B11 + A12 B21 A11 B12 + A12 B22
A B =
3x1 2x3 2x1
= =
3x2 3x3 3x1

A2x221 A 22 B21
B22 A 21 B11 + A 22 B21 A 21 B12 + A 22 B22
2x1 1x3 1x1 2x3 2x1
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 20

1 2 0 1 2 0 4 4 3 1
2 0 1 1
+ 1 ( 0 0 2) 0 + 1 ( 4) 6
0
3 2 1 3 0 5 7
3 0
= 1 4 2
1
4 2 = 10 8 1 7

5 1 2 0 1 1 5 1 1 1 13 2 6 9
2 + ( 0 0 2) + ( 4 )
1 3 2 1 3 2 1 0 3 5 10

7 2

Las matrices cuadradas suelen particionarse de manera que los bloques diagonales sean
tambin cuadrados.

1.5.2. Aplicacin a la inversin de una matriz.

La particin de matrices en bloques es particularmente interesante en la determinacin de


la matriz inversa de una matriz regular de orden elevado.

Sea A una matriz regular de orden n; se particiona de la forma siguiente:

A A12
A =
11 rxt rxu / r+s=n
t+u=n
A 21 sxt A 22
sxu

Supongase que la matriz A-1 est particionada de la forma siguiente:

X Y r+s=n
A -1 = txr txs
/
Z T t+u=n
uxr uxs

Las dimensiones de los bloques de A-1 han de ser sas ya que se tiene que cumplir, para
poder calcular AA-1 :

n de columnas de Aik = n de filas de los bloques de la fila k de A-1

y para poder calcular A-1A

n de filas de Aij = n de columnas de los bloques de la columna k de A-1.

Debe cumplirse que


I. lgebra Matricial y Sistemas de Ecuaciones Lineales 21

A11 A12 X Y rxrI (0)


A A = I
rxu
1 rxt

txr txs
= rxs

A 22 Z T (0) I

Asxt21 sxu uxr uxs
sxr sxs

de donde, operando con los bloques:

A11X + A12 Z = I
A11Y + A12 T = (0)

A 21X + A 22 Z = (0)
A 21Y + A 22 T = I

Resolviendo este sistema matricial se obtiene X, Y, Z y T , y por lo tanto A-1.

La particin de A puede efectuarse de varias maneras, dependiendo de la forma de dicha


matriz.

Una de las particiones ms interesantes es aqulla en que los bloques diagonales son
cuadrados, pues entonces la particin en A-1 es idntica a la de A (es decir, los bloques de
A-1 tienen las mismas dimensiones que sus homlogos en A). De la misma manera es
interesante la bsqueda de bloques nulos o bloques unidad, ya que de esta manera se
simplifican los clculos notablemente.

2 1 1 0 0

3 1 0 1 0
Ejemplo. Calcular la inversa de A = 0 2 0 0 1 , aplicando la teora de bloques.

1 3 0 0 0
1 4 0 0 0

2 1 1 0 0

3 1 0 1 0 A11 A12 2x3
X Y
1 =
3x3
A = 0 2 0 0
3x2
, A =
-1 2x2

A2x221 A 22 3x3
Z T
1 3 0 0 0 2x3 3x2

1 4
0 0 0

3x3
I (0)
1
A A = I= 3x2
(0) I
2x3 2x2

I. lgebra Matricial y Sistemas de Ecuaciones Lineales 22

de donde, operando con los bloques:

A11X + Z = I
A11X + A12 Z = I A11Y + T = (0)

A11Y + A12 T = (0) A 21X = (0) X = (0)
A 21
A 21X + A 22 Z = (0) regular

A 21Y + A 22 T = I 4 3
A 21Y = I Y=(A 21 ) 1 =
1 1

Z = I

0 0 0 4 3
0 0 1 1
2 1 7 5 0
4 3 1
T = A11 Y = 3 1 =
1 1 13 10 A = 1 0 0 7 5
0 2 2 2
0 1 0 13 10
0
0 1 2 2

1.6. SISTEMAS DE ECUACIONES LINEALES

El problema central del lgebra Lineal es la resolucin de sistemas de ecuaciones


simultneas. El caso ms importante, y el ms simple, es aqul en el que el nmero de
incgnitas es igual al nmero de ecuaciones.

Antes de abordar la resolucin del sistema es conveniente enunciar una serie de


definiciones y estudiar cundo el sistema de ecuaciones tiene solucin.

Definicin. Se llama ecuacin lineal o ecuacin de primer grado a una expresin de la


forma:

a1x1 + a2x2 + ... + anxn = b

en la que a1, a2,..., an se llaman coeficientes y b es el trmino independiente. Todos


ellos son escalares pertenecientes a un cuerpo K. Por ltimo x1, x2,...,xn son variables
que se suelen llamar indeterminadas o incgnitas.

Definicin. Cuando el trmino independiente de la ecuacin es 0 se dice que la ecuacin


es homognea.
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 23

Definicin. Se llama solucin de la ecuacin a1x1 + a2x2 + ... + anxn = b a un conjunto


de escalares r1, r2,..., rn tales que:

a1r1 + a2r2 + ... + anrn = b .

Definicin. Se dice que dos ecuaciones son equivalentes cuando tienen la misma
solucin.

Definicin. Se llama sistema lineal de m ecuaciones con n incgnitas a toda agrupacin


de la forma:

a11x1 + a12x2 + ... + a1nxn = b1

a21x1 + a22x2 + ... + a2nxn = b2

am1x1 + am2x2 + ... + amnxn = bm

que puede expresarse matricialmente:

a11 a12 ... a1n x1 b1



a 21 a 22 ... a 2n x 2 b 2
= Ax = b
... ... ... ... ... ...

a m1 a m2 ... a mn x n b m

a11 a12 ... a1n



A la matriz a 21 a 22 ... a 2n
= A se la denomina matriz de los coeficientes del
... ... ... ...

a m1 a m2 ... a mn

a11 a12 ... a1n b1



sistema, y a la matriz a 21 a 22 ... a 2n b2
= (A | b) se la denomina matriz
... ... ... ... ...

a m1 a m2 ... a mn bm

ampliada del sistema.


I. lgebra Matricial y Sistemas de Ecuaciones Lineales 24

Definicin. Se llama solucin de un sistema de m ecuaciones con n incgnitas a un


conjunto de n nmeros reales que satisfacen todas las ecuaciones del sistema, es decir,

t1 a11 a12 ... a1n t1 b1



t a 21 a 22 ... a 2n t 2 b 2
una n-tupla t = 2 , tal que =
... ... ... ... ... ... ...

tn a m1 a m2 ... a mn t n b m

Definicin. Un sistema de ecuaciones se dice homogneo cuando todas sus ecuaciones


son homogneas.

Definicin. Se dice que un sistema de ecuaciones es compatible cuando posee una o


varias soluciones.

Definicin. Se dice que un sistema de ecuaciones es compatible determinado cuando


posee una nica solucin.

Definicin. Se dice que un sistema de ecuaciones es compatible indeterminado cuando


posee infinitas soluciones.

Definicin. Se dice que un sistema de ecuaciones es incompatible cuando no tiene


ninguna solucin.

Definicin. Se dice que dos sistemas de ecuaciones son equivalentes cuando tienen las
mismas soluciones.

A continuacin se tratar de analizar en qu condiciones estos sistemas admiten solucin.


En este sentido se tiene el siguiente resultado:

Teorema de Rouch-Frobenius: Sea un sistema no homogneo de m ecuaciones y n


incgnitas. Sea r= rango(A) y r=rango (A | b) . Se cumple:

1) Si r r el sistema es incompatible.

2) Si r = r el sistema es compatible. En este caso pueden darse dos situaciones diferentes:

a) Si r = r = n el sistema es compatible determinado.


I. lgebra Matricial y Sistemas de Ecuaciones Lineales 25

b) Si r = r < n el sistema es compatible indeterminado.

Para estudiar los rangos de las matrices que aparecen en este teorema, podemos utilizar la
definicin de rango y calcular el orden del mayor menor no nulo de ellas. Otra posible
forma es transformar el sistema inicial en otro equivalente en el que el estudio de los
rangos de las matrices de coeficientes y ampliada sea fcil de ver. Para realizar esta
transformacin vamos a utilizar lo que se conoce como transformaciones elementales
sobre una matriz.

Definicin. Se dice que se ha realizado una transformacin elemental de filas sobre una
matriz A Emxn( ) si se ha realizado una de las operaciones siguientes:

1. Intercambiar la fila i-sima de A por la fila j-sima de A:

Fi~Fj

2. Reemplazar la fila i-sima de A por la fila i-sima de A multiplicada por


: Fi donde 0 .

3. Reemplazar la fila i-sima de A por la fila i-sima ms la fila j-sima


multiplicada por :

Fi+Fj donde 0 .

Cuando las operaciones se realizan sobre las columnas de la matriz se dice que se ha
realizado una transformacin elemental de columnas sobre A.

Las transformaciones elementales no alteran el rango ni la dimensin de la matriz.

Definicin. Se denomina transformacin inversa de una transformacin elemental a la


que deshace el cambio hecho por una transformacin elemental.

A continuacin, veremos que realizando transformaciones elementales sobre las matrices


de un sistema se obtiene otro sistema equivalente. Para ello, enunciaremos previamente
los dos teoremas siguientes.
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 26

Teorema. Sea A una matriz de dimensiones mxn y sea P una matriz de tamao mxm
obtenida al aplicar una determinada transformacin elemental de filas a la matriz unidad
de orden m. Si la misma operacin elemental se aplica a la matriz A se obtiene la matriz
PA.

A la matriz P se le llama matriz elemental de filas.

Ejemplo:

1 2 0 1 2 0
A= < F2
F1
> =B
4 0 6 3 -2 6
1 0 1 0
I2 = < F2 F1 > =P
0 1 1 1
1 0 1 2 0 1 2 0
PA = = =B
1 1 4 0 6 3 -2 6

Teorema. Sea A una matriz de dimensiones mxn y sea Q una matriz de tamao nxn
obtenida al aplicar una determinada transformacin elemental de columnas a la matriz
unidad. Si la misma operacin elemental se aplica a la matriz A se obtiene la matriz
AQ.

A la matriz Q se le llama matriz elemental de columnas.

Ejemplo:

1 2 0 1 6 0
A= < 3C2 > =B
4 0 6 4 0 6

1 0 0 1 0 0

I3 = 0 1 0 < 3C2 > 0 3 0 = Q
0 0 1 0 0 1

1 0 0
1 2 0 1 6 0
AQ = 0 3 0 = =B
4 0 6 4 0 6
0 0 1
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 27

Teorema. Supngase que el sistema de ecuaciones Ax = b es transformado mediante una


secuencia de transformaciones elementales de filas en el sistema Cx = d. Entonces
ambos sistemas son equivalentes.

Demostracin. Como se ha visto en el resultado anterior al tratar las transformaciones


elementales de filas, hay una matriz regular P tal PAx = Pb. Esto significa que
C = PA y d = Pb. Supngase que t es solucin de Ax = b . Premultiplicando por P
obtenemos PAt = Pb, es decir, Ct = d y, de esta manera t resuelve tambin el sistema de
ecuaciones modificado. Recprocamente, si t satisface Cx =d , entonces premultiplicando
por P-1 se obtiene que t resuelve Ax = b . Por lo tanto los dos conjuntos de soluciones
son idnticos.

Una vez analizada la existencia de soluciones de un sistema, se proceder a su clculo en


el caso de que existan. Empezaremos considerando que el sistema A x = b es
compatible determinado, es decir, su matriz A es una matriz de orden n n regular. Para
resolver este sistema se puede proceder de varias formas:

1. Premultiplicando por A-1, es decir x = A 1 b .

2. Aplicando el mtodo de Cramer.

3. Aplicando el mtodo de Gauss, que consiste en realizar transformaciones


elementales de filas para convertir el sistema de ecuaciones inicial en otro
equivalente que sea triangular superior y por tanto, de resolucin inmediata.

Si el sistema es compatible indeterminado, podemos proceder de cualquiera de las tres


formas anteriores, sin ms que considerar como matriz del sistema a resolver la asociada
al menor de orden r que define el rango de la matriz A del sistema inicial.

Ejemplos:

1. Discutiremos la existencia de solucin segn los valores de l para el sistema:

x + y + z = 2

x + y + z =
x + y + 2 z = 2
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 28

y resolveremos el sistema en los casos en que sea compatible.

1 1 1 1 | 2

Las matrices A y (A | b) son A = 1 1 (A | b) = 1 1 |
1 1 2 1 1 2 | 2

Se tiene que | A |= ( 1) | A |= 0 = 0 = 1 .

Luego, rango(A) = rango(A | b) = 3 = nmero de incgnitas 0,1 , siendo el sistema


compatible determinado. Resolvindolo mediante la regla de Cramer:

2 1 1
1
2 1 2 3 2 2 + 3 2 2 + 2
x= = =
|A| ( 1)
2 1
1
1 2 2 3 2 2 + 2 2 + 2
y= = =
|A| ( 1)
1 2
1 1
1 1 2 2 + 3 2 2
z= = =
|A| ( 1)

0 1
rango(A) = 2 pues 0
0 1 1 | 0 1 1

Si = 0 (A | b) = 1 1 0 | 0 1 1 0
1 1 0 | 2 rango(A | b) = 3 pues 1 0 0 0

1 0 2

sistema incompatible.

1 1 1 | 1 1 1
rango(A) = 2 pues 0
Si = 1 (A | b) = 1 1 1 | 1 1 2
1 1 2 | 2 rango(A | b) = 2

I. lgebra Matricial y Sistemas de Ecuaciones Lineales 29

sistema compatible indeterminado. Para resolverlo consideramos las dos ltimas


ecuaciones:

x + y + z =1 x + z = 1 y
(Re s tan do) z = 1 x = y
x + y + 2z = 2 x + 2z = 2 y

2. Comprobaremos que el sistema

x1 + 10 x3 = 5

3x1 + x2 4 x3 = 1
4 x1 + x2 + 6 x3 = 1

es incompatible, transformndolo en un sistema triangular superior mediante


transformaciones elementales de filas.

Trabajando a partir de la matriz ampliada del sistema obtenemos:

1 0 10 | 5 F2 3F1 1 0 10 | 5 1 0 10 | 5
F3 4F1 F3 F2
3 1 4 | 1 0 1 34 | 16 0 1 34 | 16
4 1 6 | 1 | 3
0 1 34 | 19 0 0 0

Se observa claramente que el rango de la matriz de coeficientes es 2, mientras que el


rango de la matriz ampliada es 3.

Para un sistema compatible determinado, estas transformaciones elementales de filas


habran transformado el sistema inicial en otro equivalente cuya matriz sera triangular
superior y regular. El sistema final se resolvera despejando x3 de la tercera ecuacin,
posteriormente x2 de la segunda ecuacin y por ltimo x1 de la primera.
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 30
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 31

EJERCICIOS TEMA 1

1. Hallar el conjunto de matrices B, tales que :

1 2
a) Conmuten con la matriz A =
3 4
b) Cumplan la ecuacin A B = (0) .
c) Cumplan la ecuacin A B = I .

2. Probar que las matrices escalares de orden n conmutan con cualquier otra matriz
cuadrada de orden n .

3. Para que valores de , la igualdad matricial A (B C) = (0) implica que B = C , siendo

1 2
A= ?
3 4

4. Resolver el sistema matricial:

A + B = C 1 2 3

A + A = (0) donde C = 4 5 6 .
t

7 8 9
B Bt = (0)

5. Calcular la matriz A que verifica el sistema:

0 9
A + A 1 = 4
9 0
2

0 6
A + A =
t

6 0
0 17
t 1 4
A + A =
5 0
2

6. Calcular la matriz incgnita X de la siguiente ecuacin matricial:

XA + B = C

0 2 0
4 2 1 1 3 5
siendo: A = 3 0 3 , B = , C= .
0 1 2 5 1 3 2 4 6

I. lgebra Matricial y Sistemas de Ecuaciones Lineales 32

7. Calcular las matrices X e Y en el siguiente sistema matricial:

X + A Y t = B
t
X + Y C = D

1 0 4 3 1 2 2 9
siendo: A= , B = , C = y D= .
1 1 4 6 3 0 6 6

8. Demostrar que el conjunto de matrices {A E nxn () / A ortogonal} es grupo respecto


del producto de matrices, es decir esta operacin es ley de composicin interna, cumple la
propiedad asociativa, existe elemento neutro y elemento inverso.

9. Demostrar si las siguientes afirmaciones son verdaderas o falsas.

a) A E nxn () simtrica, A2 tambin es simtrica.

b) El conjunto V = {A E nxn () / A t + A = (0)} tiene estructura de grupo respecto

de la suma de matrices, es decir, esta operacin es ley interna y cumple las


propiedades: asociativa, elemento neutro y elemento opuesto o simtrico.

10. Una Matriz A se denomina nilpotente de orden p, con p , si A p = (0) y

A k (0) para todo k < p (k ) .


a) Estudiar si es cierto que toda matriz nilpotente es singular.
b) Demostrar que si A es nilpotente de orden p, entonces (I-A) es regular y adems
(I-A)-1 = I + A +A2++Ap-1.

11. Demostrar que el determinante de una matriz antisimtrica de orden impar es nulo.

12. a) Si B es antisimtrica, qu puede decirse de la matriz A t B A ?


b) Si A y B son simtricas, de qu tipo es la matriz A B B A ?

13. Hallar el conjunto de matrices X que verifican A X = (X t A) t en los siguientes


supuestos:
a) Siendo A simtrica y A X cuadrada.
b) Siendo A antisimtrica regular y A X cuadrada.
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 33

14. a) Demostrar que las matrices (I + A) y (I A) conmutan.

b) Demostran que tambien conmutan (I A) e (I + A) 1 siempre que (I + A) sea


regular

15. Sea A una matriz cuadrada de orden n. Demostrar que :


a) A + A t es una matriz simtrica
b) A A t es una matriz antisimtrica.
c) Existen matrices nicas S (matriz simtrica) y T (matriz antisimtrica)
cumpliendo que A = S + T .

16. Sabiendo que A y B son dos matrices simtricas invertibles comprobar si se cumple o
no la siguiente igualdad

(( B A ) (A B ) ) (( A B)
t t 1 1
)
(A B1 ) t = I A 2 (B1 A 1 ) 2 + (B1 ) 2

17. Demostar la siguiente igualdad sin desarrollar los determinantes:

1 6 9 1 1 1 1 6 9
1 8 2+ 5 6 8 =1 8 2
0 4 1 4 9 2 1 9 5

18. Sea A una matriz cuadrada de orden n cuyo determinante vale . Sea realizan las
siguientes transformaciones:
1. Se multiplica por la matriz A.
2. Se cambian entre si las dos primeras filas de A .
3. Se cambian entre si las dos primeras columnas de A.
4. Se divide entre 0 una de las filas y se multiplica por una de las columnas.
5. Desde i = 1 hasta (n 1) sustituimos cada fila Fi de A por Fi + Fi+1 .
6. Trasponemos la matriz.
Obtener el valor del determinante de la matriz obtenida en cada uno de los apartados.

19. Sea A una matriz singular cunto vale A A a ( A a : matriz adjunta de A)? Y si A es
una matriz regular?.

20. Calcular el valor del siguiente determinante:


I. lgebra Matricial y Sistemas de Ecuaciones Lineales 34

1+ x 1 1 1
1 1 x 1 1
1 1 1+ z 1
1 1 1 1 z

21. Hallar el valor del determinante de An, (n natural):


n 1 1 ... 1

n 2 1 ... 1
An = n 1 3 ... 1

... ... ... ... ...
n 1 1 ... n nxn

22. Calcular el determinante de orden n:

n 1 1 1 1
1 n 1 1 1

1 1 1 n1

23. Calcular el valor del determinante de la matriz de orden n cuyo elemento genrico es:
x si i = j
a ij =
a si i j

24. Calcular las inversas de las siguientes matrices particionndolas en bloques:

2 0 0 1 2 0
a) M = 0 2 0 ,
b) P = 2 1 0

1 0 2 1 1 3

I A
25. a) Calcular la inversa, M 1 , de la de la matriz por bloques M = n . Es
(0) I m
necesario que A sea regular para que exista M 1 ?.

B (0)
b) Hallar la inversa de P= , donde B y C son matrices regulares de
(0) C
rdenes respectivos n y m.

3 1
I B 2 4
26. Dada la matriz M = , donde A= y B = 1 5 . Calcular
(0) A 1 3 2 6

M 1 .
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 35

1 2 0

2 0 4
27. Realiza sobre la matriz A= las transformaciones elementales
0 2 2

1 1 1
siguientes, as como sus inversas:

a) Intercambiar las filas (columnas) primera y tercera.


b) Multiplicar la segunda fila (columna) por (-3) .
c) Sumar a la segunda fila (columna), la tercera multiplicada por (-2).

2 1 1

28. Dada la matriz A = 6 4 5 , encontrar tres matrices elementales P1, P2, P3 tales
4 1 3

que P3P2P1A = U, siendo U una matriz triangular superior.

29. Discutir, y resolver cuando sea posible, los siguientes sistemas de ecuaciones:

x + y + 2z = 1 x + 2y + 3z + t = 2
x + 2y + z = 1 x y+ z t =0 x + y + z = 1

a) b) c) x + 2y + 2z = 0
2x + y + z = 1 x + 3y z + 2t = 2 x + 2y + 3z = k

2x + 3y + 3z = 2 3x + y + z =2

x + 2y + z =1 1 1 1 3
3x 2y + z = 2 2x + y + x
3z = 4 2 a 3 4
d) x y + z = 1 e) f ) y =
x + y + kz = 2 x y + (a + 2)z = 3a 5 3 3 4 7
z
4x + 2y + (a + 6)z = 3a 8 5 (a + b) 8 + b
2
7
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 36

SOLUCIONES EJERCICIOS TEMA 1

a 2c
1. a) B = 3 a,c
c a+ c

b) B = (0)
2 1
c) B = A 1 = 3
1

2 2

3.

0 1 2 1 3 5
4. A = 1 0 1
B = 3 5 7
2 1 0
5 7 9

0 2
5. A =
4 0

3 1 1
6. X = 4 2
4 7 5
3

1 2 3 2
7. X = Y=
3 4 1 1

9. a) Cierto b) Cierto

10. a) Cierto

12. a) Antisimtrica.

b) Antisimtrica.

13. a) X E nxn ( )

b) X = (0) E nxn ( )

16. La igualdad es falsa

18. 1) n
2)
3)

4)

I. lgebra Matricial y Sistemas de Ecuaciones Lineales 37

5)
6)

19. (0) ; A I

20. x 2 z 2

21. n !

22. 0

23. [ x+ (n 1)a ] (x a)n-1

1 0 0
2 1 2 0
1
24. M = 0
1 1 0 1
P = 2 1 0
2 3
1 0
1 1 1 1
4 2

In A
25. a) M 1 = . No es necesario que A sea regular.
(0) I m

B1 (0)
1
b) P = 1
(0) C

1 0 0 5 4

0 1 0 1 3
0 1 0 2
26. M 1 = 0
0 0 0 3 2
2
0 0 0 1 1
2

0 2 2 0 2 1

2 0 4 4 0 2
27. a) F13 ( A) = C13 ( A) =
1 2 0 2 2 0

1 1 1 1 1 1

1 2 0 1 6 0

6 0 12 2 0 4
b) 3F2 ( A) = 3C 2 ( A) =
0 2 2 0 6 2

1 1 1 1 3 1
I. lgebra Matricial y Sistemas de Ecuaciones Lineales 38

1 2 0 1 2 0

2 4 8 2 8 4
c) (F2 2 F3 )(A) = (C 2 2C3 )(A) =
0 2 2 0 2 2

1 1 1 1 1 1

1 0 0 1 0 0 1 0 0
28. P1 = 3 1 0
P2 = 0 1 0

P3 = 0 1 0
0 0 1 2 0 1 0 1 1

1
29. a) Sistema compatible determinado: x = y = z = .
4
b) Sistema incompatible.

c) k : Sistema compatible determinado: x = 2, y = 1 k, z=k

3 3 k 3
d) k 3 : Sistema compatible determinado: x = , y= , z=
k+ 3 k+ 3 k+ 3
k = 3 : Sistema incompatible.

e) a 0 y a 1 : Incompatible.
5
a = 0 : compatible indeterminado: x = 3 , y =2+ , z =
3 3
a = 1 : compatible determinado: x = 2, y = 1, z = -3

8 7z 1 z
f) a = 4, b = 3 : compatible indeterminado: x = , y = + , z
3 6 3 6
a = 4, b 3 : compatible determinado: x = 12, y = 1, z = 8
a 4, b = 3 : compatible determinado: x = 5, y = 0, z = 2
a 4, b 3 : Incompatible.
Tema 2

ESPACIOS VECTORIALES

2.0. INTRODUCCION. VECTORES EN EL PLANO Y EN EL ESPACIO.

Definicin. Se llama vector geomtrico a todo segmento orientado.

Puesto que un segmento viene determinado por dos puntos A y B, el vector quedar
perfectamente definido si nos dan estos dos puntos y un cierto orden. El primer punto se
llama origen y el segundo recibe el nombre de extremo.

Notacin: Normalmente v = AB representa un vector geomtrico de origen A y extremo


B.

Definicin. Definida una unidad de medida, se llama mdulo del vector AB, a la longitud
del vector AB, lo cual se representa por AB .

Definicin. Se dice que dos vectores tienen la misma direccin si estn situados sobre la
misma recta o en rectas paralelas.

Definicin. Se define como sentido del vector AB el que determinan sobre la recta rAB
los puntos A y B tomados en este orden.

Definicin. Equipolencia de vectores. Se dice que dos vectores u y v son equipolentes


si tienen igual mdulo direccin y sentido. Se representa u <> v .

Proposicin. La equipolencia de vectores es una relacin de equivalencia.

Esta relacin de equivalencia efecta en el conjunto de todos los vectores una particin
en clases de equivalencia. Como representante de cada clase de equivalencia se elige el
II. Espacios Vectoriales 40

vector con origen en el origen de coordenadas, el cual recibe el nombre de vector libre. A
partir de ahora trabajaremos con el conjunto de los vectores libres, que se denota por V.

Antes de definir axiomticamente el concepto de espacio vectorial, se trabaja con el


conjunto de los vectores libres (del plano o del espacio). Se definen las operaciones:
suma de vectores (+), resta de vectores(-) y producto de un vector por un escalar
de R , cuyas interpretaciones geomtricas son las siguientes:

v u+v v u-v

u u u, < 0 u u, > 0

Algunas propiedades de estas operaciones son:

1.- u , v V, ( u + v )V (ley de composicin interna).

2.- u , v , w V, ( u + v )+ w = u +( v + w )= u + v + w (propiedad asociativa).

3.- Denotando por 0 (vector nulo) el vector 00, se tiene de inmediato


u V, ! 0V / u + 0= 0+ u = u

4.- Denotando por - u =BA al vector opuesto o simtrico del u =AB, es fcil
deducir que u V, (- u )V / u +(- u )=(- u )+ u = 0 .

5.- u , v V, u + v = v + u .

De donde se concluye que (V,+) tiene estructura de grupo abeliano o conmutativo.

Con respecto la operacin externa se cumple:

1.- u , v V R ( u + v )= u + v .

2.- u V , R (+) u = u + u .

3.- u V , R ( ) u =( u ).
II. Espacios Vectoriales 41

4.- u V 1 R / 1 u = u .

Con estas propiedades se puede afirmar que (V,+,) tiene estructura de espacio vectorial
real.

2.1. ESTRUCTURA DE ESPACIO VECTORIAL.

Las propiedades que acabamos de ver no slo las cumplen los vectores geomtricos, hay
una familia muy numerosa de conjuntos que las verifican, denominndose a stos
espacios vectoriales.

Definicin. Sea E un conjunto no vaco cuyos elementos se llaman vectores (x, y, z,...), y
un cuerpo ( por ejemplo o ) cuyos elementos se denominan escalares (, ,
,...). Definimos en E dos leyes de composicin: una interna, que denotaremos por (+) y
denominaremos Suma o adicin de vectores de E, y otra externa, a la que llamaremos
Producto de un vector por un escalar. En estas condiciones, se dice que E es un espacio
vectorial sobre si se verifican las siguientes condiciones:

I) Para la ley interna Suma de vectores de E, el par (E,+) es un Grupo Abeliano, por lo
que cumple las propiedades siguientes:

1) x,y E x+y=y+x Conmutatividad


2) x,y,z E (x + y) + z = x + ( y + z ) Asociatividad
3) x E !0 E / x + 0 = 0 + x = x Elemento neutro
4) x E (-x) E / x + (-x) = (-x) + x = 0 Elemento opuesto

II) Para la ley de composicin externa, Producto de un vector por un escalar, que asocia
a cada escalar , y a cada vector x de E un vector nico, llamado producto de y x, y
que se representa por x o x, se satisfacen las siguientes propiedades:

1) x, y E (x+y) = x + y
2) x E , (+) x = x + x
3) x E , () x = (x)
4) x E, 1x = x (siendo 1 el elemento neutro del producto en ).
II. Espacios Vectoriales 42

Un espacio vectorial real es un espacio vectorial en el que los escalares pertenecen al


cuerpo de los nmeros reales, y un espacio vectorial complejo es un espacio vectorial
en el que los escalares pertenecen al cuerpo de los nmeros complejos (en nuestro
caso, trabajaremos preferentemente sobre espacios vectoriales reales).

Ejemplos de Espacios Vectoriales.

Cada uno de los siguientes ejemplos es un espacio vectorial con el conjunto


apropiado de escalares ( o ), con las apropiadas definiciones de suma de vectores
y de producto de un vector por un escalar.

a) El espacio vectorial real de todos los vectores geomtricos V en el espacio fsico


de tres dimensiones con las operaciones suma de vectores y producto por un escalar.

b) El conjunto de los nmeros reales es un espacio vectorial sobre s mismo.

c) n es el espacio vectorial real de todas las matrices columna nx1 reales, siendo
la suma de vectores en este caso la suma de matrices, y el producto el producto por
un escalar el usual para matrices.
n
d) es el espacio vectorial complejo de todas las matrices columna nx1
complejas, con las operaciones definidas como en n .

e) El conjunto de funciones E={f: }, es decir, las funciones reales de


variable real, dotado de las operaciones:

Suma de funciones: (f+g)(x) = f(x) +g(x) x

Producto por un escalar: (f)(x) = f(x) x


tiene estructura de espacio vectorial sobre . El elemento neutro de la suma es la
funcin nula.

f) El conjunto de polinomios de grado menor o igual que n, de variable real x, n :

n = { p( x) = an x n + an 1x n 1 + ... + a1x + a0 / ai }, con las operaciones:

suma de polinomios:
II. Espacios Vectoriales 43

p( x) = an x n + an 1x n 1 + ... + a1x + a0

q( x) = bn x n + bn1x n1 + ... + b1x + b0

p(x) + q(x) = (an+bn) xn + (an-1+bn-1) xn-1 + ... + (a1+b1) x + (a0+b0) n

producto de un polinomio por un escalar:

p( x) = an x n + an 1x n1 + ... + a1x + a0

R
p(x) = (an) xn + (an-1) xn-1 + ... + (a1) x + a0 n

es espacio vectorial real.

g) El conjunto de matrices Emxn( ) es espacio vectorial real; Emxn( ) es espacio


vectorial complejo.

Consecuencias de la definicin de Espacio Vectorial

Veamos algunas de las consecuencias que se deducen de la definicin de espacio


vectorial:

1) x E 0x = 0 (vector nulo).

Demostracin. x = ( + 0 ) x = x + 0x de donde se deduce que 0x = 0 (vector nulo).

2) x E y se tiene que (-)x = -x.

Demostracin. Como [(-)+] x = 0x = 0 (-)x + x = 0 (-)x = -x.

En particular (-1)x = -(1x) = -x.

3) 0 = 0.

Demostracin. 0 + 0 = (0+0) = 0, sumando -0 en las dos partes de la igualdad,


se obtiene que 0 = 0.

4) La igualdad x = 0 slo se verifica si = 0 si x = 0.

Demostracin. Supongamos que x = 0, pueden pasar dos cosas, que =0 o que 0.


Si 0 existir -1 / -1 = 1. Multiplicando en x = 0 por -1 se obtiene:
II. Espacios Vectoriales 44

3)
1 x = 1 0 = 0 x = 0 .

De donde se deduce que, =0 x = 0.

5) i) 0 x = y x=y
ii) x 0 x = x =

Demostracin. i) De la igualdad x = y x - y = 0 (x-y) = 0, y de


4) se tiene que = 0 x-y = 0. Pero como estamos suponiendo que 0, debe
verificarse que x-y = 0; luego x = y.

ii) De la igualdad x = x x - x = 0, y de 4) - = 0 x = 0, pero como


estamos suponiendo x 0, debe cumplirse - = 0, luego = .

2.2. SUBESPACIOS VECTORIALES

Muchos espacios vectoriales estn relacionados entre s, por ejemplo cada polinomio de
grado 3 es a su vez un polinomio de grado 4, 5,..., y a la vez una funcin continua
definida sobre R , siendo las operaciones de cada uno de estos espacios vectoriales las
mismas. Esta situacin es muy comn y muy importante en nuestro estudio de los
espacios vectoriales.

Definicin. Sean E y F espacios vectoriales sobre , si F es un subconjunto no vaco de


E y las operaciones que hacen de F un espacio vectorial son las mismas que las que hacen
a E espacio vectorial, se dice que F es un subespacio vectorial de E.

Para establecer si un subconjunto F de un espacio vectorial E es subespacio vectorial o no


no es necesario comprobar que se cumplen los axiomas de espacio vectorial como nos
indica el siguiente teorema:

Teorema. Sea E espacio vectorial sobre . La condicin necesaria y suficiente para que
un subconjunto F (no vaco) de E sea subespacio vectorial sobre es que contenga al
vector nulo de E y sea estable para las operaciones suma de vectores y producto por un
escalar; es decir

I) x,y F x+y F ( F estable para la suma).


II. Espacios Vectoriales 45

II) x F x F ( F estable para el producto por un escalar).

Demostracin. Tenemos que demostrar que F E, F , es subespacio vectorial sobre


[0 F ( por tanto, F ) y se cumplen las propiedades I) y II)].
) Esta implicacin es evidente.
) Supongamos que 0 F y se cumplen I) y II), y veamos que entonces tambin se
cumplen el resto de las propiedades para que F sea espacio vectorial.
Para la suma:
1) Por I) la ley de composicin es interna en F, pues x,y F x+y F.
2) Asociatividad: se cumple por cumplirse en E.
3) Conmutatividad: se cumple por cumplirse en E.
4) x F !0 F / x + 0 = x ( se cumple pues el 0 F, ya que se ha exigido)
5) Comprobemos si x F -x F / x + (-x) = 0
si x F como -x = (-1) x F, por ser (-1) y por verificarse II).
El resto de los axiomas correspondientes a las propiedades del producto por un escalar se
cumplen siempre en F por cumplirse en E y F E.

Observaciones:

1. La condicin exigida a un subespacio vectorial F de contener al vector 0, es


equivalente a exigir que F .

2. El vector nulo 0 pertenece a todos los subespacios vectoriales de E.

3. En todo espacio vectorial E, el conjunto {0} es subespacio vectorial de E.

Ejemplos.

1.- Consideremos un sistema de ecuaciones lineales homogneo y real, que en forma


matricial se expresa como Ax = 0, siendo A una matriz de orden mxn, y tanto x
como 0 matrices columna de rdenes respectivos nx1 y mx1.
II. Espacios Vectoriales 46

Sea S el conjunto de soluciones del sistema, que sern vectores de R n , es decir,


x1

x2
S = x = / Ax = 0 R n .
...

x
n
Veamos que S es un subespacio vectorial real de R n . Para demostrarlo hacemos uso
del teorema anterior:
Si x = 0, Ax = A0 = 0, luego 0 F.
I) x,y S x+y S ?.
Sean x,y S A (x+y) = Ax + Ay = 0 + 0 = 0 x+y S.
II) x S y R x S ?.
Sean x S y R A(x) = Ax = 0= 0 x S.
Luego S es subespacio vectorial de R n .

x

2.-El conjunto F = 0 / x, z R es un subespacio vectorial del espacio vectorial
z

real R3 .

3.- Sea F = {A E3x3( R ) / A = At } es un subespacio vectorial del espacio vectorial


real E3x3( R ).

2.3. DEPENDENCIA E INDEPENDENCIA LINEAL.

En las aplicaciones necesitamos ser capaces de calcular y manipular vectores; esto


requiere algn tipo de representacin concreta de vectores. Por ejemplo, el subespacio F
de P3 formado por los polinomios que cumplen

p(x) = p(0) + 2p(1) x + p(0) x2 + p(1) x3 x R ,


es un subespacio vectorial que no puede manejarse fcilmente con esa caracterizacin;
los clculos con F se simplifican cuando se sabe que cada elemento de F se puede escribir
como (1 - 2x + x2 - x3) / R . Por esta razn es importante poder expresar el elemento
general de un espacio vectorial como combinacin lineal de vectores especiales del
espacio.
II. Espacios Vectoriales 47

Definicin. Sea E espacio vectorial sobre K . Sea S = {e1, e2, ..., eq}* un sistema finito de
vectores de E, se dice que el vector x E es combinacin lineal de los vectores de S si
existen q escalares 1, 2,..., q K tales que:
x = 1 e1 + 2 e2 + ... + q eq.

Proposicin. Sea S= {e1 , e2 , ..., eq } E . Todos los vectores que se pueden formar por

combinacin lineal de los vectores e1, e2, ..., eq pertenecen a E y, adems, forman un
subespacio vectorial de E denominado subespacio generado por S, y se representa como
Span(S)
Span(S) = { x = 1 e1 + 2 e2 + ... + q eq / i K , i = 1,2,...,q }E.
Tambin se dice que S es un sistema generador de Span(S), y es el menor subespacio
vectorial de E que contiene a S.

Demostracin. E es espacio vectorial y Span(S)E, veamos que Span(S) cumple la


condicin necesaria y suficiente para ser subespacio vectorial de E.
0 Span(S) pues el vector nulo puede escribirse como la combinacin lineal:
0 = 0e1 + 0e2 + ... + 0eq

I) x,y Span(S) x+y Span(S) ?


x = 1e1 + 2e2 + ... + q eq
Sean x,y Span(S)
y = 1e1 + 2e2 + ... + q eq
x + y = (1 + 1 )e1 + ( 2 + 2 )e2 + ... + ( q + q )eq Span(S).

II) x Span(S) K x Span(S) ?


Sea x Span(S) y sea K x = 1e1 + 2e2 + ... + qeq
x = (1)e1 + (2)e2 + ... + (q)eq xSpan(S).

Adems, todo subespacio que incluya a S ha de contener a las combinaciones lineales de


los vectores de S, esto es, ha de incluir a Span(S). Como, adems, Span(S) es subespacio
vectorial e incluye a S, se concluye de todo ello que Span(S) es el menor subespacio
vectorial que incluye a S.

*
S es un conjunto de vectores dado en un cierto orden.
II. Espacios Vectoriales 48

Cuando S engendra a todo el espacio vectorial E se dice que S es una familia total de
vectores para E.

Ejemplo.

En el espacio vectorial real de las matrices cuadradas reales de orden 2, E2x2( R ),


1 0 0 1 0 0
consideremos el conjunto S = { e1 = , e2 = ,e3 = } E2x2( R ).
0 0 1 0 0 1
El subespacio vectorial F = Span(S) engendrado por el sistema de generadores S es el
conjunto de matrices de E2x2( R ) que se pueden escribir como combinacin lineal de

las matrices de S, es decir F = Span(S) = A = / , , R , es decir, F es el

subespacio vectorial de E2x2( R ) formado por las matrices simtricas reales de orden 2.

Observacin. Cuando S es un sistema con infinitos vectores de un espacio E, se llama


Span(S) al conjunto de todas las combinaciones lineales de cualquier cantidad finita de
vectores de S. Se verifica que Span(S) es un subespacio vectorial de E; Span(S) es el
menor subespacio vectorial de E que contiene a S y se le llama subespacio generado por
S.

Definicin. Sean S = {e1, e2, ..., eq} y T = {u1, u2, ..., uq} dos sistemas de vectores del
espacio vectorial E, se dice que S y T son sistemas equivalentes si engendran el mismo
subespacio, o sea, si Span(S) = Span(T).

Ejemplo.

En el espacio vectorial real de las matrices cuadradas reales de orden 2, E2x2( R ),


1 0 0 1 0 0
consideremos el conjunto S = { e1 = , e2 = , e3 = } y el
0 0 1 0 0 1
1 0 10 11 0 0
conjunto T = { u1 = , u2 = , u3 = }. El subespacio vectorial
0 2 11 0 0 1
engendrado por el sistema de generadores S y el engendrado por T es el subespacio
vectorial de E2x2( R ) formado por las matrices simtricas reales de orden 2. Por tanto
S y T son sistemas equivalentes.
II. Espacios Vectoriales 49

Definiciones. Sea E un espacio vectorial sobre K y sea S = { e1, e2, ..., en } un sistema
finito de vectores de E. Se dice que S es una familia o sistema libre de vectores o
tambin que los vectores e1, e2, ..., en son linealmente independientes si la relacin
1 e1 + 2 e2 + ... + n en = 0
se cumple slo cuando 1 = 2 = ... = n = 0.

En el caso de que existan n escalares 1 , 2, ... , n no todos nulos, tales que


1 e1 + 2 e2 + ... + n en = 0
se dice que los vectores e1, e2, ..., en son linealmente dependientes o que S es un sistema
ligado.

Se dice que un vector depende linealmente de otros si aqul es igual a una combinacin
lineal de stos.

Observacin. Sea S una familia de infinitos vectores de un espacio vectorial E. Se dice


que S es libre, si toda subfamilia finita extrada de ella es libre.

Los conceptos de dependencia e independencia lineal son cruciales en lgebra lineal, ya


que conducen a nuevas formas de estudiar los conceptos de rango de matrices y de
existencia y unicidad de soluciones de sistemas de ecuaciones, constituyen la clave para
entender cmo representar elementos de espacios vectoriales de una manera simple, nos
ayudan a entender las dificultades numricas que pueden aparecer en el clculo de
soluciones a problemas aplicados, etc. As, es absolutamente esencial manejar estos
conceptos y ser capaces de determinar si un conjunto de vectores es linealmente
independiente.

1 0 0 1
0 2 1 0

Ejemplo. Estudiar si S = e1 = , e 2 = , e3 = , e4 = , , es o no familia libre
0 0 1
2

0 6 3 0
de vectores en R 4.

Solucin. Para ver si la familia S es libre hay que considerar la combinacin lineal

1 e1 + 2 e2 + 3 e3+ 4 e4 = 0.
II. Espacios Vectoriales 50

sta da lugar al sistema homogneo de cuatro incgnitas siguiente:

1 + 4 =0

22 + 3 =0

3 - 24 = 0

62+ 33 =0

1 0 0 1

0 2 1 0
cuya matriz de coeficientes A = tiene rango tres. Por lo tanto, al
0 0 1 2

0 6 3 0

tratarse de un sistema homogneo y ser el rango de la matriz de coeficientes menor


que el nmero de incgnitas (que es cuatro), existe solucin distinta de la nula.
Resolviendo el sistema resultante de eliminar la ltima ecuacin obtenemos como
soluciones:

1 = - 4, 2 = - 4 3 = 2 4 , 4 R .

As por ejemplo, si 4 = 1, entonces 1 = -1, 2 = -1 y 3 = 2, con lo cual resulta:

-e1 + (-1) e2 + 2 e3+ e4 = 0

es decir, estos vectores son linealmente dependientes.

4En general, si se forma una matriz cuyas columnas son las componentes de los q
vectores de un sistema S de vectores de R n, el rango r de dicha matriz nos indica el
nmero de vectores independientes del conjunto S. Si r = q, entonces S es una familia
libre de vectores. Mientras que si r < q, entonces existen q-r vectores dependientes de
los r y el conjunto S no es libre. Esta propiedad es vlida utilizando componentes de los
vectores de R n o coordenadas de vectores de cualquier otro espacio vectorial de
dimensin finita (concepto que se definir ms adelante).

Ejemplo. Sea el espacio vectorial real E = { f: R R / f continua}, y considrense las

siguientes familias finitas de vectores de E :

a) S = {1, x, x2} b) U = {1, x, x2,..., xn-1} c) T = {1, x, x2, x2-2x}.


II. Espacios Vectoriales 51

Estudiar si S, T y U son o no libres.

a) Supongamos que
1 1 + 2 x + 3 x2 = 0,
donde 0 es la funcin que vale cero cualquiera que sea x. Esta igualdad se ha de cumplir
para todo x real, en particular se ha de cumplir para x = 0, x = 1 y para x = -1, de donde
se obtienen las ecuaciones:
1 + 2 (0) + 3 (0) 2 = 0 1 =0

1 + 2 (1) + 3 (1) = 0 1 + 2 + 3 = 0
2

+ (1) + (1) 2 = 0 + = 0
1 2 3 1 2 3

este sistema admite como solucin nica 1 = 2 = 3 = 0, es decir, la familia S es libre.


b) La familia U = {1, x, x2,..., xn-1} tambin es libre, ya que si suponemos que

1 1 + 2 x + 3 x2 + ... + n xn-1 = 0

donde 0 es la funcin que vale cero cualquiera que sea x. Esta igualdad se ha de
verificar para todo x real, lo cual implica que 1 = 2 = ... = n = 0 (esto se puede
demostrar cogiendo puntos y resolviendo el sistema, teniendo en cuenta que el
nico polinomio de grado n-1 que vale cero en todo R es el polinomio nulo). Luego
U es libre.

c) Por el contrario, si consideramos la familia finita de E, T = {1, x, x2, x2-2x}, y


suponemos que
1 1 + 2 x + 3 x2 +4 (x2-2x) = 0
1 1 + (2-24) x + (3+ 4) x2 = 0.
Esta relacin se verifica cuando 1 = 0 , 2 =24 y 3 = -4 , 4 R (por
ejemplo, para 4 = 1, 1 = 0, 2 =2 y 3 = -1, escalares no todos nulos). Luego
T es un conjunto de vectores de E linealmente dependientes.

Observaciones:

Si uno de los vectores de un sistema es el vector nulo, entonces el sistema es


linealmente dependiente.
II. Espacios Vectoriales 52

Si u 0, entonces el sistema S = {u} es linealmente independiente. Un sistema

{u,v} , formado por dos vectores, es linealmente dependiente s y slo si uno de


ellos es proporcional al otro.

Si un sistema de vectores S es linealmente dependiente, entonces tambin lo es


cualquier sistema que resulte de aadir algn vector a S.

Si un sistema de vectores S es linealmente independiente, entonces tambin lo es


cualquier sistema que resulte de prescindir de alguno de los vectores de S.

Propiedades de la dependencia e independencia.

Sea E espacio vectorial sobre K :

1. Un sistema de vectores S = {e1 , e 2 ,..., e p } es linealmente dependiente s y solo si

alguno de sus vectores depende linealmente de los dems.

2. Si un vector w depende linealmente de los vectores e1 , e 2 ,..., e p y stos dependen a

su vez de v1 , v 2 ,..., v q , entonces w depende de stos ltimos.

3. Dos sistemas de vectores S = {e1 , e 2 ,..., e p } y T = { v1 , v 2 ,..., v p } son equivalentes,

o sea Span (S) = Span (T), s y slo si todo vector de uno de los sistemas depende
linealmente de los vectores del otro y recprocamente.

4. Si S es un sistema linealmente independiente de vectores y v es un vector que no


depende de los vectores de S, entonces el sistema S { v} tambin es linealmente

independiente.

Demostracin.

1. ) Supongamos que en el conjunto {e1 , e 2 ,..., e p } hay un vector, digamos el e1,

combinacin lineal de los dems. Entonces se tiene

e1 = 2 e2 + ... + p ep

o equivalentemente
II. Espacios Vectoriales 53

(-1) e1 + 2 e2 + ... + pep = 0

por tanto {e1, e2, ..., ep} es linealmente dependiente, pues los coeficientes no son
todos nulos.

) Recprocamente, si {e1, e2, ..., ep} es linealmente dependiente, la

combinacin lineal nula 1 e1 + 2 e2 + ... + p ep = 0 se cumple con algn


coeficiente diferente de cero. Supongamos que el coeficiente no nulo es 1.
Entonces

1
e1 = (2 e2 + ... + pep).
1

2. Supongamos que un vector w depende linealmente de los vectores e1 , e 2 ,..., e p y

stos dependen a su vez de v 1 , v 2 ,..., v q , entonces existen unos escalares 1, 2,

...,p ,11, 12,..., 1p, 21, 22,..., 2p ,..., q1, q2,..., qp en K tales que

p q
w = 1 e1 + 2 e2 + ... + qep = iei y ej = jk v k para j=1,2,...,p,
i =1 k =1

de donde
p
q p q
w = 1 e1 + 2 e2 + ... + qep = i ik v k = i ik vk =
i =1 k =1 i =1 k =1

q
p
= iik v k .
k =1 i =1

3. Si Span(S) = Span(T), entonces todo vector de cualquiera de estos dos


subespacios, en particular los vectores que lo engendran, pertenecen tambin al
otro subespacio, o sea, dependen linealmente de los vectores que engendran a este
ltimo, que es lo que se quera comprobar. Recprocamente, si los vectores de S
dependen linealmente de los de T, como todo vector de Span(S) depende
linealmente de los vectores de S, segn la propiedad anterior resulta que los
vectores de Span(S) dependen linealmente de los vectores de T, es decir,
Span(S) Span(T). Como adems, se sabe que los vectores de T dependen
linealmente de los de S, nos encontramos con que tambin se verifica que
Span(T) Span(S). Por lo tanto, Span(S) = Span(T), como haba que probar.
II. Espacios Vectoriales 54

4. Sea S = {u1, u2, ..., up} linealmente independiente y sea v un vector que no
depende de u1, u2, ..., up. Suponiendo que

av + b1u1 + b2 u2 + ... + bp up = 0

hay que probar que todos los coeficientes son nulos. Si alguno fuera distinto de
cero, por ejemplo a, resultara

b b2 bp
v = 1 u1 + u2 + ... + up v Span {S}
a a a

lo que es falso, ya que v no depende linealmente de u1, u2, ..., up, y por tanto, a
ha de ser cero, y en consecuencia, se verifica que

b1u1 + b2 u2 + ... + bp up = 0.

Ahora bien, como {u1, u2, ..., up } es linealmente independiente de esta ltima
relacin se deduce que b1 = b2 = ... = bp = 0, con lo que se concluye la
demostracin.

Teorema (fundamental de la independencia lineal). Sea E un espacio vectorial que


est engendrado por un cierto sistema S = {e1, e2 ,..., ep}, de un nmero finito p de
vectores. Si G = {u1, u2 ,..., uh} es un sistema independiente, formado por h vectores,
entonces se verifica que h p.

Existen dos tipos de espacios vectoriales:

1) Espacios vectoriales en los que no es posible formar una familia que sea infinita y libre
como, por ejemplo, el formado por los vectores usuales (pues una familia libre no
puede contener ms de tres vectores), R n, Emxn , ...

2) Espacios vectoriales, como el de las funciones continuas sobre R , donde es posible


formar familias que son a la vez libres e infinitas. Por ejemplo:

S1 = { 1, x, x2, ... , xn-1, xn, ...}

S2 = { 1, cos x, cos 2x, ... ,cos nx, ...}.

S3 = {ex, e2x, ..., enx, ...}.


II. Espacios Vectoriales 55

2.4. ESPACIO VECTORIAL DE DIMENSION FINITA. BASES.


COORDENADAS. CAMBIO DE BASE.

Nos vamos a ocupar aqu de aquellos espacios vectoriales que estn generados por un
nmero finito de vectores; esto es, tales que todos sus vectores son combinaciones
lineales de un nmero finito de ellos. Estos espacios se llamarn de dimensin finita
aunque, de momento y hasta que hayamos definido el concepto de dimensin, los
denominaremos de tipo finito. En estos espacios vectoriales no pueden formarse familias
infinitas y libres.

Definicin. Un espacio vectorial E sobre K se dice que es de tipo finito si est generado
por un nmero finito de vectores.

En un espacio vectorial de tipo finito, tienen especial inters aquellos sistemas


generadores que son, adems, independientes; a ellos se les llama bases. Todo vector del
espacio se podr expresar de una nica manera como combinacin lineal de los vectores
de una base; a los coeficientes de esa combinacin se les llama coordenadas del vector
dado.

2.4.1. Bases y coordenadas

Definicin. Un conjunto finito de vectores de un espacio vectorial E sobre K se dice que


es base de E si es una familia de E que es a la vez libre y total; es decir, es un conjunto
de vectores generadores de E linealmente independiente.

Observacin. Un conjunto infinito de vectores se dice que es base de un espacio vectorial


E si y slo si es libre y genera todo E, es decir si es libre y cada vector del espacio E se
puede obtener como una combinacin lineal de un nmero finito de vectores de la base.

As, por ejemplo, el conjunto {1, x, x2, ...} es una base del espacio vectorial real de todos
los polinomios.

Estas definiciones no permiten afirmar para un espacio vectorial E la existencia de una


base salvo que el espacio vectorial sea de tipo finito.
II. Espacios Vectoriales 56

Ejemplos.

1. Tres vectores libres usuales {e1, e2, e3}, paralelos a las tres direcciones de un
triedro, constituyen una base del espacio usual de los vectores libres.

2. La familia libre {1, x, x2 } es un sistema de generadores del espacio de polinomios


de grado 2. Por tanto, es una base de este espacio vectorial.

3. En el espacio vectorial de las funciones continuas f(x), la familia libre infinita


{ex, e2x, enx, ...} no es una base, pues a partir de ella no se pueden obtener todas las
funciones continuas.

Teorema (Representacin nica en una base). Sea B = {e1, e2, ..., en} una base de un
espacio vectorial E sobre K . Entonces, todo vector x E se puede expresar nicamente
de una forma como combinacin lineal de los vectores de B.

Demostracin. Supongamos que el vector se puede expresar de dos formas:

x = x1 e1 + x2e2 + ... + xn en

x = x1 e1 + x2 e2 + ... + x n en

Restando ambas expresiones resulta:

0 = (x1- x1 ) e1 + (x2- x2 ) e2 + ... + (xn- x n ) en.

Ahora bien, siendo la base una familia libre se llega a que:

x1- x1 = x2- x2 = ... = xn- x n = 0

de donde

xi = x i i=1,2,,n.

En consecuencia, x se expresa de manera nica.

A los escalares x1, x2, ..., xn se les denomina coordenadas del vector x en la base B.

Las coordenadas se representan mediante el vector coordenado que es la matriz columna


n x 1 siguiente:
II. Espacios Vectoriales 57

x1

x2
x = x1 e1 + x2 e2 + ... + xn en CB ( x) = x B = .

.
x
n

Observamos que para cada vector x de E hay un nico vector coordenado con respecto a
la base B y para cada xB de K n hay exactamente un x de E tal que CB (x) = xB .

Representar vectores abstractos usando una base es una herramienta fundamental en las
aplicaciones. Todos los clculos con vectores abstractos de E pueden equivalentemente
efectuarse con sus coordenadas en K n. Tambien podemos verificar la independencia
lineal y la generacin de vectores trabajando con las coordenadas.

Ejemplos.

1 0 0
0 1 0

1.- Probar que el conjunto de vectores e1 = , e 2 = ,..., e n = , es una base
... ...
...

0 0 1
de R n.

u1

u2
Solucin. Veamos primero que generan R . Dado el vector u = . de R n, se
n

.
u
n
tiene

u = u1 e1 + u2 e2 + ... + un en

luego u es combinacin lineal de los vectores {e1, e2, ..., en} y adems los
coeficientes de la combinacin lineal son los elementos del vector u (nicos).

Veamos ahora que son linealmente independientes. Supongamos que

1 e1 + 2 e2 + ... + n en = 0
II. Espacios Vectoriales 58

con lo cual es fcil ver que 1, 2, ..., n son las soluciones de un sistema lineal
homogneo, cuya matriz de coeficientes es la matriz identidad. Por tanto

1 = 2 = ...= n = 0

As pues, el conjunto {e1, e2, ..., en} es una base de R n. Esta base recibe el nombre
de base cannica de R n.

Teorema (Existencia de bases). Todo espacio vectorial E de tipo finito, distinto de {0},
tiene alguna base.

Demostracin. Supongamos que E = Span { u1, u2, ..., um }. Si los vectores u1, u2, ..., um
son linealmente independientes, entonces son una base de E.

Si no son linealmente independientes habr al menos uno de ellos que sea combinacin
lineal de los restantes. Si suprimimos todos estos vectores, obtendremos un conjunto
linealmente independiente que sigue siendo total, pues los vectores suprimidos no
desempeaban papel alguno en la obtencin de vectores de E. Es decir, se obtiene una
base de E.

2.4.2. Dimensin.

Teorema de la dimensin. Sea E un espacio vectorial y sean B = {b1, b2, ...,bn} y


D ={d1, d2, ...,dm} dos bases de E. Entonces n = m.

Demostracin. Como B es un sistema generador de E y D es una familia independiente,


del teorema fundamental de la independencia se deduce que m n. Intercambiando los
papeles de B y D, se obtiene, anlogamente, que n m. En consecuencia n = m.

Este resultado pone de manifiesto que todas las bases de un espacio vectorial E de tipo
finito tiene el mismo nmero de vectores. El nmero de vectores de una base no es, por lo
tanto, una propiedad de ella sino del espacio vectorial. As, es natural dar la siguiente
definicin.

Definicin. Se llama dimensin de un espacio vectorial E al nmero de vectores de una


base de E. Se escribe dim E.
II. Espacios Vectoriales 59

Por convenio, se dice que la dimensin del espacio vectorial {0} es 0.

Cuando la dimensin es finita se dice que el espacio vectorial es de dimensin finita. En


otro caso se dice dimensin infinita.

Ejemplo.

Ya se ha visto que el espacio vectorial real R n, tiene una base formada por n
vectores; por tanto dim R n = n.

Anlogamente, la dimensin del espacio vectorial complejo C n sobre C es n.

Ejemplo.

Comprobar que {1, x, x2} es una base del espacio vectorial P 2 de los polinomios de
grado menor o igual que dos (en consecuencia, dim P 2 = 3). Comprobar tambin que
la dimensin del espacio vectorial P n de los polinomios de grado menor o igual que
n, es n+1.

Solucin. El espacio vectorial P 2 est generado por {1, x, x2}. Por otro lado, si

a + bx + cx2 = 0

identificando los coeficientes de las variables del mismo grado se obtiene que x,
a = b = c = 0, con lo que el conjunto de polinomios {1, x, x2} es linealmente
independiente.

En consecuencia {1, x, x2} es una base de P 2, y por tanto dim P 2 = 3.

Generalizando el razonamiento anterior se obtiene que {1, x, x2, ..., xn} es una base
de P n, y por tanto dim P n = n+1.

Propiedades de las Bases y de la Dimensin:

Sea E un espacio vectorial de dimensin finita n y supongamos que S= { u1, u2, ..., up }
es un sistema de vectores de E, entonces se verifica que:

1. Si S = { u1, u2, ..., up }es un sistema de generadores de E, entonces p dimE.

2. Si S = { u1, u2, ..., up }es un sistema independiente, entonces p dimE.


II. Espacios Vectoriales 60

3. Si S ={ u1, u2, ..., up }es un sistema de generadores de E y p = dimE, entonces S


es base de E.

4. Si S ={ u1, u2, ..., up }es independiente y dimE = p, entonces entonces S es base.


de E.

Demostracin.

1. Sabemos que S, por ser un sistema de generadores, incluye una base de E y, por
ello, la dimensin de E, que es el nmero de vectores de una de sus bases, no
puede ser mayor que el nmero p de vectores de S, es decir , ha de ser p dimE

2. Sabemos que una base B de E es un sistema independiente. Por el teorema


fundamental de la independencia lineal, como S es independiente y B es un
sistema generador, el nmero de vectores de S (p) ha de ser menor o igual que el
de B (n), o sea, p ha de ser menor o igual que dim(E).

3. Como S ={ u1, u2, ..., up }es un sistema de generadores de E sabemos que incluye
una base de E; que ser el propio sistema S, ya que en caso de tener que eliminar
alguno de sus vectores (si no fuera familia libre) obtendramos una base de E con
menos vectores que p, y p = dimE, lo cual es un absurdo. Luego entonces S es
base de E

4. Supongamos que S no es base, es decir, que no genera el espacio vectorial E.


habr entonces un vector up+1 independiente de S y, por lo tanto S=S{up+1}
ser un sistema independiente. De ser as, y de acuerdo con la propiedad 2, como
S es independiente y tiene p+1 vectores, se verificar que p+1 dimE, que es
falso ya que p=dimE. Esta contradiccin prueba que S es base de E.

Observaciones:

1. La dimensin de un espacio vectorial es el nmero mximo de vectores de E


linealmente independientes.

2. La dimensin de un espacio vectorial es el nmero mnimo de vectores de un


sistema generador de E.
II. Espacios Vectoriales 61

Teorema (Teorema de la base incompleta). Sea E un espacio vectorial de dimensin n.


Si {u1, u2,..., up } (p < n), es un conjunto linealmente independiente de vectores de E,
entonces se pueden encontrar n-p vectores up+1, up+2, ..., un de E, tales que

{u1, u2,..., up, up+1, up+2, ..., un }

es una base de E.

Demostracin. Si n > p , como E Span {u1, u2,..., up }, existe un vector up+1 de E que
no est en Span{u1, u2,..., up }. Por ello, el conjunto {u1, u2,..., up, up+1} es linealmente
independiente. Despus de repetir este razonamiento n - p veces, obtendremos un
conjunto linealmente independiente con n vectores

{u1, u2,..., up, up+1, up+2, ..., un }

que, por la propiedad 4 anterior, son una base de E.

Corolario. Sea F un subespacio vectorial de un espacio vectorial E de dimensin finita, y


{d1, d2, ..., dp} una base de F. Entonces se puede encontrar una base de E que contenga al
conjunto {d1, d2, ..., dp}.

Demostracin. Basta aplicar el Teorema de la Base Incompleta con el conjunto inicial


{d1, d2, ..., dp}.

Corolario. Sea E un espacio vectorial de dimensin finita. Si F es un subespacio


vectorial de E, entonces dim F dim E.

Demostracin. Si F = {0} es obvio. En otro caso, es consecuencia inmediata del corolario


anterior, ya que cualquier base de F puede incluirse en una base de E.

Adems, se puede demostrar que, cuando E es un espacio vectorial de dimensin finita,


si F E y dim F = dim E , entonces F = E.
II. Espacios Vectoriales 62

2.5. CAMBIO DE BASE EN ESPACIO VECTORIAL DE DIMENSIN FINITA.

Puesto que un espacio vectorial de dimensin finita tiene infinitas bases, en este apartado
nos vamos a interesar por conocer cual es la relacin que existe entre las coordenadas de
un vector respecto a dos bases distintas.

Sea E un espacio vectorial sobre K de dimensin n. Sean B = {e1 , e 2 ,..., e n } y

B = {e1 , e2 ,..., en } dos bases de E, de forma que cada vector de la base B se puede

expresar en la base B de la siguiente forma

e1 = a11 e1 + a 21 e2 + ... + a n1 e n
e = a e + a e + ... + a e
2 12 1 22 2 n2 n

...
en = a1n e1 + a 2n e2 + ... + a nn en

con lo que

a11 a12 a1n



a 21 a 22 a
CB (e1 ) = , CB (e2 ) = , ... , CB (en ) = 2n .
... ... ...

a n1 an2 a nn

Si x es un vector cualquiera del espacio vectorial E, por ser B una base de E, existirn n
escalares en K x1, x2, ..., xn tales que x = x1 e1 + x2 e2 + ... + xn en.

Anlogamente, por ser B una base de E, existirn n escalares en K x1 , x 2 , ..., x n tales

que x = x1 e1 + x 2 e2 + ... + x n en .

Vemos cmo estn relacionadas las coordenadas de x en B , CB(x), y las coordenadas


de x en B, CB(x), es decir, x1 , x 2 , ..., x n y x1, x2, ..., xn.

Teniendo en cuenta la relacin existente entre los vectores de B y de B, resulta:

x = x1 e1 + x 2 e2 + ... + x n en = x1 (a11 e1 + a 21 e 2 + ... + a n1 e n ) + x 2 (a12 e1 + a 22 e2 + ... + a n 2 en )

+... + x n (a1n e1 + a 2n e 2 + ... + a nn e n ) =


II. Espacios Vectoriales 63

= (a11x1 + a12 x 2 + ... + a1n x n ) e1 + (a 21x1 + a 22 x 2 + ... + a 2n x n ) e 2 +...

+ (a n1x1 + a n 2 x 2 + ... + a nn x n ) e n .

De donde, teniendo en cuenta que las coordenadas de un vector en una base son nicas,
se deduce

x1 = a11x1 + a12 x 2 + ... + a1n x n



x 2 = a 21x1 + a 22 x 2 + ... + a 2n x n
,
...
x n = a n1x1 + a n 2 x 2 + ... + a nn x n

es decir

x1 a11 a12 ... a1n



x a a 22 ... a 2n
CB (x) = 2 = 21 C (x) ,
... ... ... ... ... B'

x n a n1 a n 2 ... a nn
P

de donde,


a a a
11 12 1n
a a a
P = 21 22 ... 2n .

... ... ...
a n1 a n2 a nn
C (e ) C (e ) C (e )
B 1 B 2 B n

A la matriz P, que tiene por columnas las coordenadas de los vectores de la base B en la
base B, se la denomina matriz de paso de la base B a la base B, es una matriz regular de
orden n ya que los vectores e1 , e2 ,..., en forman la base B y, por la tanto, son

independientes.
II. Espacios Vectoriales 64

Ejemplo.

{ e1 =
1 1 0 2
Sean B = , e2 = } y B = { e1 = , e2 = } dos bases del
1 2 1 1
espacio vectorial R 2. Obtener las coordenadas en la base B del vector x que tiene
3
por coordenadas respecto de la base B.
4

Solucin. B y B tienen sus vectores referidos a la base cannica:

1 0
BC = { u1 = , u2 = }
0 1

Expresemos los vectores de B en la base B. As:

0 1 1
e1 = = 1 + 2
1 1 2

de donde

0 = 1 + 2
1 = 1 y 2 = 1 ; luego e'1 = e1 + e 2 .
1 = 1 + 2 2

2 1 1
e2 = = 3 + 4
1 1 2

2 = 3 + 4
3 = 3 y 4 = 1 ; luego e'2 = 3e1 e 2 .
1 = 3 + 2 4

3
Por tanto, las coordenadas en B del vector cuyas coordenadas en B son se
4
obtendrn haciendo:

x1 3 -1 3 3 9
= P = = .
x2 4 1 1 4 1
II. Espacios Vectoriales 65

2.6. DIMENSIN Y ECUACIONES DE UN SUBESPACIO VECTORIAL.

Sea E un espacio vectorial sobre K de dimensin n y sea B = {e1, e2, ..., en} una base
de E.

Si se considera un subespacio vectorial U de E, entonces dado un elemento cualquiera


u U, se expresar en la base B como

u = x1 e1 + x2 e2 + ... + xn en,

las coordenadas de u en B se expresarn mediante el vector coordenado

x1

x2
CB (u) = . .

.
x
n

Las coordenadas de u van a estar ligadas por alguna o algunas relaciones lineales que van
a caracterizar al subespacio. Es decir, todo subespacio U va a venir caracterizado por una
serie de restricciones lineales homogneas (han de serlo para as garantizar la estabilidad
respecto a la suma y al producto por un escalar) del tipo:

b11x1 + b12 x 2 + ... + b1n x n = 0


b x + b x + ... + b x = 0
21 1

22 2 2n n
, donde r n ,
...................
br1x1 + b r 2 x 2 + ... + b rn x n = 0

estas restricciones (no idnticamente nulas) son las ecuaciones cartesianas o implcitas
del subespacio.

La dimensin del subespacio U ser:

dim U = n - r = dim E - nmero de restricciones (ecuaciones independientes).

Otro tipo de ecuaciones que caracterizan un subespacio son las ecuaciones paramtricas,
donde aparecen las coordenadas de los vectores del subespacio expresadas en funcin de
II. Espacios Vectoriales 66

unos parmetros. Hay tantos parmetros libres como sea la dimensin del subespacio U.
Es decir, son ecuaciones de la forma:

x1 = c11 1 + c12 2 + ... + c1,n r n r


x = c + c + ... + c
2 21 1 22 2 2,n r n r
,
...................
x n = c n1 1 + c n 2 2 + ... + c n,n r n r

donde: 1, 2, ..., n-r K son parmetros libres (es decir, el rango de la matriz de
elementos cij es n-r).

Ejemplos.

- Si consideramos el espacio total E, la dim E = n; por tanto, no tiene ecuaciones


x1 = 1
x =

implcitas, siendo sus ecuaciones paramtricas 2 2
,1 , 2 ,..., n K .
....
x n = n

- Sea ahora el subespacio nulo: dim {0} = 0; luego, el subespacio {0} tiene n
x1 = 0
x =0
2
ecuaciones implcitas , que tambin pueden considerarse como
....
x n = 0

ecuaciones paramtricas.

Ejemplo.

1/ 2 1/ 2 1

1 0 0
Hallar las ecuaciones del subespacio U generado por

,

,
.
0 1 0
0 0 1

Solucin. Como los vectores anteriores pertenecen al espacio vectorial R 4 entonces


E = R 4 , luego dim E = dim R 4 = 4. Por otro lado, como los tres vectores son
linealmente independientes, constituyen una base del subespacio U, luego dim U = 3.
Por tanto, U tiene una nica ecuacin cartesiana.
II. Espacios Vectoriales 67

x1 1/ 2 1/ 2 1
1 0 0
x
Si u U R 4 u = 2 = + +
x3 0 1 0

x4 0 0 1

1 1
x1 = 2 2

x 2 = , , , R
x3 =

x 4 =

que son las ecuaciones paramtricas de U. Eliminando los tres parmetros se


obtienen la ecuacin cartesiana de U: 2 x1 - x2 + x3 + 2 x4 = 0.

Otra forma de obtener la ecuacin de U es considerar que cualquier vector de


subespacio ha de ser combinacin lineal de los tres vectores que generan el

x1

x
subespacio, por lo que si u U R y u = 2 y si formamos la matriz que tiene
4
x3

x4
por columnas las coordenadas de dichos vectores y las de u,

1 2 1 2 1 x1
1 0 0 x 2

0 1 0 x3

0 0 1 x4

el rango de la matriz ha de ser tres. Entonces la ecuacin del subespacio la


obtendremos anulando el determinante de la matriz; esto es, haciendo

1 2 1 2 1 x1
1 0 0 x2
= 0,
0 1 0 x3
0 0 1 x4

de donde

2 x1 - x2 + x3 + 2 x4 = 0

es la ecuacin cartesiana o implcita del subespacio U.


II. Espacios Vectoriales 68

Si despejamos

x2 = 2 x1 + x3 + 2 x4

y tomamos como parmetros

x1 = t, x3 = s, x4 = r

resultan las ecuaciones paramtricas del subespacio

x1 = t

x 2 = 2t + s + 2r
,r,s,t R
x3 = s
x4 = r

donde t, s y r son los parmetros. Luego hay tres parmetros libres, que es la
dimensin del subespacio.

Ejemplo.

1/ 2 1/ 2

1 0
Hallar las ecuaciones del subespacio V generado por , .
0 1
0 0

Solucin. Como los vectores anteriores pertenecen al espacio vectorial R 4 entonces


E = R 4 y dim E = dim R 4 = 4. Por otro lado, como los dos vectores son
linealmente independientes, constituyen una base del subespacio V, luego dim V = 2.
Por tanto, V tiene dos ecuaciones cartesianas.

1 1
x1 1/ 2 1/ 2 x1 = 2 2
1 0
Si u V R u =
4 x2
= + x 2 = , , R
x3 0 1
x =
x4 0 0 3
x 4 = 0

que son las ecuaciones paramtricas de V. Eliminando los dos parmetros se

2 x x 2 + x 3 = 0
obtienen las ecuaciones cartesianas de V: 1 .
x4 = 0
II. Espacios Vectoriales 69

Otra forma de obtener las ecuaciones cartesianas de V es considerar que cualquier


vector de subespacio ha de ser combinacin lineal de los dos vectores que generan el

x1

x
subespacio, por lo que si u V R y u = 2 y si formamos una matriz con las
4
x3

x4
coordenadas de dichos vectores y con las de u, el rango de dicha matriz ha de ser dos:

1 2 1 2 x1
1 0 x 2
rango = 2.
0 1 x3

0 0 x4

Por lo que todo menor de orden tres extrado de esta matriz ha de tener determinante

2 x x 2 + x 3 = 0
nulo, de donde obtenemos: 1 , que son las ecuaciones cartesianas
x4 = 0

de V.

Si hacemos

x2 = 2 x1 + x3

y tomamos como parmetros

x1 = t, x3 = s, x4 = 0

resultan las ecuaciones paramtricas del subespacio V:

x1 = t

x 2 = 2t + s
,s,t R
x3 = s
x4 = 0

donde t y s son los parmetros. Luego hay dos parmetros libres, que es la
dimensin del subespacio.
II. Espacios Vectoriales 70

2.7. OPERACIONES CON SUBESPACIOS VECTORIALES

2.7.1. Interseccin de subespacios vectoriales.

Proposicin. Sean F y G dos subespacios vectoriales de E (espacio vectorial sobre el


cuerpo K ). Entonces la interseccin F G es otro subespacio vectorial de E.

Demostracin. Para demostrar que F G es subespacio vectorial veremos que es estable


para la suma y para el producto por un escalar, dado que la condicin 0 F G se
cumple (pues 0 F y 0 G por ser espacios vectoriales).

I) x,y F G, x + y F G?.
Sean x,y F G, entonces

x F G x F y x G

y F G y F y y G

luego

x,y F, y como F es subespacio, x+y F

adems

x,y G, y como G es subespacio, x+y G

de donde

x+y F G
II) K x F G x F G?.

Sea x F G y sea K , de donde

x F, y como F es subespacio vectorial x F


xFG x F G
x G, y como G es subespacio vectorial x G

Luego F G es subespacio vectorial.


II. Espacios Vectoriales 71

Este resultado se puede generalizar a un nmero cualquiera de subespacios; es decir:


dados n subespacios vectoriales del espacio vectorial E, sean stos F1, F2, ..., Fn, la
interseccin de ellos F1 F2 Fn es tambin subespacio vectorial de E.

Observacin. La interseccin de subespacios vectoriales nunca puede ser vaca, pues,


como se ha visto, el vector 0 siempre pertenece a F G.

En el caso de que F G = {0} se dice que F y G son subespacios vectoriales disjuntos.

2.7.2. Suma de subespacios vectoriales.

Sean F y G dos subespacios vectoriales de E, espacio vectorial sobre K . Por definicin,


se llama suma de los subespacios vectoriales F y G a un subconjunto de E que
denotaremos por F+G, y tal que

F+G = { z = x + y E / x F y G }

donde + es la suma de vectores definida en E.

Proposicin. F+G es un subespacio vectorial de E.

Demostracin. Veamos que se cumple la condicin necesaria y suficiente.

El vector 0 F+G, dado que puede escribirse como suma de 0+0, siendo 0 de F y 0 de
G.

I) z,t F+G z + t F+G?.

Sea z = x1 + y 1 / x1 F, y 1 G x1 + x 2 F
z + t = (x1 + x 2 ) + (y 1 + y 2 ) /
sea t = x 2 + y 2 / x 2 F, y 2 G y1 + y 2 G

z + t F + G

II) K z F+G z F+G?.

Sea z = x + y / x F y G
z = x + y donde x F y G
sea K
II. Espacios Vectoriales 72

z F+G.

En general, todo vector de un subespacio suma F+G se podr descomponer de infinitas


formas como suma de vectores de los dos subespacios F y G que lo generan.

Observaciones. a) F G no tiene por qu ser un subespacio vectorial.

b) Adems, en general la suma F+G es distinta a la unin F G.

Por ejemplo: En el espacio vectorial E de las matrices 2x2, consideremos los subespacios
F y G de matrices triangulares superiores e inferiores respectivamente. Entonces, F G
es el conjunto de todas las matrices triangulares; sin embargo F+G = E. Luego es claro
que F G es distinto de F+G = E.

c) Se cumple que F G F+G, como fcilmente puede deducirse.

Definicin. Sean F y G dos subespacios vectoriales de un espacio vectorial E. Se dice


que los subespacios vectoriales F y G son subespacios suplementarios respecto de E si:

E = F+G

F G = {0}

En este caso se dice que E es suma directa de los subespacios F y G y se denota E=FG.

Proposicin. Sean F y G dos subespacios vectoriales de un espacio vectorial E. Si


E=FG , todo vector z perteneciente de E se expresa de forma nica como suma de un
vector de F y otro vector de G, es decir

z = x + y / x F y G siendo x e y nicos.

Demostracin. Supongamos que dado z E admite dos representaciones de la forma

z = x 1 + y 1 = x2 + y 2 / x1, x2 F y1,y2 G
Por ser

x1 + y 1 = x 2 + y 2 x1 - x 2 = y 2 - y 1

donde x1 - x2 F , y2 - y1 G ; y por ser iguales


II. Espacios Vectoriales 73

x1 - x 2 = y 2 - y 1 F G
Al ser E = FG suma directa, F G = {0}, luego

x1 - x 2 = y 2 - y 1 = 0

de donde

x1 = x 2
y1 = y 2

Por tanto, la representacin z = x + y es nica.

Ejemplo.

Si E es el espacio vectorial de las matrices cuadradas de orden n entonces E = ST,


siendo S el subespacio de las matrices simtricas y T el formado por las matrices
antisimtricas.

Sin embargo, si S es el conjunto de matrices triangulares superiores de orden n y T el


de triangulares inferiores, E ST ya que S T {0} .

2.7.3. Dimensin de la suma de subespacios.

Es fcil probar que dados dos subespacios vectoriales F y G de E, espacio vectorial sobre
K de dimensin finita, se cumple que

dim ( F+G ) = dim F + dim G - dim ( F G )

En el caso de que F y G sean subespacios suplementarios, F G = {0}, luego


dim ( F G ) = 0, con lo que

dim ( F+G) = dim F + dim G

Nota. La unin de bases respectivas de F y G es sistema de generadores de F+G.


Eliminando de ella los vectores que son linealmente dependientes de los dems se
obtiene una base de F+G.
II. Espacios Vectoriales 74

2.8. DEFINICIN DE NORMAS. EJEMPLOS DE NORMAS.

Definicin. Sea E un espacio vectorial real. Se llama norma sobre E, a una aplicacin

: E R+

x x

tal que a cada vector x de E le asigna un nmero real no negativo, llamado norma de x
que se denota x , y que verifica los siguientes axiomas:

(a) x 0, x E x =0 x=0

(b) x = x , R x E , donde representa el valor absoluto

de .

(c) x + y x + y , x, y E (desigualdad triangular).

La tercera condicin, (c) se denomina desigualdad triangular porque es una


generalizacin del hecho de que la longitud de cualquier lado de un tringulo es menor o
igual que la suma de las longitudes de los otros dos lados.

Definicin. El par (E, ) se le denomina Espacio Vectorial Normado.

En E = R n , habitualmente se utilizan las siguientes normas:

n
Norma del valor absoluto: x 1
= x1 + x 2 + ... + x n = x
i =1
i

(x )
n

x
12
Norma eucldea: x 2
= 2
1 + x 22 + ... + x n2 = 2
i
i =1

Norma del supremo: x


= max { x1 , x 2 , ... , x n }
II. Espacios Vectoriales 75

Ejemplo.

5

Sea x = 3 . Entonces
2

x 1
= -5 + 3 + -2 = 10

( (-5) )
12
x 2
= 2
+ (3)2 + (-2) 2 = 381/2

x
= max { -5 , 3 , -2 }=5.

Puesto que las normas miden la magnitud de los vectores, proporcionan la herramienta
para describir precisamente lo que queremos decir, por ejemplo, al hablar de que una
sucesin de vectores xi tiende a 0; queremos decir que xi tienden a 0.

Definicin. Si (E, ) es un espacio vectorial normado, puede definirse una aplicacin

d : ExE R+

(x,y) d (x,y) = x y

Que verifica los axiomas correspondientes que hacen de d una distancia definida sobre E,
que se denomina distancia inducida por la norma .

Si E = R n , las distancias inducidas por las tres normas vistas son:

n
d1 ( x , y ) = x y 1
=
i =1
x i yi

n
d2 ( x , y ) = x y 2
= (x
i =1
i yi ) 2 ( distancia eucldea )

d ( x , y ) = x y
= max { x1 y1 , x 2 y2 , ... , x n y n }.
II. Espacios Vectoriales 76
II. Espacios Vectoriales 77

EJERCICIOS TEMA 2

1.- Se considera el conjunto de todos los polinomios de grado menor o igual que n, en
variable real x, n = { p(x) = a n x n + a n-1x n 1 + ... + a1x + a 0 / ai }. Demostrar que

n es espacio vectorial real con las operaciones:

p(x) = a n x n + a n-1x n 1 + ... + a1x + a 0


suma de polinomios:
q(x) = bn x n + b n-1x n 1 + ... + b1x+b0

p(x) + q(x) = (an+bn) xn + (an-1+bn-1) xn-1 + ... + (a1+b1) x + (a0+b0) n

producto de un polinomio por un escalar:


p(x) = (an) xn + (an-1) xn-1 + ... + (a1) x + a0 .

2.- Indicar cules de los siguientes subconjuntos de R 4 son subespacios vectoriales:

x1 x1 a

x2 x2 b
a) U = / x1 + x2 + x3 = 1 b) V = / x1 N c) W = / a + b = 0 .

x3
x3
0

x4
x4

0

3.- Sea V= E nxn (K ) el espacio vectorial de todas las matrices cuadradas de orden n sobre

el cuerpo K . Estudiar si los siguientes subconjuntos son subespacios vectoriales de V:

a) W= {A E nxn (K ) / A = A t }

b) U= {A E nxn (K ) / AT=TA} , siendo T una matriz dada.

4.- En el espacio vectorial real de de todos los polinomios de grado menor o igual que 3,
en x, 3 se consideran los conjuntos U y V:

U= {p(x) = a+bx+cx 2 / a,b,c R} V= {p(x) = a+bx+cx 2 +dx 3 / p(1) = 1} .

Son U y V subespacios vectoriales?.


II. Espacios Vectoriales 78

5- Sea V= E 2x 2 (R) el espacio vectorial de todas las matrices cuadradas de orden 2 sobre

el cuerpo R . Estudiar si los siguientes subconjuntos son subespacios vectoriales de V:

a) W= {A E 2x2 (R) / A = 0} b) U= {A E 2x2 (R) / A = A 2 } .

3 1

9 2
6.- Determinar si el vector v = pertenece al subespacio generado por u1 = ,
4 0

2 3
2 2

3 1
u2 = y u3 = .
0 2

1 1

3 1 1 1
7.- Escribir la matriz E = como combinacin lineal de las matrices A = ,
1 1 1 0
0 0 0 2
B= y C= .
1 1 0 1

8.- Escribir el polinomio v = x 2 + 4x 3 como una combinacin lineal de los polinomios


e1 = x 2 2x + 5 , e 2 = 2x 2 3x y e3 = x + 3 .

9.- Para qu valores de dejan de formar base de R3 los vectores:

0

1 , 3 1 , 1 ?.
2 0

10.- Sea V= E 2x2 (R) el espacio vectorial de todas las matrices cuadradas de orden 2 sobre
2 3
el cuerpo R . Hallar las coordenadas de la matriz A = V en la base
4 7
1 1 0 1 1 1 1 0
B= , , , .
1 1 1 0 0 0 0 0
II. Espacios Vectoriales 79

11.- En R3 se consideran las bases B= {e1 , e2 , e3 } y B= { v1 , v 2 , v 3 } siendo:

v1 = 2e1

v 2 = e 2 + 2e3 .
v = 3e3
3

Hallar las coordenadas del vector 4e1 + e 2 5e3 en la base B.

1

1
12.- Dado el vector u, cuyas coordenadas en la base B = {e1 , e 2 , e3 , e 4 } son , calcular
0

1
sus coordenadas en la base B = {e1 , e2 , e3 , e4 } , relacionada con la anterior por las

siguientes ecuaciones:

e1 = e1 + e 2

e2 = e3
.
e3 = e2 + e4
e4 = e 2 e3

13.- En R3 se considera la base B= {e1 , e2 , e3 }

i) Demostrar que el conjunto S= {e1 + e2 , e1 + e 2 + e3 } es linealmente independiente.

1

ii) Sea x un vector cuyas coordenadas en la base B son 1 .Completar S para formar una
2

1

base B en la que las coordenadas de x sean 1 .
1

II. Espacios Vectoriales 80

14.- En el espacio vectorial real de todos los polinomios en x de grado menor o igual

que 3, 3 { 1
}
se considera el subespacio F= p(x) = a+bx+cx 2 +dx 3 / p(x) dx = 0 . Hallar
0

una base de F y completarla hasta formar una base de 3 .

15.- Sea V= E 2x2 (R) el espacio vectorial de todas las matrices cuadradas de orden 2 sobre

el cuerpo R y sea W el subespacio generado por


1 5 1 1 2 4 1 7
, , , . Hallar la dimensin y una base de W.
4 2 1 5 5 7 5 1

16.- En V= E 2x2 (R ) el espacio vectorial de todas las matrices cuadradas de orden 2 reales

-a 0
se considera el subconjunto N= A = / a, b R .
b a+ b

i) Demostrar que N es un subespacio vectorial de V.

ii) Hallar la dimensin y una base de N.

17.- En el espacio vectorial real de de todos los polinomios en x de grado menor o igual
que 3, 3 , hallar la dimensin y una base de los siguientes subespacios:

a) S = {p(x) = a+ bx+ cx 2 + dx 3 / p(0) = p(1) = 0} .

b) U= {p(x) = a+ bx+ cx 2 + dx 3 / p(0) = 0} .

c) V= {p(x) = a+ bx+ cx 2 + dx 3 / p'(x) = 0 x R} .

d) W= {p(x) = a+ bx+ cx 2 + dx 3 / p(x) = p(- x) x R} .

18.- En el espacio vectorial W de las matrices simtricas reales de orden 2, se considera la


1 1 4 1 3 2
base B= , , . Hallar las coordenadas de la matriz A en la base
1 2 1 0 2 1
B en los siguientes casos:
II. Espacios Vectoriales 81

1 5 1 2
i) A= ii) A= .
5 5 2 4

19.- En el espacio vectorial real de de todos los polinomios en x de grado menor o igual
e1 = x 2 1

que 2, 2 se considera el subespacio M generado por e 2 = x + 1 . Hallar una base

e3 = x 7 x 10
2

de 2 que contenga una base de M.

1 2 3

2 4 6
20.- Demostrar que el subespacio generado por u1 = , u2 = y u3 = y el
1 1 3

3 2 7
1 2

2 4
generado por v1 = y v 2 = son iguales.
4 5

11 14

2 1 0

21.- Dados los vectores x = 2 , y = 2 , z = 6 . Hallar la dimensin, las ecuaciones
1 1
0
cartesianas y las ecuaciones paramtricas del subespacio que generan.

22.- Indicar si las siguientes afirmaciones son verdadera o falsas:

Si E es un espacio vectorial de dimensin 4 y F es un subespacio vectorial de E de


dimensin 3, entonces:

a) F tiene 3 ecuaciones paramricas.

b) F tiene 3 ecuaciones cartesianas independientes.

c) F tiene 1 ecuacin paramtricas.


II. Espacios Vectoriales 82

d) F tiene 1 ecuacin cartesiana independiente.

23.- Hallar las ecuaciones implcitas y paramtricas del subespacio F de R 4 ,


1 1 2

1 0 0
F= Span , , .
1 1 0
1 0 2

24.- Se considera en R 4 el subespacio W cuyas ecuaciones en la base B= {u1 , u 2 , u3 , u 4 }

x1 + x2 x3 = 0
son: . Se elige como nueva base B= {u1 u 2 , u 2 u3 , u3 u 4 , u 4 } .
x1 + x2 + x3 + x4 = 0

i) Cules son las ecuaciones de W en la nueva base B?.

ii) El vector v = u1 u 2 qu coordenadas tiene en la base B?y en la base B?.

iii) Pertenece el vector v al subespacio W?.

25.- Se considera en R 4 la base B= {u1 , u 2 , u3 , u 4 } y los subespacios:

0 x1

0 x 2
V= + / , R y W = / x1 + x 2 + x 3 = 0 .
0 0 x 3
0 x 4

a) Hallar la dimensin, una base y las ecuaciones del subespacio V W .

b) Hallar la dimensin, una base y las ecuaciones del subespacio V + W .

c) Hallar los valores de a, b, c y d para que la ecuacin de W en la base


B= {u1 = u1 u 2 , u2 = u 2 , u3 = u 4 , u4 = a u1 + b u 2 + c u 3 + d u 4 } sea x 2 = 0 .

26.- Se consideran los subespacios de R 4


II. Espacios Vectoriales 83

a a

b b
U= / b+ c+ d = 0 y W= / a+ b = 0 c = 2 d .

c
c
d d

Hallar la dimensin y una base de:

i) U. ii) W. iii) U W. iv) U+W.

27.- Si U y W son dos subespacios de V, siendo dim(U)=4, dim(W)=5 y dim(V)=7.


Hallar la posible dimensin de U W.

28.- Sea V= E nxn (K ) el espacio el espacio vectorial de todas las matrices cuadradas de

orden n sobre el cuerpo K . Se considera U el subespacio de las matrices triangulares


superiores y W el subespacio de las matrices triangulares inferiores. Hallar U+W y
U W.

29.- En V= E 3x 3 (R ) , el espacio vectorial de todas las matrices cuadradas de orden 3 reales

a b c

se considera el conjunto U = 0 a+ c 0 / a, b, c R .
c b a

i) Comprobar que U es subespacio vectorial de V.

ii) Hallar la dimensin y la base de U.

iii) Sea W el subespacio de las matrices simtricas de orden 3. Hallar el


subespacio U+W y el U W.

30.- En el espacio vectorial real de todos los polinomios en x de grado


menor o igual que 3, 3 se consideran B= {e1 = 1, e2 = x, e3 = x 2 , e 4 = x 3 } y

B= {e1 = 1, e2 = x+ a, e3 = (x+ a)2 , e4 = (x+ a)3 } (a fijo). Se pide:


II. Espacios Vectoriales 84

a) Demostrar que B es base y hallar la matriz de paso de B a B.

b) Hallar las ecuaciones implcitas de los subespacios:

U= Span {x 3 + 2 x 2 - x+1, 2 x 3 + x 2 + 5, x 3 - x 2 + x 1} y

V= {x 3 + ( + ) x + / , R}

en la base B.

c) Hallar una base de U V y otra de U+V.

d) Hallar las ecuaciones implcitas de U y las de V en B para a=1.

31.- Sea V= Enxn (K ) el espacio el espacio vectorial de todas las matrices cuadradas de

orden n sobre el cuerpo K . Sea U el subespacio de las matrices simtricas y W el


subespacio de las matrices antisimtricas. Hallar U+W y U W.

32.- Sean U y V dos subespacios vectoriales de un espacio vectorial E de dimensin finita


n, tales que E=U V. Indicar si las siguientes afirmaciones son verdaderas o falsas:

a) U+V=E y U V= {0} .

b) x E y U z V / x = y + z siendo y y z nicos .

c) x E y U z V / x = y + z siendo y y z no nicos .

d) U y V son suplementarios.

e) dim(U+V)=dim(U)+dim(V).

f) dim(U)+dim(V)=0.
II. Espacios Vectoriales 85

33.- Sea E un espacio vectorial de dimensin finita n, y sean U y V dos subespacios de E


n n
tales que dim(U)> y dim(V) > . Son U y V subespacios suplementarios? Razona la
2 2
respuesta.

34.- Sea C [ a, b ] = {f : [ a, b ] R / f continua} , y sean x1 , x 2 ,..., x m m puntos (fijos) de

[ a, b] . Se considera la aplicacin: : C [ a, b ] R / f = f(x1 ) + f(x 2 ) + ... + f(x m ) . Es

esta aplicacin una norma? Indicar que axiomas fallan.

35.- Sea C [ 0,1] = {f : [ 0,1] R / f continua} . Se considera la aplicacin:

: C [ 0,1] R / f
= max x[0,1] f(x) . Es esta aplicacin una norma? Indicar que

axiomas fallan.

36.- Indicar si las aplicaciones siguientes son normas:

a) 1 : E nxn ( R ) R / A 1 = det(A).

{ }
b) 2 : E nxn ( R ) R / A 2 = nmax a ij / i, j = 1, 2,..., n .
II. Espacios Vectoriales 86

SOLUCIONES EJERCICIOS TEMA 2

2.- a) U no es sub. vec. b) V no es sub. vec. c) W s es sub. vec.

3.- Los dos conjuntos son subespacios vectoriales de V.

4.- U s es subespacio vectorial y V no lo es.

5.- Ninguno de los dos conjuntos es subespacio vectorial de V.

3

9
6.- v = =1 u1 +3 u 2 -2 u3 , luego s pertenece.
4

2

3 1
7.- E = = 3A- 2 B- C .
1 -1

8.- v = x 2 + 4 x 3 = 3e1 + 2e 2 + 4e3

4
9.- Para = 0, = 1 y = dejan de formar base los vectores de R3
3
0

1 , 3 1 , 1 .
2 0

7

2 3 11
10.- CB = .
4 7 21

30

2

11.- CB' (4e1 + e 2 5e3 ) = 1 .
1

II. Espacios Vectoriales 87

1

1
12.- CB' (u) = .
1

1

13.- ii) B= {e1 + e 2 , e1 + e2 + e3 , e1 3e 2 + e3 }

1 1 1 1 1 1
14.- Base de F= x , x 2 , x 3 . Base de 3 = 1, x , x 2 , x 3 .
2 3 4 2 3 4

1 5 1 1
15.- La dimensin de W es 2 y una base de W es , .
4 2 1 5

1 0 0 0
16.- ii) La dimensin de N es 2 y una base de N es , 1 1 .
0 1

17.- a) La dimensin de S es 2 y una base de S es BS = {x 3 x, x 2 x} .

b) La dimensin de U es 3 y una base de U es BU = {x, x 2 , x 3 } .

c) La dimensin de V es 1 y una base de V es BV = {1} .

d) La dimensin de W es 2 y una base de W es BW = {1, x 2 } .

2 3
1 5 1 2
18.- i) CB = 1 ii) A= CB = 1 .
5 5 1 2 4 2

19.- M coincide con 2 , luego cualquier base de 2 contiene una base de M, por ejemplo

{1, x, x } .
2

21.- La dimensin de subespacio es 2, su ecuacin cartesiana es 2 x1 + x 2 + 6 x 3 = 0 y sus

x1 = s

ecuaciones paramtricas x 2 = 2s 6 t , t,s R .
x = t
1
II. Espacios Vectoriales 88

22.- a) F; b) F, c) F, d) V.

23.- Ecuacin implcita de F: x1 x 2 + x 3 x 4 = 0 y ecuaciones paramtricas de

x1 = r
x = s

F: 2 r,s, t R .
x3 = t
x 4 = r s+ t

2 x x = 0
24.- i) Ecuaciones de W en B: 2 3 .
x4 = 0

1 1

1 0
ii) CB ( v ) = C B (u1 u 2 ) = , CB' ( v ) = C B' (u1 u 2 ) = .
0 0

0 0

iii) S pertenece.

x2 x1 = 0

25.-a) V W : dim( V W )=1, BV W = {u 4 } , ecuaciones de V W: x3 = 0 .
x + x + x = 0
1 2 3

b) V + W : dim( V + W )=4, BV + W {u1 , u 2 , u3 , u 4 } , no tiene ecuaciones.

c) a+b+c=0, d cualquiera.

1 0 0 1 0

0 1 1 1 0
26.- i) dim(U)=3, BU = , , , ii) dim(W)=2, BW = , ,
0 1 0 0 2
0 0 1 0 1

3 1 0 0 0

3 0 1 0 0
iii) dim(U W)=1, BU W = , iv) dim(U+W)=4, BU +W = , , , .
2 0 0 1 0
1 0 0 0 1

27.- 2 dim(U W) 4.
II. Espacios Vectoriales 89

28.- U+W= V= E nxn (K ) y U W es el subespacio de las matrices diagonales.

1 0 0 0 1 0 0 0 1

29.- ii) Dim(U)=3 y BU = 0 1 0 , 0 0 0 , 0 1 0 .
0 0 1 0 1 0 1 0 0

1 0 0 0 0 1

iii) Dim(U W)=2, BU W = 0 1 0 , 0 1 0 .
0 0 1 1 0 0

Dim(U+W)=7,
0 1 0 1 0 0 0 1 0 0 0 1 0 0 0 0 0 0 0 0 0

BU+W = 0 0 0 , 0 0 0 , 1 0 0 , 0 0 0 , 0 1 0 0 0 1 0 0 0
0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 1

1 a a 2 a3

0 1 2a 3a 2
30.- a) P = .
0 0 1 3a

0 0 0 1

b) Ecuacin implcita de U en la base B: 3a1 + 2 a 2 a 3 = 0 ; ecuaciones implcitas

a + a a = 0
de V en la base B: 0 1 3 .
a 2 = 0

c) Base de U V= {2 + x + 3 x3 } ; base de U+V cualquier base de P3 .

d) Ecuacin implcita de U en la base B: 3a1 + 8a 2 +14 a 3 = 0 ; ecuaciones

a 0 + a 2 + a 3 = 0
implcitas de V en la base B: .
a 2 + 3a 3 = 0

31.- U+W = V= E nxn (K ) y U W es el espacio nulo.

32.- a) V. b) V. c) F. d) V. e) V. f) F.
II. Espacios Vectoriales 90

33.- No pueden ser subespacios suplementarios, ya que si lo fueran la dimensin del


subespacio suma de ambos sera mayor que n.

34.-No es una norma. Falla el axioma 2.

35.- S es una norma.

36.- a) 1 : E nxn ( R ) R / A 1 = det(A). No es norma. Fallan los axiomas 1,2,3 y 4

{ }
b) 2 : E nxn ( R ) R / A 2 = nmax a ij / i, j = 1, 2,..., n , s es norma.
Tema 3

ESPACIOS CON PRODUCTO ESCALAR

3.1. ESPACIOS EUCLDEOS

Definicin. Sea E un espacio vectorial real. Se llama producto escalar a toda aplicacin
de E x E en :

ExE
(x, y) < x,y >
verificando:

41. < x,x > 0 "x E < x,x > = 0 x = 0 (Positividad).

42. < x,y > = < y,x > " x, y E (Simetra).

43. < x, (ay+bz) > = a< x,y > + b< x,z > " x,y,z E " a, b

(Bilinealidad).

Al espacio vectorial real dotado de un producto escalar se le llama espacio eucldeo.

Para denotar el producto escalar de dos vectores x e y, adems de < x,y > se suele poner
tambin x y o ( x | y ).

Ejemplos.

1. El producto escalar usual entre los vectores libres del espacio, definido de forma
 
que dados dos vectores libres u y v , les asocia el producto de sus mdulos por el
coseno del ngulo que forman,

     
< u, v > = u v cos ( u , v )
III. Espacios con producto escalar 92

cumple los axiomas de producto escalar.

2. La aplicacin de n x n que a dos n-tuplas de n

Fx I Fy I
GG x JJ GG y JJ
1 1

2 2
y asocia < x,y > = x1 y1 + x2 y2 + ... +xn yn
GG ... JJ GG ... JJ
Hx K
n Hy K
n

es un producto escalar, que se denomina producto escalar usual en n.

3. En el espacio vectorial de las funciones continuas definidas en un intervalo [a,b],


C[a,b], la aplicacin de C[a,b]xC[a,b] que asocia a cada par de funciones la
integral siguiente:

b
< f , g >= f (x) g(x) dx
a

es tambin producto escalar.

3.2. PROPIEDADES DEL PRODUCTO ESCALAR. DESIGUALDAD DE


SCHWARZ.

Sea E un espacio vectorial en el que se ha definido un producto escalar. Entonces:

1. " y E: < 0,y > = < y,0 > = 0.

Demostracin.

" x,y E < x,y > = < (x+0) , y > = < x,y > + < 0,y > < 0,y > = 0 " y E.

2. Si " y E < x,y > = 0 x = 0.

Demostracin.

Si " y E < x,y > = 0 como x E, < x,x > = 0 x = 0.

3. x, y E : < x , y > <x,x> <y,y > (Desigualdad de Schwarz).


III. Espacios con producto escalar 93

Demostracin. Si x o y son el vector 0, la desigualdad se cumple trivialmente. Se har,


pues, la demostracin suponiendo que ambos son no nulos. Si se considera el vector z
< x, y >
de E, z = x y , se tiene:
< y, y >

0 < z, z > = x <x,y > y x <x,y > y =


< y ,y > < y ,y >


< x, y > < x, y > < x, y > < x, y >
= < x, x > - < x, y > - < y, x > + < y, y > =
< y, y > < y, y > < y, y > < y, y >

< x, y > < x, y >< x, y >


= < x, x > - < y , x > = < x, x > - 0
< y, y > < y, y >

Teniendo en cuenta que < y , x > = < x , y >, se tiene

< x, y > 2 < x, x > < y , y > < x, y > < x, x > < y , y >

3.3. NORMA INDUCIDA POR UN PRODUCTO ESCALAR.

Proposicin. Sea E un espacio vectorial real dotado de un producto escalar. La


aplicacin de E en que a cada elemento del espacio eucldeo x le asocia el escalar
+ <x,x > es una norma sobre E, que se denomina norma asociada al producto escalar
< x , y >.

Demostracin. Se comprueba fcilmente que dicha aplicacin cumple los axiomas de


norma:

1. x 0 xE x = 0 x=0.

La primera parte es evidente por tomarse la raz positiva siempre. Y en cuanto a la


segunda parte,

x = 0 < x, x > =0 < x , x > = 0 x = 0.

2. x = x x E

x = < x , x > = 2 < x , x > = x .


III. Espacios con producto escalar 94

3. x +y x + y x, y E

= < (x + y),(x + y) > = < x, x > + < x, y > + < y, x > + < y, y > =
2
x +y

= < x, x > + 2 < x, y > + < y, y > = x + y + 2 < x, y >


2 2

y teniendo en cuenta la desigualdad de Schwarz se cumple que:

< x, y > x y

por lo que la expresin anterior queda:

+ y = ( x + y )2
2 2 2
x+y x y + 2 x

x+y x + y .

Ejemplos.

En n , la norma inducida por el producto escalar usual

< x , y > = x1 y1 + x2 y2 + ... + xn yn

n
es: x = < x , x >1 2 = x
i=1
2
i

que es la norma eucldea de n .

Se puede definir el ngulo formado por dos vectores x e y no nulos de la forma siguiente:

Definicin. Sea E un espacio eucldeo, y sean x e y dos vectores de E no nulos. Se llama


ngulo formado por x e y al ngulo cuyo coseno es:

< x,y >


x y

Notar que por la desigualdad de Schwarz, este cociente siempre es un nmero real
comprendido entre -1 y 1.
III. Espacios con producto escalar 95

En el caso de considerar el espacio vectorial de los vectores libres, esta definicin


coincide con la de ngulo geomtrico. As, en un espacio vectorial cualquiera si x = y,
entonces el ngulo correspondiente es 0 (rad); y si < x , y > = 0, el ngulo formado
por x e y es /2.

3.4. VECTORES ORTOGONALES, NORMADOS Y ORTONORMADOS.

Definicin. Sea E un espacio vectorial eucldeo. Se dice que dos vectores x e y no nulos
de E son ortogonales si < x , y > = 0 (se denota por x ^ y).

Definicin. Sea E un espacio vectorial eucldeo. Se dice que un vector x de E es un


vector normalizado o unitario si || x || = 1.

Definicin. Sea E un espacio eucldeo, y S = {u1, u2, ...,up} un sistema de vectores de


E que no incluye al vector 0. Se dice que S es un sistema ortogonal si todos sus vectores
son ortogonales dos a dos, es decir, si <ui , uj>= 0 " i j. Si adems todos los
vectores tienen norma 1, se dice que S es un sistema ortonormado u ortonormal.

Proposicin. Sea E un espacio eucldeo, y sea S = {u1, u2, ...,up} un sistema de vectores
de E. Si S es un sistema ortogonal o, en particular, si es un sistema ortonormal, entonces
es un sistema libre.

Demostracin. Supngase que existen a1, a2, ..., ap escalares de , tales que

a1 u1 + a2 u2 + ... + ap up = 0

Si se multiplica escalarmente esta expresin por un vector uj de S, se obtiene

< a1 u1 + a2 u2 + ... + ap up , uj > = < 0 , uj > = 0

a1< u1 , uj > + a2 < u2 , uj > + ... + ap< up , uj > = aj < uj , uj > = 0 aj = 0

Pero esto es cierto para j {1,2,...,p} ,luego

a1 = a2 =...= ap = 0

Es decir, u1, u2, ...,up son linealmente independientes.


III. Espacios con producto escalar 96

Ejemplos.

1. Los vectores {( 1 0 ... 0 )T , ( 0 1 ... 0 )T , ... , ( 0 0 ... 1 )T } son una familia

ortonormada de vectores de n para el producto usual.

2. En el espacio de funciones definidas y continuas en el intervalo [-p, p]


considerando el producto escalar


< f, g > =
f (x) g(x) dx

las funciones {1, sen(x), cos(x), sen(2x), cos(2x), ..., sen(px), cos(px)} forman un
sistema ortogonal.

Existen varios mtodos para obtener bases ortogonales en un espacio de dimensin finita
n; uno de ellos es el mtodo de Gram-Schmidt, el cual se expone a continuacin.

3.5. MTODO DE ORTOGONALIZACIN DE GRAM-SCHMIDT

En este apartado se va a estudiar el mtodo de ortogonalizacin de Gram-Schmidt que


permite obtener a partir de una familia de vectores linealmente independientes una
familia ortogonal.

Sea E un espacio vectorial de dimensin finita n, y sea B = {e1, e2 ,...,en} una base de E;
a partir de ella se obtiene la base ortogonal B = { e'1 , e'2 ,..., e'n } de la forma siguiente:

e'1 = e1

e'2 = e2 + l e'1 donde l / < e'2 , e'1 > = 0 ,

e'3 = e3 + a e'2 + b e'1 donde a, b / < e'3 , e'2 >= 0 < e'3 , e'1 > = 0,

...

e'n = en + g e'n-1 + ... + y e'1 donde g,..., y / < e'n , e'k > = 0 " k = 1, 2,..., n-1

De esta forma se obtiene una base ortogonal. Si lo que se requiere es una base ortonomal
basta con tomar B* = {u1, u2,..., un }, siendo
III. Espacios con producto escalar 97

e'i
ui = para i = 1, 2 ,...,n.
e'i

Este mtodo tambin se puede aplicar para obtener una familia ortonormada a partir de
una familia de vectores linealmente independiente cualquiera.

3.6. EXPRESIN MATRICIAL DEL PRODUCTO ESCALAR. CAMBIO DE


BASE.

Sea E un espacio vectorial eucldeo de dimensin finita n y sea B = {e1 ,e2 ,...,en} una
base de E. Sean dos vectores cualesquiera x e y E que se expresan en la base B en la
forma:

x = x1 e1 + x 2 e2 + ... + x n en , y = y1 e1 + y 2 e 2 + ... + y n en

Entonces, el producto escalar de x e y puede expresarse en la forma siguiente:

< x, y > = < (x1 e1 + x 2 e 2 + ... + x n en ), (y1 e1 + y 2 e 2 + ... + y n en ) > =


= x1 y1 < e1 , e1 > + x1 y 2 < e1 , e2 > + ... + x1 y n < e1 , en > +
+ x 2 y1 < e 2 , e1 > + x 2 y 2 < e 2 , e2 > + ... + x 2 y n < e2 , en > +
+................................................................................. +
+ x n y1 < en , e1 > + x n y 2 < en , e 2 > + ... + x n y n < en , en >

< e1 ,e1 > < e1 ,e 2 > ... < e1 ,en > y1



< e 2 ,e1 > < e 2 ,e2 > ... < e 2 ,en > y 2
< x, y > = (x1 x 2 ... x n ) = x TB G B y B
... ... ... ... ...

< e n ,e 1 > < e n , e 2 > ... < en ,en > y n

donde xB e yB son las coordenadas de x e y en la base B y a GB=( < ei , e j > )nxn se la

llama matriz del producto escalar en la base B. Teniendo en cuenta la propiedad de


simetra del producto escalar se cumple que < ei , e j > = < e j , ei > y consecuentemente la

matriz GB es una matriz simtrica.

Si se considera en el espacio vectorial E otra base B = { e'1 , e'2 ,..., e'n }, siendo P la

matriz de paso de la base B a la base B, teniendo en cuenta la relacin existente entre las
III. Espacios con producto escalar 98

coordenadas de dos vectores x e y respecto a las bases B y B (xB = P xB ), y que el


producto escalar de dos vectores es un escalar que no depende de la base que se est
considerando en E, se tiene:

< x, y > = x TB G B y B = (P x B' )T G B (P y B' ) = x TB' P T G B P y B' = x TB' G B' y B'

Es decir, la matriz del producto escalar en la nueva base es:

G B' = P T G B P

y sigue teniendo por elementos los productos escalares de los vectores e'i de la base B,

< e'1 , e'1 > < e'1 , e'2 > ... < e'1 , e'n >

< e'2 , e'1 > < e'2 , e'2 > ... < e'2 , e'n >
esto es: G B' = .
... ... ... ...

< e'n , e'1 > < e'n , e'2 > ... < e'n , e'n >

Observaciones.

1. Las matrices asociadas a un producto escalar en bases distintas verifican la


relacin G B' = P T G B P . Dos matrices A y B verificando la relacin

B = P T A P , siendo P una matriz regular se dice que son matrices congruentes.


Por tanto, las matrices asociadas a un producto escalar en bases distintas son todas
congruentes.

2. El producto escalar es indispensable para manejar longitudes y ngulos; por ello,


interesa conseguir que su expresin analtica, en coordenadas, sea lo ms simple
posible. Dicho de otro modo, interesa que la matriz sea cuanto ms sencilla mejor.
Esto se conseguir, por ejemplo, trabajando con bases ortogonales, en las cuales
la matriz del producto escalar asociada es diagonal. Si la base es ortonormada,
entonces, la matriz del producto escalar en ella es la matriz identidad I n .

3. Las matrices G asociadas a un producto escalar son todas regulares, pues segn
se ha comentado en las observaciones anteriores, todas son congruentes con la
matriz identidad, es decir, pueden expresarse en la forma G = P T I n P , entonces
III. Espacios con producto escalar 99

tomando determinantes en esta expresin, se deduce trivialmente que |G|0, por


ser P una matriz regular.

4. Por la positividad del producto escalar sabemos que se cumple <x,x> > 0 "x E,
x0, lo que significa, teniendo en cuenta la expresin matricial que acabamos de
establecer, que:

x TB G B x B > 0 para todo vector x no nulo.

Las matrices simtricas G que cumplen esta relacin reciben el nombres de


definidas positivas. Se dispone del siguiente criterio de carcter prctico, conocido
como Criterio de Sylvester, para averiguar si una matriz G=(gij)i,j simtrica es
definida positiva: Sean i los determinantes de la misma:

g11 g1i
i =
g i1 g ii

Entonces, se verifica que G es definida positiva 1 > 0, 2 > 0,..., n > 0 . En

particular, g11 > 0 y det G > 0, ya que: g11 = 1 y det G = n . Obviamente,

tambin sern positivos todos los elementos de la diagonal principal de G: g22 > 0,
, gnn > 0, ya que representan los productos escalares < ei , ei > .

3.7. SUBESPACIO ORTOGONAL DE UN SUBESPACIO VECTORIAL.

Sea E un espacio vectorial eucldeo.

Definicin. Se dice que dos subespacios U y V de E son ortogonales si cualquier vector


de uno de ellos es ortogonal a todos los vectores del otro, es decir si:

" xU " yV < x , y > = 0 (Se denota U ^ V).

Teorema. Dado un subespacio U de E el conjunto de todos los vectores de E que son


ortogonales a U, es decir, el conjunto:
III. Espacios con producto escalar 100

U^ = U* = {x E/ < x, y >= 0 y U}

es el mayor de los subespacios de E que son ortogonales a U y se verifica que


U U^ = {0}. Se dice que U^ es el subespacio ortogonal de U.

Demostracin.

1. El conjunto U^ es subespacio vectorial de E, ya que U^ , pues al menos el vector


nulo pertenece a l y, como demostraremos a continuacin, es estable para la suma y para
el producto por un escalar. En efecto, " x, y U^, " a, b y para cualquier z U
se verifica:

< ( x + y ), z >= < x, z > + < y , z >= 0 + 0 = 0 x + y U^

2. La interseccin U U^ = {0}, ya que si x U U^ < x, x > = 0 x = 0 por la


positividad del producto escalar.

Ejemplos.

1. En el espacio de los vectores libres del espacio de dimensin 3, los ejes X y Y son
ortogonales entre s, pero el subespacio ortogonal del eje X es todo el plano YZ,
es decir, el plano de ecuacin x=0.

2. En el espacio eucldeo 3 con el producto escalar usual, se considera el sub-


espacio U={(x 0 0)t / x }. El subespacio ortogonal de U es el subespacio
formado por todos los vectores de la forma U^ ={(0 y 0)t, (0 0 z)t / y, z },
es decir, de ecuacin x=0.

3. En el espacio eucldeo 4 con el producto escalar usual, se considera el


subespacio U={(a a b b)t / a, b }. El subespacio ortogonal de U es el
subespacio formado por todos los vectores de la forma U^ ={(a -a b -b)t / a,
b }.
III. Espacios con producto escalar 101

EJERCICIOS TEMA 3

1. En el espacio vectorial 3 referido a la base cannica {e1 , e2 , e 3 } se define el producto

3 1 0

escalar por la matriz G B = 1 2 0 .
0 0 1

a) Demostrar que 3 es un espacio vectorial eucldeo.
b) Calcular la norma del vector e1 + e 3 .

c) Construir una base ortonormal del subespacio U = {( x }


y z ) 3 / y = 0 .
t

d) Demostrar que los vectores

{x = ( a b c ) / a =< x, e1 >, b =< x, e2 >, c =< x, e3 >


t
} forman un subespacio

vectorial de 3 y dar una base del mismo.

2. En un espacio vectorial eucldeo bidimensional, el producto escalar de dos vectores

x B = (x1 x 2 )t e y B = (y1 y 2 ) t referidos a la base B = {e1 , e2 } viene definido por:

< x, y >= 4x1y1 + x1 y2 + x 2 y1 + x 2 y2

a) Demostrar que esta expresin define un producto escalar.


b) Hallar la matriz G que caracteriza al producto escalar en la base B , G B , y las

normas y los ngulos que forman los vectores de dicha base B .


c) Obtener la matriz del producto escalar referida a la nueva base B ' ,

{ }
G B' , siendo B ' = u1 = ( 2 0 ) , u 2 = ( 0 3 / 2 ) , donde los vectores u1 y u 2
t t

estn referidos a la base B.

d) Sean x = (1 1)t e y = (1 2) t dos vectores referidos a B. Hallar

< x, y > segn sus expresiones en las bases B y B ' .

3. a) Demostrar que en el espacio vectorial de las funciones reales x(t) continuas en el


1
intervalo [-1,1], la expresin < x, y >= t 2 x(t) y(t)dt define un producto escalar.
1
III. Espacios con producto escalar 102

b) Hallar el ngulo formado por los vectores x(t) = 1 e y(t) = t .


c) Obtener el valor de a para el que los vectores x(t) = t + a e y(t) = t a sean
ortogonales.
d) Ortonormalizar el conjunto { 1, t, t 2 }.

1 1 1

4. Sea G = 1 2 2 la matriz que define el producto escalar en la base
1 2 3

B = {u1, u 2 , u 3 } de un espacio eucldeo.

a) Calcular las normas de los vectores de la base B.


b) Calcular los cosenos de los ngulos que forman entre s los vectores de la base
B.

5. Sea E un espacio vectorial eucldeo tridimensional y sea B = {e1 , e2 , e3 } una base del

mismo tal que si u = e1 + 2e 2 se tiene:

< u, u >= 14 e1 y e3 son ortogonales.

1
< u, e1 >= 4 cos ( e2 , e 3 ) =
6
< e1, e1 >=< e2, e2 > < e 3, e 3 >= 3

a) Obtener la expresin del producto escalar en la base B.


b) Ortonormalizar la base B utilizando el mtodo de ortogonalizacin de Gram-
Schmidt.
c) Calcular la matriz de paso de la base B a la base ortonormal B ' .
d) Hallar la expresin del producto escalar en la base B ' .

6. En el espacio vectorial eucldeo 3 referido a la base cannica se consideran los


subespacios:

{
S1 = u = ( x y z ) 3 / x y z = 0 2x 2y + 3z = 0
t
}
{
S2 = v = ( x y z ) 3 / x + y z = 0
t
}
III. Espacios con producto escalar 103

Hallar una base ortonormada de 3 en la que, si es posible, uno de los vectores de la


misma sea perteneciente a S1 y otro perteneciente a S2 .

7. Sea E un espacio vectorial de dimensin 3, y B = {e1 , e2 , e3 } una base de E. Se define

un producto escalar por la expresin < e i, e j >= min {4 i, 4 j } .

a) Hallar la matriz asociada en la base B, G B .

b) Construir una base ortogonal de E.

8. En un espacio vectorial E de dimensin 3 y referido a una base B = {e1 , e2 , e3 } , se

1 1 0

define un producto escalar mediante la matriz G B = 1 2 0 . Construir una base
0 0 16

ortonormal de E respecto de dicho producto escalar.

9. Sea B = {e1 , e2 , e 3 } una cierta base de un espacio eucldeo. Se sabe que:

e1 = 1, e2 = 3, e3 = 2

ang(e1 , e 2 ) = , ang(e1 , e 3 ) = , e 2 y e 3 son ortogonales
2 3

a) Hallar la matriz GB del producto escalar en la base B.

b) Comprobar que efectivamente se cumplen los axiomas de producto escalar.

c) Hallar la matriz GB del producto escalar en la base B ' = {e'1 , e'2 , e'3 } , siendo

e'1 = e1

e'2 = e1 + e 2

e'3 = e1 + e 2 + e3

10. a) Sea E un espacio vectorial real de dimensin 3 y B una base de E. Alguna de estas
matrices puede estar asociada a un producto escalar?
III. Espacios con producto escalar 104

1 2 3 1 1 1

G1 = 2 2 3 , G 2 = 1 2 2 .

3 3 3 1 2 3

b) En caso afirmativo, escribir la expresin matricial de dicho producto escalar.


Posteriormente, particularizndolo a los siguientes espacios vectoriales, calcular
el producto escalar indicado en cada caso:

i) E = P2 ( x ), BE = {1, x, x 2 }

< x 2 ,1 + 2 x >

ii) {
E = 3 , BE = e1 = (0 1 0)t , e2 = (1 0 0)t , e 3 = (0 0 1)t }
< e 3 , e 1 + 2e 2 >

a b 1 0 0 1 0 0

iii) E = E2x2 ( ) / a, b, c , BE = , ,
b c 0 0 1 0 0 1

0 0 1 2

0 1, 2 0

11. En un espacio vectorial E de dimensin 2, referido a una base B ={e1, e2 }, se define


1 2
un producto escalar mediante la matriz G = .
2 6

Sean S ={ e1 +e2, e1 -e2} dos vectores de E

a) Es S un conjunto ortogonal respecto al producto escalar anterior?. Justifica la


respuesta.

b) Empleando el mtodo de Gram-Schmidt obtener a partir de S un conjunto ortonormal.

12. En el espacio vectorial real de los polinomios de grado 2 con coeficientes reales,
3
P 2, se considera el producto escalar < p, q > = p(k) q(k) . Se pide:
k =1
III. Espacios con producto escalar 105

a) Obtener la matriz G de dicho producto escalar en la base B={1, t, t2}, as como la


expresin matricial del mismo en dicha base.
b) Calcular el ngulo formado por los polinomios p(t) = t2 +1 y q(t) = t2 1.

13. Indicar razonadamente cules de las siguientes matrices pueden estar asociadas a un
producto escalar:
1 1 0 1 0 3 1 2 4
1 1 0
A= B= 1 10 2 C= 1 4 3 D= 2 5 1

1 2 5 0 2 1 2 4 1 4 1 2

14. En el espacio vectorial 3 con el producto escalar usual, se considera el subespacio


S {(x y z)t / x + y z = 0}. Hallar su subespacio ortogonal, dando sus ecuaciones
implcitas y una base del mismo.

15. En el espacio vectorial 4 con el producto escalar usual, se consideran los vectores
a=(0 1 -1 4)t y b=(2 1 1 0)t.

a) Hallar el subespacio V 4 formado por todos los vectores que son ortogonales a
a y a b y tienen iguales sus dos ltimas componentes.

b) Hallar el subespacio ortogonal a V.


III. Espacios con producto escalar 106

SOLUCIONES EJERCICIOS TEMA 3

1
1. b) e1 + e 3 = 2 ; c) B* U = (1 0 0) t , (0 0 1) t ; d) B = {(0 0 1) t }
3

16 3
4 1
2. a) G B = ; b) e1 = 2, e 2 = 1, = ; c) G B' =
9 ; d) < x, y >= 9
1 1 3 3
4

3 3 5 5 7 2 3
3. b) = ; c) a = ; d) , t, t
2 5 2 2 2 2 5

4. a) u1 = 1, u 2 = 2, u3 = 3

2 3 6
b) cos(u1 , u 2 ) = , cos(u1 , u 3 ) = , cos(u 2 , u 3 ) =
2 3 3

2 1 0 y1

5. a) < x, y > B = (x1 x 2 x 3 )B 1 2 1 y2
0 1 3 y
B 3 B

1
t
1 2
t
1 2 3
t

b) B =
'
0 0 , 0 ,
2 6 3 21 21 7

1 1 1

2 6 21
2 2
c) P = 0
3 21
3
0 0
7

1 0 0 y1

d) < x, y > B' = (x1 x 2 x 3 )B' 0 1 0 y2 .
0 0 1 ' y '
B 3 B
III. Espacios con producto escalar 107

1 1 t
6. B'' = (1 1 0 ) , ( 1 1 0 ) , ( 0 0 1)
t t

2 2

3 2 1
1
t t
t 2
7. a) G B = 2 2 1 ; b) B' = (1 0 0 ) , 1 0 , 0 1
1 1 1 3 2

t 1
t

8. B'' = (1 0 0 ) , ( 1 1 0 ) , 0 0
t

4

1 0 1

9. a) G B = 0 9 0 .
1 0 4

1 1 2

c) G B' = 1 10 11 .
2 11 16

10. a) G1 no puede ser la matriz de un producto escalar ya que, aunque es cuadrada y


simtrica, no se cumple que todos sus menores principales son mayores que 0.
G2 s puede ser la matriz de un producto escalar ya que es cuadrada, simtrica y se
cumple que todos sus menores principales son mayores que 0.
b) < x, y > B = CB (x) t G 2 CB (y )

i) < x 2 ,1 + 2 x >= 5

ii) < e 3 , e1 + 2e2 >= 5

0 0 1 2
,
iii) = 5
0 1 2 0

11. a) S no es un conjunto ortogonal.


1 1
t
16 6
t

b) Conjunto ortonormal: ,
11 11 11 8 11 8
III. Espacios con producto escalar 108

3 6 14 3 6 14 b 0

12.- a) G= 6 14 36 , < p, q >= ( a 0 a1 a 2 ) 6 14 36 b1 , siendo
14 36 98 14 36 98 b
2
p(t) = a 0 + a1t + a 2 t 2 y q(t) = b 0 + b1t + b 2 t 2 .

95
b) = arc cos .
129 73

13. A no puede ser la matriz de un producto escalar ya que no es cuadrada.


B s puede ser la matriz de un producto escalar ya que es cuadrada, simtrica y se
cumple que todos sus menores principales son mayores que 0.
C no puede ser la matriz de un producto escalar ya que no es simtrica.
D no puede ser la matriz de un producto escalar ya que aunque s es cuadrada y
simtrica, no cumple la condicin de que todos sus menores principales son
mayores que 0, ya que D = 63 .

14. S^ = {(x y z) t / y = x, z = -x}. Base: {(1 1 -1) t}.

15. a) V= {(l -3l l l)t / l }.


b) V^ ={(x y z t) t/ x -3y + z + t = 0}.
Tema 4

APLICACIONES LINEALES

4.1. DEFINICIN DE APLICACIN LINEAL. PROPIEDADES.

Definicion: Sean E y F dos espacios vectoriales sobre el cuerpo K , de


dimensiones n y m respectivamente. Una aplicacin f de E en F que asigna a
cada vector x de E un vector f ( x ) de F

f :E F
x f ( x)
es una aplicacin o transformacin lineal si verifica las dos condiciones siguientes:
i) x, y E f ( x + y ) = f ( x) + f ( y )
ii) x E y K f ( x ) = f ( x )
La condicin i) indica que la aplicacin conserva la suma de vectores. Hay que
sealar que la suma x+y y la suma f(x)+f(y) se realizan en los espacios vectoriales
E y F respectivamente, por tanto pueden ser operaciones suma distintas. La
condicin ii) mantiene el producto por un escalar. Otra vez hay que sealar que el
producto x puede ser distinto del producto f (x) ya que estn definidos en
espacios vectoriales distintos.

Nota:
Como consecuencia inmediata de las condiciones i) y ii) se cumple:
f ( x + y ) = f ( x) + f ( y ) x, y E , K (Caracterizacin que tambin
puede utilizarse para comprobar que una aplicacin es lineal).
Por extensin, la propiedad puede generalizarse a combinaciones lineales de
cualquier nmero de sumandos. Esto es:
x1 , x2 , , x n E y 1 , 2 , , n K,
f ( 1x1 + 2 x 2 + + n xn ) = 1 f ( x1 ) + 2 f ( x 2 ) + + n f ( x n )
IV. Aplicaciones Lineales 110

Definicin:
Una aplicacin lineal de un espacio vectorial en s mismo recibe el nombre de
endomorfismo.
f :E E
x f ( x)

Ejemplos:
1. Se define la aplicacin :
f : 3 2
x1
x1 + x 2
x = x2 f ( x) =
x x3
3
Probar que f es aplicacin lineal.

Sean x = ( x1 x 3 ) e y = ( y1 y3 ) dos vectores de 3 comprobemos


t t
x2 y2

las dos condiciones i) y ii) anteriores.


i) Dado que

x + y = ( x1 x 3 ) + ( y1 y3 ) = ( x1 + y1 x 3 + y3 )
t t t
x2 y2 x 2 + y2

se tiene que:

f (x + y ) = ( x1 + y1 + x 2 + y 2 x 3 + y 3 ) = ( x1 + x 2 x 3 ) + ( y1 + y 2 y3 ) =
t t t

= f ( x) + f ( y )

x 3 y K x = ( x1 x 3 ) = ( x1 x 2 x 3 ) ,
t t
ii) x2 por

tanto,

f ( x ) = ( x1 + x 2 x 3 ) = ( x1 + x 2 x 3 ) = f ( x)
t t

2. Se define la aplicacin :
f : 3 2
x1
x1 + x 2
x = x2 f ( x) =
x x 3 +1
3
Veamos si f es una aplicacin lineal.
IV. Aplicaciones Lineales 111

x = ( x1 x3 ) e y = ( y1 y3 )
t t
Sean x2 y2 dos vectores de 3 .

Comprobemos las dos condiciones i) y ii) anteriores.


i) Dado que

x + y = ( x1 x 3 ) + ( y1 y3 ) = ( x1 + y1 x 2 + y2 x 3 + y3 )
t t t
x2 y2

f (x + y ) = ( x1 + y1 + x 2 + y 2 x 3 + y3 +1)
t
se tiene que,

Por otro lado,

f (x) + f (y ) = ( x1 + x 2 x 3 +1) + ( y1 + y 2 y3 +1) =


t t

= ( x1 + y1 + x 2 + y 2 x 3 + y3 + 2 )
t

De donde f (x + y ) f (x) + f (y ) , luego f no es lineal.

3. Sea A una matriz real de tamao m n . Probar que la siguiente aplicacin


es lineal.
f : n m
x f (x) = Ax

Sean x e y dos vectores de n y un nmero real. La comprobacin de las


dos condiciones de linealidad es directa, utilizando las propiedades de matrices
i) f (x + y ) = A(x + y ) = Ax + Ay = f (x) + f (y )
ii) f (x) = A(x) = Ax = f (x)
Por tanto, f es lineal.

4. Sea E un espacio vectorial real y B = {u1 , u 2 , , un } una base de E.

Probar que la aplicacin coordenada es lineal


f :E n
x f (x)=CB (x)
Supngase que:
x1 y1

x2 y
CB (x) = y CB (y ) = 2


xn yn
Entonces,
IV. Aplicaciones Lineales 112

x + y = ( x1u1 + x2u 2 + + xn un ) + ( y1u1 + y2 u 2 + + yn u n ) =


= ( x1 + y1 ) u1 + ( x 2 + y 2 ) u 2 + + ( x n + y n ) un

con lo que,
x1 + y1 x1 y1

x 2 + y2 x 2 y 2
CB (x + y ) = = + = C B ( x) + C B ( y )


x n + yn x n y n
es decir,
f ( x + y ) = f (x) + f ( y )
Por otro lado,
x = ( x1u1 + x 2u 2 + + x n un ) = x1u1 + x 2u 2 + + x n un

luego,
x1 x1

x x
C B ( x) = 2 = 2 = C B ( x )


x n xn
y as
f ( x) = f ( x)
En consecuencia, f es una aplicacin lineal.
Esta propiedad se sigue verificando si se cambia n por K n .

Aplicaciones lineales especiales:


1. Aplicacin Identidad I : E E / x E, I (x) = x que es claramente una
aplicacin lineal. En esta aplicacin la imagen de cada vector es l mismo.
2. Aplicacin nula: O : E F / x E, O (x) = 0 que tambin es lineal .
La aplicacin nula transforma cualquier vector del espacio vectorial E en el vector
nulo del espacio F.

Son muchos los ejemplos de aplicaciones lineales definidas entre espacios


vectoriales. As la proyeccin y la simetra respecto a cualquier eje coordenado son
tambin aplicaciones lineales (en el espacio V3 de los vectores libres).
IV. Aplicaciones Lineales 113

Propiedades de las aplicaciones lineales.


Sea f una aplicacin lineal definida entre los espacios vectoriales E y F. Entonces:
1) Si se denota por 0E el elemento neutro para la suma en E y por 0F el neutro

para la suma en F se tiene que f ( 0E ) = 0F puesto que

f ( 0E ) = f ( 0 x ) = 0 f ( x ) = 0F

Sin embargo, puede haber ms elementos de E que tengan por imagen el 0F .


Todos ellos constituirn un subespacio, que estudiaremos ms adelante y se
denomina ncleo de f.

2) Si el conjunto S = {e1 , e 2 , , ep } es linealmente dependiente, entonces el

conjunto f (S) = { f (e1 ), f (e 2 ), , f (ep )} es tambin linealmente dependiente.

Demostracin: Si el conjunto S = {e1 , e 2 , , ep } es linealmente dependiente

entonces la combinacin lineal nula


1e1 + 2e 2 + + p ep = 0E

se cumple con algn i 0 (i K) . Sea:


f (1e1 + 2e 2 + + p ep ) = f (0E ) = 0F = 1 f (e1 ) + 2 f (e 2 ) + + p f (ep )

Esto es una relacin nula de los f (ei ) con algn i 0 (i K ) . Luego,

f (S) = { f (e1 ), f (e 2 ), , f (ep )} es linealmente dependiente.

3) Si f (S) = { f (e1 ), f (e 2 ), , f (ep )} es linealmente independiente,

entonces S = {e1 , e 2 , , ep } es tambin linealmente independiente.

Demostracin: Es evidente por la propiedad anterior, ya que si S es ligado,


entonces f(S) tambin es ligado.

4) Si el conjunto S = {e1 , e 2 , , ep } es linealmente independiente, entonces el

conjunto f (S) = { f (e1 ), f (e 2 ), , f (ep )} puede ser o no linealmente

independiente.
IV. Aplicaciones Lineales 114

Ejemplo. Sea la aplicacin lineal:


f : 3 2
x1
x + x2
x = x2 f ( x) = 1
x x3
3
Consideremos el conjunto de vectores

{
B = (1 0 0 ) ,
t
(0 1 0) ,
t
(0 0 1)
t
} de 3 que es libre. Calculemos

f (B) :

{
f (B) = (1 0 ) ,
t
(1 0) ,
t
( 0 1)
T
} que es un conjunto linealmente dependiente

en 2 .

Si ahora se considera el conjunto U = (1 0 0 ) , { t


(0 0 1)
t
} de 3
se tiene

{
que f (U) = (1 0 ) ,
t
( 0 1) } es un conjunto linealmente independiente en
t
2 .

4.2. IMAGEN Y NCLEO DE UNA APLICACIN LINEAL

Definicin: Sea f una aplicacin lineal definida entre los espacios vectoriales E y
F ( f : E F ). Se llama ncleo de f al subconjunto de E

Ker f = {x E / f (x) = 0F }

es decir, Ker f es el conjunto de vectores de E, que tienen como imagen por f el


vector nulo de F.

El siguiente Teorema prueba que el ncleo de una aplicacin lineal es un


subespacio vectorial de E.

Teorema: Sea f : E F una aplicacin lineal. Entonces Ker f es un subespacio


vectorial de E.

Demostracin: Hay que comprobar las tres condiciones de subespacio vectorial.


i) El vector 0E Ker f ya que f (0E ) = 0F y por tanto, Ker f {}
IV. Aplicaciones Lineales 115

ii) x, y Ker f x + y Ker f


Sean x, y Ker f :

f ( x + y ) = f ( x) + f ( y ) = 0F + 0F = 0F x + y Ker f
f lineal xKer f , yKer f

iii) x Ker f K x Ker f

Sean x Ker f K , luego f (x) = f (x) = 0F = 0F x Ker f


f lineal xKer f

Queda as demostrado que Ker f es un subespacio vectorial de E.

Definicin: Sea f una aplicacin lineal definida entre los espacios vectoriales E y
F. Se llama imagen de f al subconjunto de F:
Im f = { f (x) F / x E}

Es decir, Im f es el subconjunto de F, formado por las imgenes, mediante f de los


vectores de E.
El siguiente Teorema prueba que la imagen de una aplicacin lineal es un
subespacio vectorial de F.

Teorema: Sea f : E F una aplicacin lineal. Entonces Im f es un subespacio


vectorial de F.

Demostracin: Hay que comprobar las tres condiciones de subespacio vectorial.


i) Puesto que f (0E ) = 0F , se tiene que Im f contiene al vector nulo y por tanto,

Im f {}

ii) y 1 , y 2 Im f y 1 + y 2 Im f

Sean y 1 , y 2 Im f . Entonces existen dos vectores x1 y x 2 en E tales que:

f ( x1 ) = y 1 f (x 2 ) = y 2

Como y 1 + y 2 = f (x1 ) + f (x 2 ) = f (x1 + x 2 ) se tiene que, y 1 + y 2 Im f , ya que


f lineal

es imagen por f del vector x1 + x 2 de E.

iii) y Im f K y Im f
Sean y Im f K , luego, existe un vector x en E tal que
y = f (x) = f (x) y Im f
f lineal

Queda as demostrado que Im f es un subespacio vectorial de F.


IV. Aplicaciones Lineales 116

Observacin. La imagen de un subespacio vectorial S de E.


f (S) = { f (x) F / x S}

es un subespacio vectorial de F.
El subespacio imagen ms importante es f(E), es decir la imagen de todo el espacio
vectorial E, que se denota, tal y como hemos visto como Im f .

Definicin: Se llama rango de una aplicacin lineal a la dimensin del subespacio


Im f:
rang f = dim f(E)= dim Im f

Teorema: Sea f : E F una aplicacin lineal. Si B = {e1 , e2 , , en } es una

base de E, entonces f (B) = { f (e1 ), f (e 2 ), , f (en )} es un conjunto

generador de f(E) (es decir, de Im f).

Demostracin: Sea x un vector arbitrario de E y B = {e1 , e2 , , en } una base

de E. Entonces, x = x1e1 + x 2e 2 + + x n en y

f (x) = f (x1e1 + x 2e2 + ... + x n en ) = x1 f (e1 ) + x 2 f (e2 ) + + x n f (en )


luego
Im f = Span { f (e1 ), f (e 2 ), , f (en )}

y por tanto f (B) = { f (e1 ), f (e 2 ), , f (en )} es un conjunto generador de Im f.


Como consecuencia de este teorema se tiene que:
dim Im f dim E = n

Observacin. Si B es una base de E entonces f(B) genera Im f, por lo que para


obtener una base de Im f habr que extraer los elementos linealmente
independientes de f(B).

Ejemplo. Sea la aplicacin lineal:


IV. Aplicaciones Lineales 117

f : 3 2
x1
x + x2
x = x2 f ( x) = 1
x x1 - x 2
3

siendo x = ( x1 x 3 ) . Se pide:
t
x2

(i) Hallar Ker f.


(ii) Encontrar dos vectores linealmente independientes de 3 con la misma
imagen.
(iii) Calcular Im f.
x1 + x 2 = 0
(i) x = ( x1 x 3 ) Ker f x1 = x 2 = 0
t
x2
x1 - x 2 = 0

As pues Ker f = {( 0 0 x 3 ) / x 3 siendo ( 0 0 1)


t
} { t
} una base del Ker f, y
por tanto dim Ker f =1.

(ii) De la definicin de f se deduce que los vectores u = (1 1 1) y


t

v = (1 1 2 ) cumplen: f (u) = f ( v ) = ( 2 0 )
t t

(iii) Sea f ( x ) un vector de Im f, siendo x = ( x1 x 3 ) , entonces


t
x2

f ( x ) = ( x1 + x 2 x1 - x 2 ) = ( x 1 x1 ) + ( x 2 -x 2 ) = x1 (1 1) + x 2 (1 -1)
t t t t t

Luego, Im f = Span (1 1) { t
(1 -1) .
t
}
Puesto que {(1 1) ,
t
(1 -1)
t
} es un conjunto linealmente independiente, es una

base de Im f, con lo que dim Im f = 2.


Obsrvese que se cumple la siguiente relacin de dimensiones:
dim 3 = dim Ker f + dim Im f

4.3. TEOREMA FUNDAMENTAL DE LAS APLICACIONES LINEALES

Teorema: Sean E y F dos espacios vectoriales sobre K , siendo E de dimensin


finita. Si f : E F es una aplicacin lineal entonces:
dim E = dim Ker f + dim Im f
IV. Aplicaciones Lineales 118

Demostracin: Sea E un espacio vectorial de dimensin n y {e1 , e 2 , , ep }

una base del Ker f, luego dim Ker f = p. Se probar que dim Im f = n p .
Por el Teorema de la Base Incompleta, (ya estudiado en el Tema 2), se puede
encontrar una base de E de la forma

{e ,
1 e 2 , , ep , ep+1 , ep+2 , , en }

Entonces, se tiene que


Im f = Span { f (e1 ), f (e 2 ), , f (ep ), f (ep+1 ), , f (en )}

y como f (ei ) = 0F i = 1, 2, , p , entonces

Im f = Span { f (ep+1 ), f (ep+2 ), , f (en )}

Veamos que { f (e p+1 ), f (ep+2 ), , f (en )} es un conjunto linealmente

independiente. Para ello se construye la combinacin lineal nula


bp+1 f (ep+1 ) + bp+2 f (ep+2 ) + + bn f (en ) = 0F y por ser f lineal fl

f (bp+1ep+1 + bp+2ep+2 + + bn en ) = 0F

Luego el vector bp+1ep+1 + bp+2ep+2 + + bn en est en Ker f y por tanto es

combinacin lineal de los vectores de la base del Ker f, es decir


bp+1ep+1 + bp+2ep+2 + + bn en = a1e1 + a2e 2 + + apep

O equivalentemente
a1e1 a2e 2 ap ep + bp+1ep+1 + bp+2ep+2 + + bn en = 0E

y como {e , 1 e 2 , , ep , ep+1 , ep+2 , , en } es una base de E,

necesariamente todos los coeficientes anteriores son nulos. En particular


bp+1 = bp+2 = = bn = 0

Luego, { f (e p+1 ), f (ep+2 ), , f (en )} es un conjunto linealmente independiente

y, en consecuencia, una base de Im f. Claramente dim Im f = n p


Por tanto:
dim Ker f + dim Im f = p + (n p) = n =dim E.

Observacin. Si Ker f = {0E } la demostracin del teorema no se empezara

construyendo una base de Ker f por no existir, sino que se partira de una base B
arbitraria de E y todo el razonamiento sera el mismo.
IV. Aplicaciones Lineales 119

Si Ker f = E, es decir f 0 , entonces Im f = {0F } y se cumple trivialmente:


dim Ker f + dim Im f = n + 0 = n

4.4. CLASIFICACIN DE LAS APLICACIONES LINEALES

Definicin: Sean E y F dos espacios vectoriales sobre K y f : E F una


aplicacin lineal. Se dice que:
(i) f es inyectiva si x, y / f (x) = f (y ) x = y
(ii) f es sobreyectiva si y F x E / f (x) = y
(iii) f es biyectiva si f es inyectiva y sobreyectiva.

Teorema (Caracterizacin de las aplicaciones inyectivas):


Sean E y F dos espacios vectoriales sobre K y f : E F una aplicacin lineal. La

condicin necesaria y suficiente para que f sea inyectiva es que Ker f = {0E } , esto

es: f inyectiva Ker f = {0E } .

Demostracin:
Supngase que f : E F es una aplicacin lineal inyectiva.

Sea x Ker f f (x) = 0F , adems por ser f lineal f (0E ) = 0F , luego

f (x) = f (0E ) x = 0E . Por tanto, Ker f = {0E } .


f inyectiva

Sea Ker f = {0E } . Se va a demostrar que entonces f es inyectiva.

Sean x, y E / f (x) = f (y ) o equivalentemente f (x) f (y ) = 0F y por ser f lineal,

f (x y ) = 0F . Luego, x y Ker f = {0E } , de donde x y = 0E , y por tanto,

x = y . Luego, f es inyectiva.

Observacin. Como consecuencia del teorema anterior, si E y F son dos espacios


vectoriales de dimensin finita y f : E F es una aplicacin lineal inyectiva,
entonces: dim E dim F

De acuerdo con las propiedades vistas al comienzo del tema, las aplicaciones
lineales conservan la dependencia lineal. Sin embargo, en general, no conservan la
IV. Aplicaciones Lineales 120

independencia lineal. Ahora bien, vamos a ver a continuacin un resultado que


garantiza que las aplicaciones lineales inyectivas conservan tambin la
independencia lineal.

Teorema: Sea f : E F una aplicacin inyectiva y {e , 1 e 2 , , ep } un

conjunto de vectores de E linealmente independientes, entonces

{ f (e ),
1 f (e 2 ), f (ep )} son tambin linealmente independientes en F.

Demostracin: Sea {e1 , e 2 , , ep } un conjunto de vectores de E linealmente

independientes. Consideremos la combinacin lineal nula:


1 f (e1 ) + 2 f (e 2 ) + + p f (ep ) = 0F .

que puede escribirse, por ser lineal, como: f (1e1 + 2e 2 + + p ep ) = 0F .

Luego: 1e1 + 2e 2 + + p ep Ker f y por ser f inyectiva, Ker f = {0E } , de

donde 1e1 + 2e 2 + + p ep = 0E . Como los vectores {e , 1 e 2 , , ep } son

linealmente independientes, entonces: 1 = 2 = = p = 0 .

Por tanto: { f (e1 ), f (e 2 ), f (ep )} son linealmente independientes.

Teorema (Caracterizacin de las aplicaciones lineales sobreyectivas):


Sea f : E F una aplicacin lineal. La condicin necesaria y suficiente para que f
sea sobreyectiva es que Im f = F, es decir:
f sobreyectiva Im f = F.

Demostracin: Supongamos que f : E F es una aplicacin lineal


sobreyectiva, es decir, para cualquier vector y de F se puede encontrar un vector x
de E tal que f ( x ) = y . Luego, Im f = F.

Sea y F=Im f entonces existe un vector x E tal que f ( x ) = y . Luego, f es

sobreyectiva.

Observacin. Si f : E F es una aplicacin lineal sobreyectiva, y E y F son dos


espacios vectoriales de dimensin finita, se sigue, del teorema anterior, que
IV. Aplicaciones Lineales 121

dim E dim F .

Corolario: Sea f : E F una aplicacin lineal. La condicin necesaria y

suficiente para que f sea biyectiva es que Ker f = {0E } e Im f = F, es decir:

f biyectiva Ker f = {0E } e Im f = F.

Como consecuencia de este corolario, se deduce que, si E y F son dos espacios


vectoriales de dimensin finita y f : E F es una aplicacin lineal biyectiva,
entonces: dim E= dim F .
Recprocamente, si dim E= dim F , entonces la aplicacin lineal f : E F cumple:

a) f es biyectiva es inyectiva ( Ker f = {0E } ).

b) f es biyectiva es sobreyectiva (Im f = F)

Este resultado se cumple siempre que tengamos un endomorfismo, esto es, una
aplicacin lineal definida de un espacio vectorial E en s mismo, f : E E y la
dimensin de E sea finita, es decir, en este caso, se verifica:
a) f es biyectiva es inyectiva ( Ker f = {0E } ).

b) f es biyectiva es sobreyectiva (Im f = E).

4.5. EXPRESIN MATRICIAL DE UNA APLICACIN LINEAL

Se ha visto en un ejemplo anterior que las matrices m n definen aplicaciones


lineales entre los espacios vectoriales n y m . Este hecho, da una pista, sobre el
resultado que vamos a ver a continuacin con respecto a las aplicaciones lineales
definidas entre espacios vectoriales de dimensin finita: todas admiten una
expresin matricial.
Sean E y F dos espacios vectoriales de dimensin finita sobre el mismo cuerpo K .
Sea f : E F una aplicacin lineal definida entre E y F. En este apartado se va a
calcular la imagen de un vector x de E en funcin de las coordenadas de dicho
vector respecto a una base de E. Como f ( x ) es un vector de F se considerar

tambin una base de F. Con la ayuda de estas bases se obtendrn las coordenadas
de f ( x ) como el producto de una matriz por las coordenadas del vector x .
IV. Aplicaciones Lineales 122

Sean U = {u1 , u 2 , , un } y V = { v1 , v 2 , , v m } bases de E y F

respectivamente. Si x E entonces :
x1

x
x = x1u1 + x 2u 2 + + x n u n luego, C U (x) = 2 son las coordenadas de x en la


xn
base U.
Consideremos su imagen, f (x) F , que se expresar como:

y1

y
f (x) = y1 v1 + y 2 v 2 + + y m v m , es decir, CV ( f (x) ) = 2 son las coordenadas


ym
de f(x) en la base V.
Por ser f una aplicacin lineal:
f (x) = f (x1u1 + x 2u 2 + + x n u n ) = x1 f (u1 ) + x 2 f (u 2 ) + + x n f (un )
Por tanto
CV ( f (x) ) = x1C V ( f (u1 ) ) + x 2 CV ( f (u 2 )) + + x n CV ( f (un ) )

Es decir,
y1 x
1
y 2 = C ( f (u ) ) C ( f (u ) ) C ( f (u ) ) x 2
V 1 V 2 V n

y x
m n
Abreviadamente:
CV ( f (x) ) = M VU ( f ) C U (x)

La matriz M VU ( f ) se llama matriz de f respecto a las bases U y V.

Ntese que la primera columna de M VU ( f ) est formada por las coordenadas,


respecto a la base V, de la imagen, por f, del primer vector de la base U. La
segunda columna, est formada por las coordenadas, respecto a la base V, de la
imagen, por f, del segundo vector de la base U. En general, la j-sima columna est
formada por las coordenadas, respecto a la base V, de la imagen, por f, del j-simo
IV. Aplicaciones Lineales 123

vector de la base U. Adems, M VU ( f ) es una matriz de orden m n , siendo dim E


= n y dim F = m.

Del resultado anterior se deduce que todas las aplicaciones lineales entre espacios
vectoriales de dimensin finita reales o complejos son equivalentes a la
multiplicacin matricial de los vectores coordenados. Esquemticamente:
f
E F

x E y = f ( x ) F

A
xU y V = Ax U
siendo:
E y F dos espacios vectoriales de dimensin finita sobre un mismo cuerpo K y U y
V dos bases de E y F respectivamente;
x U : vector coordenado de x referido a la base U, es decir, x U = C U (x) .

y V : vector coordenado de y referido a la base V , es decir, y V = C V (y ) .

A: matriz de f respecto a las bases U y V, es decir, M VU ( f ) .

4.6. RANGO DE UNA APLICACIN LINEAL

Sea f : E F una aplicacin lineal entre espacios vectoriales de dimensin finita

sobre el mismo cuerpo K . Si se considera U = {u1 , u 2 , , un } como una base

de E, ya se ha visto que f (U) = { f (u1 ), f (u 2 ), , f (u n )} genera el subespacio

imagen Im f = f(E). Por tanto, para obtener una base de Im f hay que extraer de
dicho conjunto los vectores que sean linealmente independientes.
Teniendo en cuenta que las coordenadas, en una cierta base de F, de los vectores
f (u1 ), f (u 2 ), , f (u n ) son las columnas de la matriz A (matriz de f respecto
de las bases consideradas en E y en F), y que el rango de dicha matriz es el nmero
de columnas (o de filas) linealmente independientes, es inmediata la siguiente
conclusin
IV. Aplicaciones Lineales 124

Rang f = dim Im f = rang A


es decir, el rango de una aplicacin lineal f es igual al rango de su matriz asociada.

Ejemplos.
1. Sea la aplicacin:
f: P2 P1
p(t)-p(0)
p(t) f (p(t)) =
t

(i) Hallar la matriz de f respecto a las bases U= {1+t, t+t 2 , t 2 +1} de P2 y

V= {1+t, 1-t} de P1 .

(ii) Empleando la expresin matricial de la aplicacin lineal obtener f (1+t+t 2 ) .

(i) La matriz de f respecto a las bases U y V es de la forma:

(
M VU (f )= C V ( f (1+t) ) CV ( f (t+t 2 ) ) CV ( f (t 2 +1) ) )
Calculemos CV ( f (1+t) ) . Obsrvese que f (1+t)=1 y este vector se expresa en

funcin de la base V como:


1 = 0.5 (1 + t) + 0.5 (1 t)
0.5
luego, CV ( f (1+t) ) = C V (1) =
0.5
Por otra parte, f (t+t 2 ) = 1+t que en la base V se expresa como
1 + t = 1 (1 + t) + 0 (1 t)
1
luego, CV ( f (t+t 2 ) ) = CV (1+t ) =
0
Finalmente, f (t 2 +1) = t = 0.5 (1 + t) 0.5 (1 t)

0.5
luego, CV ( f (t 2 +1) ) = C V ( t ) =
0.5
Por tanto la matriz de f respecto a las bases U y V es:
0.5 1 0.5
M VU (f ) =
0.5 0 0.5
(ii) Sea 1+t+t 2 , que se expresa en la base U como:
1+t+t 2 =0.5(1+t)+0.5(t+t 2 )+0.5(t 2 +1)
IV. Aplicaciones Lineales 125

0.5
luego, C U (1+t+t 2 ) = 0.5

0.5

Por lo tanto:
0.5
1
CV ( f (1+t+t 2 ) ) = M VU (f ) C U (1+t+t 2 ) =
0.5 1 0.5
0.5 =
0.5 0 -0.5 0.5 0

y como consecuencia f (1+t+t 2 ) = t +1 .
Segn la notacin comentada anteriormente:
0.5
0.5 1 0.5
M VU ( f ) C U (1 + t + t ) = A x =
2
0.5 =
0.5 0 0.5
0.5
1
= = y = C V ( f (1 + t + t 2 ) )
0

2. Sea la aplicacin lineal f :


f: 2 2
x -x
x= 1 f ( x) = 1
x2 -x 2
Se pide:
(i) Hallar la matriz de f respecto a las bases cannicas.

(ii) Calcular f (z ) , donde z = ( 2 3) utilizando la matriz de f.


t

{
(i) Sea B= e1 = (1 0 ) , e 2 = ( 0 1)
t t
} la base cannica de . Entonces:
2

M BB (f )= ( C B ( f (e1 ) ) CB ( f (e2 ) ) )

f (e1 ) = ( 1 0 ) = C B ( f (e1 ) ) f (e 2 ) = ( 0 1) = CB ( f (e 2 ) )
t t
Como

1 0
se tiene que, M BB ( f ) = .
0 1
(ii) Como CB ( f (z ) ) = M BB ( f ) C B (z ) , entonces

1 0 2 2
CB ( f (z ) ) = = = f (z ) .
0 1 3 3
IV. Aplicaciones Lineales 126

Obsrvese que, fijadas las bases, la matriz de una aplicacin lineal es nica.
Ahora bien, una aplicacin lineal puede representarse por distintas matrices si
se usan bases diferentes, estando tales matrices relacionadas entre s, tal y como
veremos en el siguiente apartado.

4.7. RELACIN ENTRE LAS MATRICES QUE CARACTERIZAN A UNA


MISMA APLICACIN EN BASES DISTINTAS

Sea f una aplicacin lineal definida entre E y F, siendo estos espacios vectoriales
sobre K de dimensin n y m respectivamente.
Sean U = {u1 , u 2 , , un } y V = { v1 , v 2 , , v m } bases de E y F

respectivamente, y M VU ( f ) la matriz de f respecto a las bases U y V.


Veamos cmo cambia esta matriz al cambiar las bases U y V , por las nuevas bases
U ' y V ' , siendo stas: U = {u '1 , u '2 , , u 'n } y V = { v '1 , v '2 , , v'm } .

Esquemticamente:
f
E ( dim n ) F (dim m)
M VU
Base U Base V

P R

M VU
Base U Base V

La relacin que existe entre las coordenadas de un vector de un espacio vectorial


respecto a dos bases distintas ya se ha visto en el Tema 2 de Espacios Vectoriales.
As, si x E y P es la matriz de paso (regular) de la base U de E a la base U ' de
E, se tiene que: x U = P x U'

Anlogamente, si y F y R es la matriz de paso (regular) de la base V de F a la


base V ' de F, y V = R y V'
Por otro lado, la expresin matricial de f respecto de las bases U y V, de E y F
respectivamente, resulta: y V = M VU ( f ) x U
IV. Aplicaciones Lineales 127

Si a la matriz M VU ( f ) se le representa como A1 la expresin anterior resulta:

y V = A1 x U

Si se escribe la expresin matricial de f respecto de las bases U ' y V ' , de E y F


respectivamente, se tiene: y V ' = M V'U' ( f ) x U '

Si a la matriz M V'U' ( f ) se le representa por A 2 la expresin anterior resulta:

y V' = A 2 x U'

Sustituyendo en y V = A1 x U las expresiones obtenidas para yV y para xU en las


que aparecen las matrices de paso P y R se obtiene:
R y V' = A1 P x U'

Premultiplicando por R 1 : y V' = R 1 A1 P x U'

y como: y V' = A 2 x U'

se llega a que A 2 =R -1 A1 P
o lo que es lo mismo:
M V' U' ( f ) = R -1 M VU (f ) P

Esta es la relacin que verifican las matrices asociadas a una misma aplicacin
lineal f cuando se cambian las bases en E y en F.

Definicin: Dos matrices A1 y A 2 ambas pertenecientes a E mn (K ) , se dicen


equivalentes si estn asociadas a una misma aplicacin lineal de E en F (respecto
de bases adecuadas) o, lo que es lo mismo, si existen dos matrices regulares P y R,
cuadradas de rdenes n y m respectivamente, tales que:
A 2 = R -1 A1 P

Las matrices equivalentes A1 y A 2 se caracterizan tambin por tener iguales


dimensiones m n y rango.

En el caso particular en que E=F y se tenga un endomorfismo, se puede tomar


iguales las bases U y V, as como las bases U ' y V ' , por lo que las matrices de
paso P y R son idnticas. Esquemticamente:
IV. Aplicaciones Lineales 128

f
E ( dim n ) E (dim n)
M UU
Base U Base U

P P

M UU
Base U Base U
As, la relacin entre las matrices del endomorfismo f al cambiar de base en E es:
M U'U' ( f ) = P -1 M UU ( f ) P

o bien, llamando A1 a la matriz M U'U' ( f ) y A 2 a la matriz M UU ( f ) :

A 2 = P -1 A1 P
Esta es la relacin que verifican las matrices asociadas a un mismo endomorfismo f
cuando se cambia la base en E.

Definicin: Dos matrices cuadradas A1 y A 2 , ambas pertenecientes a E nn (K ) , se


dicen semejantes si estn asociadas a un mismo endomorfismo (respecto de bases
adecuadas), lo que equivale a que exista una matriz regular P, cuadrada de orden
n , tal que
A 2 = P -1 A1 P .
IV. Aplicaciones Lineales 129

EJERCICIOS TEMA 4

1.- Estudiar si las siguientes aplicaciones son lineales:


a) f : 2 / f ( x1 , x 2 ) = x12 x 22

b) g : 3 3 / g ( x1 , x 2 , x 3 ) = ( 0, x 2 , x 3 )

2.- Dada la aplicacin lineal f : 4 3 que en las bases cannicas viene dada
por la expresin:
f ( x1 , x2 , x3 , x4 ) = ( x1 , x2 , x1 + x2 + x3 ) .

Hallar la matriz A de f en estas bases. Es inyectiva?Es sobreyectiva?. Si las


coordenadas del vector x respecto de la base

B = {(1, 1, 0, 0 ) ( 0, 1, 0, 0 ) ( 0, 0, 1, 0 ) (1, 1, 1, 1)} son

( 2, 1, 1, 1) hallar su transformado, es decir, f ( x ) .

3.- Sea el endomorfismo f:


f: V3
V3
x -2x + 4y + 2z

v = y
f ( v ) = x + y + z
z -x + 2y + z

a) Demostrar que rang f= 2, " .
b) Hallar Ker f e Im f para = 2 .

x y
4.- En el espacio vectorial E = A = / x, y, z, t se define la
z t
transformacin T de E en si mismo:
T: E
E
A
T (A) = M A A M

1 2
siendo M =
0 1
a) Es la transformacin T lineal?
b) Ecuacin matricial de la transformacin.
IV. Aplicaciones Lineales 130

c) Dimensin y base del ncleo de T , Ker T.


d) Dimensin y base del subespacio imagen de T, Im T.
e) Naturaleza de la transformacin.

5.- Sean B = {e1 , e2 , e 3 , e4 } y B' = {e '1 , e '2 , e '3 } las bases cannicas de 4 y

3 respectivamente y sea la aplicacin lineal f : 4 3 que verifica:

Ker f = Span {e1 , 3e2 + e 3 }

f ( e1 + e 2 + e 3 + e4 ) = e'2 2e'1 2e'3

f ( e 2 ) = e'1 + e'3

a) Hallar la matriz de f en las bases cannicas.


b) Hallar el rango de f.
c) Hallar (obtener una base) del subespacio vectorial F de 4 de ecuaciones
paramtricas:
x = + 2
y = 6 ,
z = 3
t = 2 + 2

Sea el subespacio G de 3 dado por G = {( x }


y z ) 3 / z = 0 .
t

Demostrar que f (F) y G son subespacios suplementarios.

6.- Analizar si las siguientes aplicaciones son o no lineales

a) f : P 2 P 2 / f(p(t)) = t2p(t) + t p(t) + p(t)


x 1 4x 1 - 2x 2
b) f : 2 2 / f =
x2 3| x2 |

7.- En el espacio vectorial de los polinomios de grado menor o igual que tres:
a) Demostrar que {1, (x + 1), (x + 1)2 , x 3 } es base.

b) Hallar las coordenadas de ( x + 1) en esta base.


3
IV. Aplicaciones Lineales 131

c) Sea la aplicacin lineal f que a cada polinomio le hace corresponder su


derivada. Hallar la matriz de dicha aplicacin en la base usual
B = {1, x, x 2 , x 3 } y tambin en la definida en el apartado a).

8.- Sea V el espacio vectorial de las funciones reales de variable real con las
operaciones usuales. Si f : 3 V , es la aplicacin que a cada terna

( a, b, c ) 3 le asocia la funcin f ( a, b, c ) = a sin 2 x + b cos 2 x + c , hallar

una base de Ker f y otra de Im f, analizando si f es inyectiva y si es sobreyectiva.

9.- En el espacio E 3 , de vectores libres del espacio, se define una aplicacin que
transforma un vector en su simtrico respecto del plano horizontal Z=0. Se pide:
a) Ecuacin matricial de la transformacin lineal y naturaleza de la misma.
b) Dimensin, base y ecuaciones cartesianas del subespacio imagen.
c) Idem para el ncleo de la aplicacin.

10.- En el espacio vectorial V de las matrices cuadradas de orden n sobre se


considera la aplicacin:
F: V
V
A
F (A) = A t + A
Demostrar que F es lineal y calcular su ncleo e imagen.

11.- Sean P3 y P2 los espacios vectoriales de los polinomios de grado menor o igual
que 3 y 2 respectivamente. Se define una aplicacin:
T: P2 P3
p ( x ) T (p ( x )) = p(t)dt
x

Se pide:
a) Hallar la matriz de la transformacin.
b) Hallar T (2x 2 + 4x) y el vector vectores originales de x 3 2x 2 + 2x
respecto de la transformacin lineal T.

12.- En el conjunto de vectores libres del espacio se define una transformacin


lineal T del modo siguiente:
IV. Aplicaciones Lineales 132

- T ( v ) = v v x1 - x 2 - x 3 = 0
- El vector (0, 1, 1) pertenece al ncleo.
Se pide:
a) Transformados de los vectores de la base usual.
b) Ecuacin matricial de la transformacin y naturaleza de la misma.
c) Dimensin, bases y ecuaciones de los subespacios ncleo e imagen.

13.- Sea P 2 el espacio vectorial real de los polinomios de grado menor o igual que
2. Se considera la aplicacin lineal f : P 2 P 2 dada por:
f (t + 1) = 1
f (t 2 + 1) = t + 1
{
Ker f = Span t 2 - t - 1 }
Se pide:
{
a) Hallar la expresin matricial de f respecto de la base B = 1, t, t 2 . }
b) Calcular la dimensin, una base y ecuaciones de los subespacios Ker f e
Im f.Es f sobreyectiva ? Razona la respuesta.
{
c) Hallar f(T), donde T = Span t 2 + 1, 3t - 2 . }
14.- Se considera el espacio vectorial V2 de las matrices cuadradas de orden 2

sobre los nmeros reales y el espacio P3 (x) de los polinomios de coeficientes


reales de grado menor o igual que tres. Se define la aplicacin:
x
f : V2 P3 (x) / B V2 f (B) = (1 x ) B 2
x
Se pide:
a) Demostrar que es una aplicacin lineal.
b) Calcular la matriz A de f en las bases cannicas y dar bases de la imagen y
del ncleo.
c) Calcular el conjunto de matrices que se transforman en el polinomio
x 3 + x 2 + 2x .

15.- Sea P2 (x) el espacio vectorial real de los polinomios de grado menor o igual
que 2 y E 2 x 2 () el conjunto de matrices cuadradas reales de orden 2. Se define la
aplicacin lineal:
IV. Aplicaciones Lineales 133

T : P2 (x)
E 2x2 ()
p(0) p'(1)
p(x)
T (p(x)) =
p'(1) p(0)
Se pide:
a) Matriz de la aplicacin T.
b) Ecuacin implcita del ncleo, as como una base y su dimensin.
c) Ecuacin implcita del subespacio imagen, as como una base y su
dimensin.
d) Son los subespacios ncleo e imagen suplementarios? Razona la respuesta.

16.- En el espacio vectorial E 3 sobre relativo a la base B = {e1 , e 2 , e 3 } se

define una transformacin T del siguiente modo:

- T (e 3 ) = (1 1 1)
t

- El transformado del subespacio de ecuacin x1 - x 2 + x 3 = 0 es el vector


nulo.
Se pide:
a) Ecuacin matricial y naturaleza de la transformacin.
b) Dimensin, base y ecuaciones de Im T.
c) Transformado (ecuaciones cartesianas) del subespacio S de ecuacin
x1 - x 3 = 0 , razonando el resultado.

d) Expresin de la transformacin lineal en la base B' = {e '1 , e '2 , e '3 } siendo:

e '1 = e1 + e2 + e3
e '2 = e1 - e2 .
e '3 = e1
IV. Aplicaciones Lineales 134

SOLUCIONES EJERCICIOS TEMA 4


1.- a) No
a) Si

1 0 0 0

2.- A = 0 1 0 0
-1 1 1 0

No es inyectiva.
Es sobreyectiva.
f (x) = ( 3, 4, 3)

3.- b)

{
BIm f = ( -2 1 -1) ,
t
(2 -2 1)
t
}
= {( 0) }
t
BKer f 2 1

4.- a) Si
y1 0 0 2 0 x

y -2 0 0 2
y
b) 2 =
y3 0 0 0 0 z

y4 0 0 -2 0 t

1 0 0 1
b) dim Ker T = 2, BKer T = ,
0 1 0 0
0 -1 1 0
c) dim Im T = 2, BIm T = ,
0 0 0 -1
d) Endomorfismo no inyectivo y no sobreyectivo.

0 1 -3 0

5.- a) A = 0 0 0 1
0 1 -3 0

b) Rang f = rang A = 2

{
c) F = Span (1 0 -1 2 ) ,
t
(2 6 -3 2 )
t
}
IV. Aplicaciones Lineales 135

6.- a) Es lineal.
b) No es lineal.

7.- b) ( x +1) = (1 -3 3 1)B' = 1- 3 ( x +1) + 3 ( x +1) + x 3


3 t 2

0 1 0 0 0 1 0 3

0 0 2 0 0 0 2 -6
c) A B = ; A B' =
0 0 0 3 0 0 0 3

0 0 0 0 0 0 0 0

{
8.- BKer f = (1 1 -1)
t
} ; BIm f = {sin 2 (x), cos 2 (x)}

f no es inyectiva. f no es sobreyectiva.

y1 1 0 0 x1

9.- a) y 2 = 0 1 0 x 2 ; endomorfismo biyectivo.
y 0 0 -1 x
3 3
b) Im T = E 3 ; una base de Im T ser cualquier base de E 3 (no hay ecuaciones
cartesianas o implcitas para Im T).
c) Ker T = {0} ; sus ecuaciones cartesianas son x1 = x 2 = x 3 = 0 .

10.- Ker F = {B M n x n / B antisimtrica }

Im F = {B M n n / B simtrica }

0 0 0
1 0 0

1
11.- a) A = 0 0
2
1
0 0
3

b) T ( 2x 2 + 4x ) = 2x 2 + x 3
2
; el vector original de x 3 - 2x 2 + 2x es
3
2 - 4x + 3x 2 .
IV. Aplicaciones Lineales 136

12.- a) Tomando como base B* = {(1 1 0 ) (1 0 1) (0 1 1)}


1 0 0
1 0 0
1 1 1
A B* = 0 1 0 ; AB = -
0 0 0 2 2 2
1 1 1
-
2 2 2
b) No es sobreyectiva y por lo tanto (por ser endomorfismo) no es inyectiva
c) dim Imf=2; Ecuacin: y1 - y 2 - y3 = 0 ;

1 1
t
1 1
t

BIm f = 1 , 0
2 2 2 2
x1 = 0
dim Ker f = 1 ; Ecuaciones
x 2 - x3 = 0
; BKer f = ( 0 1 1)
t
{ }

y 0 0 0 x
1 1

13.- a) y2 = 0 -1 1 x 2


y3 1 1 0 x 3

b) BKer f = {t 2 - t -1} dim (Ker f ) = 1 ;

a =

Ecuaciones paramtricas: b = /
c =

a + b = 0
Ecuaciones implcitas:
a + c = 0

a = 0

BIm f = {1,t} dim (Im f ) = 2 ; Ecuaciones paramtricas b = / ,
c =

Ecuacin implcita: a = 0
f no es sobreyectiva.
c) B f (T) = {t + 1, 3 - 5t }
IV. Aplicaciones Lineales 137

0 0 0 0

1 0 0 0
14.- b) A =
0 1 1 0

0 0 0 1

0 1
BIm f = {x, x 2 , x 3 } BKer f =
-1 0
2 b
c) B =
1- b 1

1 0 0

0 1 2
15.- a) Matriz respecto a las bases cannicas: A =
0 1 2


1 0 0

a0 = 0
b) BKer f = {-2x + x 2 } dim(Ker f ) = 1, ecuaciones implcitas:
a1 + 2a2 = 0

1 0 0 1
c) BImf = , dimImf = 2
0 1 1 0

x - t = 0
Ecuaciones implcitas: .
y - z = 0

d) Es imposible que sean subespacios suplementarios porque pertenecen a
espacios vectoriales distintos.

y1 1 -1 1 x1

16.- a) y 2 = 1 -1 1 . x 2 ; T no es inyectiva ni sobreyectiva.
y 1 -1 1 x
3 3

y1 = y 2
b) BIm T = {(1 1 1)} ; Ecuaciones
y 2 = y3

{
c) T (S)=Span ( 2 2 2 ) ,
t
( -1 }
-1 -1) Im T
t

y1 1 2 1 x1

d) y 2 = 0 0 0 x 2
y 0 0 0 x
3 3
IV. Aplicaciones Lineales 138
Tema 5

DIAGONALIZACIN POR TRANSFORMACIONES


DE SEMEJANZA

5.1. INTRODUCCIN: EL PROBLEMA DE REDUCCIN DE LOS


ENDOMORFISMOS

El estudio de autovalores y autovectores de matrices cuadradas y de endomorfismos es


de fundamental importancia en Matemtica Aplicada.

Debido a que todo endomorfismo de un espacio vectorial de dimensin finita se puede


representar por matrices cuadradas, y que dada una matriz cuadrada se puede interpretar
siempre como un endomorfismo sobre un espacio vectorial, fijada una base, podemos
restringirnos al estudio de autovalores y autovectores de matrices, y as la teora
relacionada con estos conceptos y desarrollada para matrices cuadradas, se puede
extender a los endomorfismos representados por aqullas (en ocasiones no se va a hacer
aqu para evitar repeticiones innecesarias).

Se considera un endomorfismo f de un espacio vectorial E , de dimensin finita n.


Sea A la matriz cuadrada de orden n que representa esta transformacin en una base
dada BE. Si se cambia a la base B'E el endormorfismo vendr representado por otra

matriz A1 semejante a A , es decir, A1 = P 1AP , siendo P la matriz de paso a la nueva

base B'E .

De forma esquemtica:
V. Diagonalizacin por transformaciones de semejanza 140

f
E ( dim n ) E (dim n)
A = M BB ( f )
BE BE

P P

A1 = M BB ( f )
B'E B'E

Dado que cualquier espacio vectorial de dimensin n es isomorfo a K n 1,


consideraremos aqu nicamente matrices A asociadas a endomorfismos f : K n K n .

En este tema se plantea el problema de encontrar, si es posible, una base en la que la


representacin del endomorfismo sea lo ms simple posible. En trminos matriciales el
problema se traduce en encontrar la matriz ms sencilla posible que sea semejante a A,
as como la matriz de paso correspondiente.

Es evidente que cuanto ms sencilla sea la estructura de una matriz, ms fcil ser
obtener informacin acerca del endomorfismo al que representa. Entre las matrices ms
sencillas se encuentran las diagonales, las cuales nos ofrecen muchas facilidades de
clculo.

Definicin. Sea f un endomorfismo del espacio vectorial K n ; f es diagonalizable si

existe una base de K n respecto de la cual la matriz de f es diagonal.

o lo que es lo mismo,

Definicin. Se dice que una matriz A E nxn (K ) es diagonalizable si es semejante a una

matriz diagonal D, es decir, si existe una matriz P inversible tal que P -1AP sea diagonal.

Hay que tener en cuenta que no se puede esperar diagonalizar todos los endomorfismos
( lo que es lo mismo, sus matrices correspondientes). Sin embargo, s es posible

1 n
Esta afirmacin se basa en que existe una aplicacin lineal biyectiva (isomorfismo) entre E y K , que es
la aplicacin coordenada ( x E C B ( x) ).
V. Diagonalizacin por transformaciones de semejanza 141

triangularizar un endomorfismo cuando se trabaja en el cuerpo de los nmeros


complejos (como se ver ms adelante).

Se va tratar de resolver aqu el siguiente problema general: dado un endomorfismo, ( la


matriz que lo representa) encontrar los vectores que tengan una imagen que les sea
proporcional, y estudiar luego el conjunto de vectores sujetos ligados a un factor de
proporcin dado (valor propio).

5.2. AUTOVALORES Y AUTOVECTORES: CLCULO Y PROPIEDADES

Definicin. Sea A E n xn (K ) la matriz asociada al endomorfismo f : K n K n en una

base dada de K n .
Se dice que el vector x K n , x 0 (no nulo), es un autovector o vector propio de A (
del endomorfismo f ) si existe K tal que
Ax=x (es decir , f (x) = x)
El escalar , as asociado a x (no puede haber ms que uno) se llama autovalor o
valor propio de A ( de f ) asociado a x .

As pues, un escalar es un autovalor de A ( de f ) si y solamente si el ncleo de

A I no se reduce al vector nulo de K n , es decir, si el endomorfismo f I


caracterizado por la matriz A I no es inyectivo.

As, 0 es un autovalor de f si y solamente si f no es inyectivo.

Definicin. Sea A E n xn (K ) la matriz asociada al endomorfismo f : K n K n en una

base dada de K n , y un autovalor de A ( de f ). El subespacio vectorial

V( ) = Ker (A I) = {x K n / A x = x} = {x K n / (A I) x = 0}

se llama subespacio propio de A asociado a ; sus vectores no nulos son los vectores
propios asociados a .
V. Diagonalizacin por transformaciones de semejanza 142

Clculo de autovalores y autovectores. La ecuacin A x = x que sirve para definir


los autovalores y autovectores se puede escribir como (A I) x = 0 , con lo que los
autovectores, si existen, son los vectores solucin del sistema lineal homogneo
resultante. Sabemos que este sistema tiene soluciones distintas de la trivial nula si y slo
si la matriz A I es singular, lo cual ocurre si y slo si el determinante de A I es

igual a cero: A I = 0 .

As podemos comenzar por encontrar los autovalores deA, es decir, aquellos valores
de K que hacen A I = 0 , y a continuacin, para cada autovalor as obtenido,

calcular los subespacios propios V( ) , es decir resolver el sistema A x = x .

Vamos ahora a estudiar la naturaleza de la expresin A I .

Definicin. Se llama polinomio caracterstico de una matriz cuadrada A de orden n,


definida sobre K , al polinomio p A ( ) = A I que es un polinomio con coeficientes

en K y de grado n, en la variable ; su coeficiente de ndice n es igual a (-1)n, su


coeficiente de ndice n 1 se obtiene multiplicando la traza de A por (-1)n-1 y su trmino
independiente es igual al determinante de A ( como se ver a continuacin).

La ecuacin p A ( ) = 0 se llama ecuacin caracterstica de A.

Para obtener la frmula general del polinomio caracterstico de A empezamos


considerando una matriz cuadrada de orden 2:

a a12
Sea A = 11 , entonces su polinomio caracterstico es :
a 21 a 22

a11 a12
p A ( ) = A I = = (a11 )(a 22 ) a12 a 21 = 2 ( a11 +a 22 ) + a11a 22 a12 a 21 =
a 21 a 22

= 2 tr( A ) + A
V. Diagonalizacin por transformaciones de semejanza 143

a11 a12 a13



Si la matriz fuera de orden 3, A = a 21 a 22 a 23 , entonces :
a a 33
31 a 32
a11 a12 a13
p A ( ) = A I = a 21 a 22 a 23 = ...... = 3 tr( A ) 2 + A
a 31 a 32 a 33

Si A fuera de orden n:

p A ( ) = A I = (1)n n tr( A ) n-1 + + (1)n A = ( 1)n n + (1)n+1 tr(A) n-1 + + A

Luego, K ( o ) es autovalor de A E n xn (K ) si y slo si es raz del polinomio


caracterstico y est en K .

Por el teorema Fundamental del Algebra, si K es el cuerpo de los nmeros


complejos, entonces A posee exactamente n autovalores, siendo n el orden de la matriz.
Por otra parte, si K es el cuerpo de los nmeros reales, entonces la matriz A posee a
lo sumo n autovalores (en ambos casos considerando las multiplicidades de las
soluciones de la ecuacin caracterstica).

0 -1
. Su polinomio caracterstico es p A ( ) = + 1 , y su ecuacin
2
Ejemplo. Sea A=
1 0
caracterstica 2 + 1 = 0 , que no se anula para ningn valor real. Luego, la matriz A
considerada como una matriz real, no tiene valores propios. Pero si se considera A como
una matriz sobre el cuerpo de los nmeros complejos, sus autovalores son +i y i.

Si la matriz A posee n autovalores 1, 2 , , n (no tienen por qu ser distintos),


entonces podemos escribir:
p A ( ) = (-1)n ( 1)( 2 ) ( n ) =

= (1)n n ( 1+ 2 + + n ) n-1 + + ( 1) n ( 1 2 n )

Como esta frmula debe coincidir con la vista anteriormente:


V. Diagonalizacin por transformaciones de semejanza 144

p A ( ) = (1) n n tr(A) n-1 + + (1)n A

si se comparan los coeficientes de n-1 y los trminos independientes, se obtienen dos


importantes propiedades que cumplen los autovalores de una matriz A :
tr ( A )= 1+ 2 + + n

A = 1 2 n

Corolario. Una matriz cuadrada A es inversible si y slo si = 0 no es autovalor de A.

Ejemplo. Sea el endomorfismo :


f: R2 R2
x 2x
x= 1 f (x)= 2
x2 2x1

en la base cannica de R 2 .

Por tanto, la expresin matricial de f , en la base cannica de R 2 , es:

y1 0 2 x1
=
y2 2 0 x 2

0 2
Luego, la matriz asociada en la base cannica de R 2 es A = .
2 0
Los autovalores de A son las soluciones de la ecuacin caracterstica de la matriz A :
2
p A ( ) = A I = 0 = = 2 4 = 0 1= 2 2 = 2
2

Los subespacios propios asociados son respectivamente:

x1 x1 x1
V( 1)= x = R 2 / A = 1 =
x 2 x2 x 2

x1 x1 0 x1 -2 2 x1 0
= x = R 2 / (A 1I) = = x = R 2 / = =
x2 x 2 0 x2 2 -2 x 2 0

x1 x1
= x = R 2 / 2x1 +2x 2 =0 x1 = x 2 = x = R 2 / x1
x2 x1
V. Diagonalizacin por transformaciones de semejanza 145

x1 x1 x1
V( 2 )= x = R 2 / A = 2 =
x 2 x2 x 2

x1 x1 0 x1 2 2 x1 0
= x = R 2 / (A 2 I) = = x = R 2 / = =
x2 x 2 0 x2 2 2 x 2 0

x1 x1
= x = R 2 / 2x1 +2x 2 =0 x1 = x 2 = x = R / x1
2

x2 x1

Notemos que los autovalores de A verifican las dos propiedades siguientes:


tr(A) = 0 = 1+ 2

A = 4 = 1 2

Los autovalores de una matriz cuadrada pueden ser repetidos no. Lo que da lugar a las
siguientes definiciones:

Definicin. Se llama multiplicidad algebraica, mi, de un autovalor i , a la

multiplicidad de i como raz de la ecuacin caracterstica, es decir, el nmero de veces

que aparece i como raz de dicha ecuacin.

Definicin. Se llama multiplicidad geomtrica, i , de un autovalor i , a la dimensin

del subespacio propio asociado a l, es decir, a la dim V( i ) .

Se cumple que: 1 i mi , como se ver ms adelante.

Puesto que las ecuaciones de V( i ) vienen dadas a partir del sistema: ( A- i I ) x = 0 , y

teniendo en cuenta que la dimensin de un subespacio S de K n es:


dim S = n nmero de restricciones
se verifica que
dim V( i ) = n rang ( A i I )
V. Diagonalizacin por transformaciones de semejanza 146

7 0 0 0 0

0 7 1 0 0
Ejemplo. Sea la matriz A = 0 0 4 2 0 . Fcilmente se obtiene que el polinomio

0 0 0 4 0
0 0 0 0 4

caracterstico de A es: p A ( ) = ( 7)2 ( 4)3 .


Luego, los autovalores de A son: 1= 7 de multiplicidad algebraica m1 =2, y 1= 4 de
multiplicidad algebraica m2 =3, que son los elementos diagonales de A.

Ejemplo. Calcular los autovalores y autovectores de la matriz:


2 2 1

A = 1 3 1 .
1 2 2

Solucin. Primeramente se calculan los autovalores de A, a partir de la ecuacin
caracterstica de A, es decir:
2 2 1
p A ( ) = A - I = 1 3 1 = ( 1) 2 ( 5) = 0
1 2 2

De donde los autovalores de A son 1= 1 (raz doble con multiplicidad algebraica


m1=2) y 2 = 5 (raz simple m2=1).

En segundo lugar, para cada autovalor se calculan los vectores propios, es decir, los
subespacios propios:

V( ) = Ker (A I) = {x 3 / A x = x} = {x 3 / (A I) x = 0}

As, para 1= 1 se tiene :

V(1) = Ker (A I) = {x 3 / (A I) x = 0}

de donde el sistema que resulta es:


1 2 1 x 1 0 x1 + 2 x 2 + x 3 = 0
( A I ) x = 0 1 2 1 x 2 = 0 x1 + 2 x 2 + x 3 = 0 x1 = 2x 2 - x 3
1 2 1 x 0 x + 2 x + x = 0
3 1 2 3

Esta es la ecuacin implcita del subespacio V(1) . Entonces:


dim V(1) = n rang(A - I) = 3 -1 = 2
V. Diagonalizacin por transformaciones de semejanza 147

y el subespacio propio asociado a 1= 1 es:

2 x 2 - x 3

V(1) = x / x = x 2
3
, x2 , x3 ,
x
3

2 1
De donde una base de autovectores de V(1) es 1 y 0 . As,
0 1

1 = dim V(1) = 2 .

Parar 2 = 5 se tiene :

V(5) = Ker (A 5I) = {x 3 / (A 5I) x = 0}

de donde el sistema que resulta es:

3 2 1 x1 0 3x1 + 2x 2 + x 3 = 0
x = x
( A 5I ) x = 0 1 2 1 x 2 = 0 x1 2x 2 + x 3 = 0 2 1

x 3 = x1
1 2 3 x 3 0 x1 + 2x 2 3x 3 = 0

Estas son las dos ecuaciones implcitas del subespacio V(5) , luego
dim V(5) = n rang(A 5I) = 3 2 = 1

y el subespacio propio asociado a 2 = 5 es:

x1

V(5) = x / x = x1 , x1
3

x
1

1
De donde una base de autovectores de V(5) est formada por el vector 1 .
1

Luego, 2 = dim V(5) = 1 .

Veamos a continuacin algunas propiedades relacionadas con los autovalores y


autovectores.

Proposicin. Un autovector de una matriz cuadrada est asociado a un nico autovalor.


V. Diagonalizacin por transformaciones de semejanza 148

Demostracin. Sea x K n ( x vector no nulo) un autovector de A E n xn (K ) asociado

al autovalor K , es decir, A x = x . Supongamos que K es otro autovalor de x ,


as A x = x . Restando ambas ecuaciones se obtiene ( )x = 0 , y como x 0 ,
necesariamente = , es decir, el autovalor es nico.

Proposicin. Sea A E n xn (K ) un matriz triangular (superior inferior). Entonces los


autovalores de A son los elementos diagonales de A.

a11 a12 a1n



0 a 22 a 2n
Demostracin. Sea A una matriz triangular superior: A = .


0 0 a nn

Para hallar sus autovalores se emplea su ecuacin caracterstica (al tratarse del
determinante de una matriz triangular es igual al producto de los elementos diagonales:
A I = 0 = (a11 )(a 22 ) (a nn )

Siendo las soluciones de esta ecuacin: 1= a11 , 2 = a 22 , , n = a nn .

Proposicin. Los autovectores de una matriz cuadrada de orden n asociados a


autovalores distintos son linealmente independientes.

Consecuencia de esta proposicin es que los subespacios propios asociados a


autovalores distintos son disjuntos, es decir:
V( i ) V( j) = {0Kn } , i j , siendo i , j autovalores distintos de A .

Proposicin. Las matrices semejantes tienen el mismo polinomio caracterstico y los


mismos autovalores.

Demostracin. Si existe P regular tal que B = P 1AP , se cumple que:


p B ( ) = B I = P 1 A P P 1 P = P 1 (A I) P = P 1 A I P = A I = p A ( )

Es decir, los polinomios caractersticos de A y B son iguales. Dado que los autovalores
son las races de la ecuacin caracterstica, queda demostrada la proposicin.
V. Diagonalizacin por transformaciones de semejanza 149

En el prrafo siguiente, vamos a enunciar condiciones para que un endomorfismo la


matriz que lo representa sean diagonalizables, ya que no todos lo son. Se va a ver que el
problema est relacionado con la multiplicidad algebraica de los autovalores mltiples.

5.3. DIAGONALIZACIN EN DIMENSIN FINITA

Proposicin. Sea A E n xn (K ) . Una condicin necesaria de diagonalizacin de la

matriz A es que A posea exactamente n autovalores.

Demostracin. Si A es diagonalizable entonces es semejante a una matriz D diagonal.


Los autovalores de A y los de D son iguales por semejanza. Como la matriz D posee
exactamente n autovalores (los elementos diagonales), entonces la matriz A tendr
tambin n autovalores (los mismos autovalores que D).

El Teorema siguiente establece la condicin necesaria y suficiente de diagonalizacin.

Teorema. Una matriz cuadrada de orden n es diagonalizable si y slo si tiene n


autovectores linealmente independientes.

Demostracin. ) Sean los autovectores de A linealmente independientes:

x11 x12 x1n



x 21 x 22 x 2n
x1 = ,x = , , xn =
2

x n1 x n2 x nn
Observemos que si P es una matriz cualquiera de orden n cuyas columnas son los
autovectores de A linealmente independientes x1 , x 2 , ..., xn , y si D es una matriz
diagonal cualquiera cuyos elementos diagonales son 1 , 2 , , n , entonces

x11 x12 x1n



x x 22 x 2n
AP = A 21 = A [ x1 x2 ... xn ] = [ A x1 A x 2 A xn ] (1)


x n1 x n2 x nn

mientras que
V. Diagonalizacin por transformaciones de semejanza 150

1 0 0 1x11 2 x12 n x1n



0 2 0 1x 21 2 x 22 n x 2n
PD = P = = 1x1 2 x 2 n xn (2)


0 0 n 1x n1 2 x n2 n x nn

de donde
AP = PD

Como P es una matriz inversible ya que sus columnas son los autovectores deA, que son
linealmente independientes, entonces D = P 1AP , es decir, A es diagonalizable.

) Recprocamente, supongamos ahora que A es diagonalizable, entonces se puede

encontrar una matriz inversible P tal que D = P 1AP sea una matriz diagonal,
equivalentemente AP = PD . Empleando las expresiones (1) y (2), se obtiene:

[ A x1 A x 2 A xn ] = 1x1 2 x 2 n xn (3)

Igualando las columnas se tiene que:


A x1 = 1 x1 , A x 2 = 2 x 2 , , A xn = n xn (4)
Dado que P es inversible, sus columnas x1 , x 2 , ..., xn son necesariamente linealmente
independientes. Adems, como estas columnas son no nulas, de (4) se obtiene que
1 , 2 , , n son autovalores y x1 , x 2 , ..., xn sus autovectores asociados.

Observaciones.
1.- Este Teorema se puede enunciar en otros trminos como sigue:
Una matriz A E n xn (K ) es diagonalizable si y slo si existe una base de K n formada

por autovectores de A. Lo que equivale a decir que K n es la suma directa de


subespacios propios de A.

2.- Para terminar, dados n autovectores cualesquiera x1 , x 2 , ..., xn , los colocamos como
columnas de P y situamos los autovalores asociados 1 , 2 , , n sobre la diagonal de
V. Diagonalizacin por transformaciones de semejanza 151

1 0 0

0 2 0
D, es decir, D = . Segn (1), (2) y (3) se tiene que AP = PD . Hasta


0 0 n

aqu, este resultado no exige ninguna condicin a los autovectores. Pero si los
autovectores son linealmente independientes, P es inversible y AP = PD conlleva a
D = P 1AP .
3 1 2
Ejemplo. Diagonalizar, si es posible, la matriz A = 2 0 2 ( A E 3 x 3 ( )).
2 1 1

Dicho de otra forma, encontrar una matriz inversible P y una matriz diagonal D tales
que D = P 1AP .
Solucin. Hace falta pasar por cuatro etapas para realizar lo que se describe en el
Teorema precedente.

Etapa 1. Encontrar los autovalores de A a partir de la ecuacin caracterstica. En este


caso en la ecuacin caracterstica aparece un polinomio de grado 3 que se puede
factorizar:
3 1 2
p A ( ) = A I = 2 2 = ( 1)2 = 0
2 1 1

Los autovalores son 1= 1 (multiplicidad algebraica 2) y 2 = 0 (simple).

Etapa 2. Encontrar los autovectores linealmente independientes de A. Hacen falta tres


autovectores de A porque la matriz A es de orden tres.

Para cada autovalor se va a calcular el subespacio propio asociado, es decir:


V( ) = Ker (A I) = {x 3 / A x = x} = {x 3 / (A I) x = 0}

Para 1= 1 : V(1) = Ker (A I) = {x R 3 / (A I) x = 0} , de donde:

2 1 2 x1 0 2x1 x 2 2x 3 = 0

( A I ) x = 0 2 1 2 x 2 = 0 2x1 x 2 2x 3 = 0 x 2 = 2x1 2x 3

2 1 2 x 3 0 2x1 x 2 2x 3 = 0
entonces, el subespacio propio asociado a 1= 1 es:
V. Diagonalizacin por transformaciones de semejanza 152

x1

V(1) = x / x = 2x1 2x 3 , x1 , x 3
3

x3

1 0

De donde una base de autovectores de V(1) es BV (1) = 2 , 2 .
0 1

Para 2 = 0 : V(0) = Ker (A 0I) = Ker A = {x 3 / A x = 0} , y los autovalores

son las soluciones del sistema A x = 0 , es decir


3 1 2 x1 0 3x1 x 2 2x 3 = 0
x 2 = x1
2 0 2 x 2 = 0 2x1 2x 3 = 0
x 3 = x1
2 1 1 x 3 0 2x1 x 2 x 3 = 0
entonces, el subespacio propio asociado a 2 = 0 es:

x1

V(0) = x / x = x1 , x1
3

x
1

1

y una base de autovectores de V(0) es BV(0) = 1 .
1

Ya se ha visto que los autovectores de una matriz cuadrada de orden n asociados a


autovalores distintos, son linealmente independientes. Luego, el conjunto de vectores
1 0 1

x = 2 , y = 2 , z = 1 es linealmente independiente. Esto implica que existe una
0 1 1

base de 3 formada por autovectores de A, luego A E3x3 () es diagonalizable, es

decir, D = P 1AP .

Etapa 3. Construir P a partir de los autovectores de la etapa 2. El orden de colocacin


de los autovectores no tiene importancia. Adoptamos el de la etapa 2 y los ponemos
como columnas de P, as se tiene:
1 0 1

P = [ x y z ] = 2 2 1
0 1 1

V. Diagonalizacin por transformaciones de semejanza 153

Etapa 4. Construir D a partir de los autovalores asociados. Es esencial que el orden de


colocacin de los autovalores para formar la matriz D sea el mismo que el de los
autovectores dispuestos en columnas para formar P. El autovalor 1= 1 se repite dos
veces, una vez por autovector asociado a 1= 1 :

1 0 0

D = 0 1 0
0 0 0

Es conveniente comprobar si P y D las hemos calculado bien. Para ello, basta con,
evitando calcular P 1 , comprobar que AP = PD , lo que es equivalente a D = P 1AP
cuando P es inversible. (Hay que asegurarse a pesar de todo que P es inversible!).
3 1 2 1 0 1 1 0 0
AP = 2 0 2
2 2 1 = 2 2 0

2 1 1 0 1 1 0 1 0

1 0 1 1 0 0 1 0 0

PD = 2 2 1 0 1 0 = 2 2 0
0 0 0 0 0
1 1 1 0

Observaciones. A partir de este ejercicio se puede deducir que:

1.- Dada la matriz diagonal D, la matriz P formada por autovectores no es nica.


1 0 0
As en este ejercicio, dada la matriz diagonal D = 0 1 0 , las dos opciones
0 0 0

posibles de P seran:
1 0 1 0 1 1

P = 2 2 1 P = 2 2 1
0 1 1 1 0 1

2.- Como = 0 es un autovalor de A, V(0) = Ker f {0} , luego el endomorfismo

f asociado a la matriz A no es inyectivo, y por tanto tampoco sobreyectivo.


3.- Para 1= 1 , la multiplicidad algebraica: m1 = 2, por tanto es igual a la

multiplicidad geomtrica: 1 =dim V(1) =2. Para 2 = 0 , la multiplicidad algebraica:


V. Diagonalizacin por transformaciones de semejanza 154

m2=1, es igual a la multiplicidad geomtrica: 2 = dim V(0) =1. En general se tiene


el siguiente resultado:

Teorema. La multiplicidad geomtrica: i de un autovalor i nunca es mayor que la


multiplicidad algebraica de dicho autovalor, es decir i mi .

Por ltimo se va a ver otra caracterizacin de las matrices diagonalizables en funcin de


la multiplicidad de las races de la ecuacin caracterstica.

Teorema. Un matriz cuadrada A de orden n es diagonalizable si y slo si la


multiplicidad algebraica de cada autovalor K de A coincide con la multiplicidad
geomtrica de dicho autovalor, es decir, con la dimensin del subespacio propio
correspondiente): mi = i , i .

Como corolario a este Teorema se establece una condicin suficiente de


diagonalizacin:

Corolario. Sea A una matriz cuadrada de orden n. Si A tiene n autovalores distintos,


entonces A es diagonalizable.

5.4. DIAGONALIZACIN DE MATRICES SIMETRICAS REALES POR


SEMEJANZA ORTOGONAL

Las matrices simtricas reales aparecen en numerosos problemas en relacin con el


estudio de la dinmica de sistemas fsicos. As por ejemplo, cantidades como la energa
cintica y la potencial se representan a travs de ellas. En fsica, un tensor de inercia
tiene asociada una matriz simtrica real, resultando importante su diagonalizacin
mediante una transformacin ortogonal.

Como vamos a ver a continuacin, las matrices simtricas reales son matrices que tienen
la propiedad de ser siempre diagonalizables. Adems, va a existir una base ortonormada
formada por autovectores.
V. Diagonalizacin por transformaciones de semejanza 155

Autovalores y autovectores de matrices simtricas reales.

Teorema. Sea A una matriz simtrica real de orden n. Entonces A tiene n autovalores
reales (teniendo en cuenta la multiplicidad algebraica de cada uno).

Teorema. Sea A una matriz simtrica real de orden n. Entonces, los autovectores
asociados a autovalores distintos son ortogonales (respecto del producto escalar usual en
n ).

El teorema anterior indica que los autovectores asociados a autovalores distintos son
ortogonales, sin embargo no indica nada respecto a los autovectores asociados a un
autovalor mltiple. Por lo tanto, los autovectores asociados a un autovalor mltiple no
necesariamente son ortogonales; si se quiere ortogonalizarlos, se emplear, por ejemplo,
el mtodo de Gram-Schmidt. Por lo tanto, una base ortonormal de autovectores de la
matriz simtrica real A, para el espacio vectorial n , se puede obtener uniendo bases
ortonormales de cada subespacio propio, obtenidas por el mtodo de Gram-Schmidt.

Teorema. Una matriz A cuadrada (real) de orden n se dice que es diagonalizable


ortogonalmente si existe una matriz ortogonal (real) P (es decir, P 1 = P t ) y una
matriz diagonal D, tales que
D = P t AP = P 1AP

Para diagonalizar ortogonalmente una matriz cuadrada de orden n hace falta disponer
de n autovectores ortonormados y linealmente independientes. Cundo es esto
posible? Si A es diagonalizable ortogonalmente entonces

A t = (PDP t ) t = (P t ) t D t P t = PDP t = A

De donde se tiene que A es una matriz simtrica.

Inversamente, toda matriz simtrica es diagonalizable ortogonalmente. Esto es lo que


afirma el siguiente teorema:
V. Diagonalizacin por transformaciones de semejanza 156

Teorema. Una matriz A cuadrada (real) de orden n es diagonalizable ortogonalmente


si y solamente si A es una matriz simtrica.

Esto permite enunciar el siguiente Teorema:

Teorema. Si A es una matriz simtrica real, entonces existe una base ortonormal de
n formada por n autovectores de A.

Esta base ortonormal formada por autovectores de A se obtiene uniendo bases


ortonormales de cada subespacio propio, que pueden hallarse en cada subespacio propio
empleando el mtodo de Gram-Schmidt.

0 1 1
Ejemplo. Diagonalizar ortogonalmente la matriz A = 1 0 1 .
1 1 0

Solucin. La ecuacin caracterstica de A es:
1 1
p A ( ) = A I = 1 1 = (1 ) 2 (2 + ) = 0
1 1

Por tanto, los autovalores de A son: 1= 1 (con multiplicidad algebraica m1=2) y


2 = 2 .

A continuacin para cada autovalor se va a calcular el subespacio propio asociado, es


decir:
V( ) = Ker (A I) = {x R 3 / A x = x} = {x R 3 / (A I) x = 0}

Para 1= 1 : V(1) = Ker (A I) = {x R 3 / (A I) x = 0} , es decir:

1 1 1 x1 0

1 1 1 x 2 = 0 x1 x 2 + x 3 = 0
1 1 1 x 0
3
Por tanto, el subespacio propio asociado a 1= 1 es:

x1

V(1) = x / x = x1 + x 3 / x1 , x 3
3

x
3
V. Diagonalizacin por transformaciones de semejanza 157

1 0

Siendo una base de autovectores de V(1) : BV(1) = u1 = 1 , u 2 = 1 ,
0 1

y 1 = dim V( 1) = 2 = m1 , algo que est asegurado ya que A es una matriz


simtrica real y por tanto A siempre es diagonalizable.

2 = 2 : V(2) = Ker (A + 2I) = {x R 3 / (A + 2I) x = 0} , es decir:

2 1 1 x1 0
x 2 = x1
1 2 1 x 2 = 0 x = x
1 1 2 x 0 3 1
3
Por tanto, el subespacio propio asociado a 2 = 2 es:

x1

V(2) = x / x = x1 , x1
3

x
1

1

y una base de autovectores de V(2) es BV( 2) = u 3 = 1 . En este caso,
1

2 = dim V( 2 ) = 1 = m 2 , como era de esperar.

As B = {u1 , u 2 , u 3 } es una base de 3 formada por autovectores de A.

Para construir una matriz P ortogonal tal que P t AP sea una matriz diagonal, D, se
necesita una base ortonormal formada por autovectores de A. El subconjunto {u1 , u 2 }

es ortogonal al vector u 3 , puesto que son autovectores asociados a autovalores distintos

de la matriz simtrica A. Sin embargo, a pesar de que u1 y u 2 son linealmente

independientes, no son ortogonales entre s. Entonces, ortogonalizamos slo {u1 , u 2 }


mediante el mtodo de Gram Schmidt:
1

v 1 = u1 = 1
0

0 1

v 2 = u 2 + v1 = 1 + 1 = 1 + , tal que < v1 , v 2 >= 0
1 0 1

V. Diagonalizacin por transformaciones de semejanza 158

1
2

< v1 , v 2 >= 1 + 2 = 0 =
1
y v2 = 1
.
2 2

1

Asi, el subconjunto { v1 , v 2 } es una base ortogonal de autovectores del subespacio propio


V(1).

Por tanto, {v1 , v 2 , u 3 } es una base ortogonal de autovectores de A.

Para obtener una base ortonormada de autovectores de A se normaliza la base ortogonal


anterior, es decir:
1 1 1

2 6 3
1 1 1 1 1 1
w1 = v1 = ; w2 = v2 = ; w3 = u3 =
v1 2 v2 6 u3 3

0 2 1

6 3
Luego, B' = {w 1 , w 2 , w 3 } es una base ortonormada de autovectores de A.
La matriz P ortogonal es:
1 1 1

2 6 3
1 1 1
P = [ w1 w2 w3 ] =
2 6 3
2 1
0
6 3
Se puede comprobar que
1 0 0

P AP = 0 1 0
t

0 0 2

es la matriz diagonal D que es semejante a la matriz A.
V. Diagonalizacin por transformaciones de semejanza 159

EJERCICIOS TEMA 5

1.- Calcular los autovalores y autovectores de las siguientes matrices:

3 2 3 2
a) A () = b) A () =
1 1 2 3

0 2 1 1 2 5
c) A () = 0 0 3 d) A () = 0 6 0
0 0 0 2 7 1

2.- Estudiar si las matrices del ejercicio anterior son diagonalizables.

3.- Para cada matriz del ejercicio 1, obtener una matriz diagonal D que sea semejante a
la matriz A, as como la matriz regular P tales que D = P 1AP .

4.- Estudiar si las siguientes matrices son diagonalizables, y obtener, si es posible, una
matriz diagonal D que sea semejante a la matriz A, as como la matriz regular P tales
que D = P 1AP .

1 0 0 0 3 1
a) A = 1 0 1 b) A = 2 1 1
1 1 0 2 1 1

1 0 0 0

a 1 0 0
5.- Sea A = . Discutir las condiciones que deben cumplir a, b, c, d, e y f
b d 1 0

c e f 1

para que la matriz A sea diagonalizable.

m 0
6.- Sea A = 0 1 0 una matriz donde y m (m 0) . Obtener los autovalores
0 0 2

y autovectores de A. En qu casos la matriz A es diagonalizable?.
V. Diagonalizacin por transformaciones de semejanza 160

a 1 d
7.- Dada A = b 0 e , hallar a, b, c, d, e, f sabiendo que los autovectores de A son:
c 1 f

0 1 2

v1 = 1 , v2 = 2 , v3 = 0 .
1 0 1

2 1 1

8.- Sea A = 0 1 3 . Demostrar (sin utilizar el polinomio caracterstico) que
0 2 2

5

v = 9 es un vector propio de A y encontrar el correspondiente valor propio.
6

1 0
9.- Supngase que A = PDP 1 , siendo D = 2
. Demostrar que B=2I+3A es
0 5
diagonalizable y encontrar una matriz diagonal semejante a B.

10.- Indicar y demostrar si las siguientes afirmaciones son verdaderas o falsas:

a) Las matrices semejantes tienen los mismos valores propios.


b) Si una matriz A tiene el 0 como valor propio entonces A es singular.
2 2 4

c) Si una matriz A es semejante a B, siendo B = 0 3 4 , entonces A = 6 .
0 0 1

1 1 0

11.- Dada la matriz A = 1 2 1 , se pide:
0 1 1

a) Establecer razonadamente si es posible obtener una base de R3 formada por


vectores propios de A. Podemos conseguir que esta base sea ortogonal? Justifica la
respuesta.
V. Diagonalizacin por transformaciones de semejanza 161

b) Calcular los valores y vectores propios de A, as como la base ortonormal de


vectores propios de A.

12.- Dada una matriz A Enxn( R ) simtrica:


a) Es A diagonalizable? Razona la respuesta.
b) Qu puede decirse de los vectores propios de A? Pueden formar una base
ortogonal? Razona la respuesta.

13.- Diagonalizar ortogonalmente si es posible la siguiente matriz:

1 a 0

A = a 1 0 a 0 .
0 0 1

14.-Es posible diagonalizar ortogonalmente la siguiente matriz A real? Justificarlo y,


en caso de ser posible, hacerlo, indicando quin es la matriz D semejante a A y la matriz
P de semejanza ortogonal.

3 0 0 0

0 1 1 1
A=
0 1 1 1

0 1 1 1

(NOTA: los valores propios de A son 1 = 3 doble y 2 = 0 doble).


V. Diagonalizacin por transformaciones de semejanza 162

SOLUCIONES EJERCICIOS TEMA 5

2 2
1.- a) 1= 2 + i , BV( 1) = ; 2 = 2 i , BV( 2) =
1 + i 1 i

1 1
b) 1= 5, BV( 1) = ; 2 = 1, BV( 2 ) =
1 1

1 1

c) 1= 0 (Triple) , BV( ) 1
= 0 ; d) 1= 6 , BV( 1) = 1
0 1

2.- a) Diagonalizable.
b) Diagonalizable.
c) No es diagonalizable.
d) No es diagonalizable.

2+i 0 2 2
3.- a) D = ; P=
0 2-i 1 + i 1 i

5 0 1 1
b) D = ; P=
0 1 1 1

1 0 0 1 1 0
4.- a) D = 0 1 0 ;

P = 1 0 1
0 0 1 0 1 1

b) No es diagonalizable.

5.- a = 0, f = 0 b, c, d, e .

6.- Autovalores de A: 1= ; 2 = 1 ; 3 = 2
Si = 1 , entonces A no es diagonalizable. En cualquier otro caso, s lo es.

5
7.- a = ; b = 1 ; c = 2 ; d = 1 ; e = 2 ; f = 1 .
2
8.- Valor propio = -1.
V. Diagonalizacin por transformaciones de semejanza 163

5 0
9.- La matriz diagonal semejante a B es D = .
0 77

10.- a) Verdadera (Ver Teora).

b) Verdadera (Ver Teora).

c) Verdadera (Ver Teora).

11.- a) S por ser A una matriz simtrica real (Ver Teora para dar justificacin).
b) Valores propios de A: 0, 1 y 3.
1
2 1 3 1 6

Base ortonormal de vectores propios de A = 0 , 1 3 , 2 6 .

1
1 2 3 1 6

12.- S, por ser A simtrica real (Ver Teora).

1 1
0
2 2 1 0 0
1 1
13.- P = 0 D = 0 1 + a 0 .
2 2
1 a
1 0 0 0 0

14.- a) S es posible diagonalizar ortogonalmente la matriz A por ser una matriz


simtrica real.
1 0 0 0
3 0 0 0
0 1/ 3 1/ 2 6 6
0 3 0 0
b) D= , P= .
0 0 0 0 0 1/ 3 1/ 2 6 6
0
0 0 0 2
0 1/ 3 0
3
V. Diagonalizacin por transformaciones de semejanza 164
Tema 6

TRIANGULARIZACIN POR
TRANSFORMACIONES DE SEMEJANZA

6.1. INTRODUCCIN

El siguiente Teorema permite caracterizar las matrices que son triangularizables por
semejanza.

Teorema. Sea A E n x n (K ) ( K = o ). Para que A sea semejante en K a una

matriz triangular es condicin necesaria y suficiente que la ecuacin caracterstica de


A , p A () = 0 , posea n races en K , iguales distintas.

Esta propiedad se verifica cuando K = . Luego, toda matriz cuadrada compleja es


semejante a una matriz triangular de nmeros complejos, es decir, es triangularizable.

Existen distintas formas de triangularizar por semejanza una matriz A . Nosotros vamos
a estudiar en este tema la llamada forma cannica de Jordan de una matriz A , que se
representa por J , y es una matriz diagonal por bloques, cuyos bloques diagonales son
bloques elementales de Jordan.

Es decir, en este tema se resuelve el problema de reducir por semejanza una matriz
cuadrada A de orden n , con n autovalores (repetidos no), a la forma cannica de
Jordan, mediante una matriz regular P , tal que:
J = P -1 A P
equivalentemente
A = P J P -1
Las columnas de P forman la llamada base de Jordan base de K n formada por
cadenas de autovectores generalizados de A .
VI. Triangularizacin por transformaciones de semejanza 166

Es conveniente observar que an cuando los elementos de A sean reales, las matrices J
y P pueden ser complejas (es decir, si es necesario se considera K = ).

6.2. FORMA DE JORDAN DE MATRICES DE ORDEN DOS Y TRES

6.2.1. Forma de Jordan de matrices de orden 2.

Sea A E 2 x 2 (K ) ( K = o ), la matriz asociada al endomorfismo f : K 2 K 2 en

una cierta base.


a c
Si A = , su polinomio caracterstico es
b d
a - c
p A () = = (a - )(d - ) - bc
b d-

con lo que p A () = 0 es una ecuacin de grado 2 en la variable .


Habr dos casos diferentes, segn que las dos soluciones de esta ecuacin sean iguales o
distintas:

Caso I. Las dos races de la ecuacin caracterstica, y , son distintas: la


matriz A es diagonalizable y su forma de Jordan es
0
J=D=
0
Siendo P la matriz de paso, cuyas columnas son los autovectores.

Caso II . Las dos races de la ecuacin caracterstica, y , son iguales: = . En


este caso se calcula V() = Ker ( A I ) :

a) Si dim Ker ( A I ) = 2 se puede encontrar una base de autovectores de


A , y por tanto A es diagonalizable, siendo su forma de Jordan:
0
J=D=
0
y la matriz de paso queda determinada por cualquier base de Ker ( A I ) .
VI. Triangularizacin por transformaciones de semejanza 167

b) Si, por el contrario, dim Ker ( A I ) =1, entonces no se puede encontrar


una base de autovectores de A . En este caso, se observa el siguiente resultado:

Lema. Si A tiene dos autovalores iguales, = , entonces ( A I ) = (0) .


2

Sean V1 ( ) = Ker ( A I ) y

x1 x1 0
V2 ( ) = Ker ( A I ) 2 = x = K 2 / ( A I )2 = K 2
x2 x 2 0

El lema anterior prueba que dim V2 ( ) =2 y entonces V2 ( ) coincide con K 2 . Como

dim V1 ( ) =1, se puede encontrar un vector u 2 V2 ( ) V1 () y obtener otro vector u1

haciendo: u1 = ( A I ) u 2 .

Los vectores u1 y u 2 son linealmente independientes, u 2 V1 ( ) y u1 V1 ( ) , ya que

(A I) u1 = (A I) 2 u 2 = (0) u 2 = 0 , y ninguno de ellos es el vector nulo. Como K 2

es un espacio de dimensin 2, {u1 , u 2 } es una base de K 2 . En esta base se tiene:

(A I) u1 = 0 A u1 = u1
(A I) u 2 = u1 A u 2 = u1 + u 2
con lo que, la matriz de la transformacin lineal f en esta nueva base es:

1

0
Esta matriz no es una matriz diagonal, pero es casi diagonal, y es, en este caso, la forma
reducida de Jordan de la matriz A .

Proposicin. Dada una matriz A E 2 x 2 (K ) , siempre puede encontrarse una matriz

J E 2 x 2 (K ) de una cualquiera de las formas siguientes:

0 0 1
, o / ,
0 0 0
y una matriz P E 2 x 2 (K ) regular, tal que

J = P -1 A P ( A = P J P -1 )
La matriz J se denomina matriz de Jordan de A .
VI. Triangularizacin por transformaciones de semejanza 168

0 2
Ejemplo. Obtener la forma reducida de Jordan de la matriz A = .
-2 4
Solucin. La ecuacin caracterstica de A es:
- 2
pA ( ) = = (4 - )(-) + 4 = 2 - 4 + 4 = ( - 2) 2 = 0
-2 4 -
cuyos autovalores son = 2 (doble).

Para = 2 se tiene:

x
V1 (2) = Ker ( A 2I ) = x = 1 R 2 / ( A 2I ) x = 0
x2

2 2 x 1 0
2 2 x = 0 x 1 = x 2
2
de donde

x1 1
V1 (2) = Ker ( A 2I ) = = x1 / x1 R .
x1 1
A partir del Lema anterior se sabe que V2 (2) = Ker ( A 2I )2 2 , es decir

dim V2 (2) = 2.

Se elige u 2 de modo que perteneciendo a V2 (2) no est en V1 (2) , es decir,

1
u 2 V2 (2) V1 (2) , por ejemplo u 2 = . Entonces
0
2 2 1 2
u1 = ( A 2I ) u 2 = = V1 ()
2 2 0 2
2 1
La matriz de Jordan es J = y la matriz de paso de la base cannica de
0 2
2 1
R 2 a la nueva base {u1 , u 2 } es P = .
2 0
As pues, se debe verificar J = P -1 A P equivalentemente P J = A P ,
siendo P regular:
2 1 2 1 0 2 2 1
= , P regular
2 0 0 2 2 4 2 0
VI. Triangularizacin por transformaciones de semejanza 169

6.2.2. Forma de Jordan de matrices de orden 3.

A continuacin se realizarn varios ejemplos que servirn para comprender mejor los
resultados necesarios para la obtencin de la forma de Jordan de matrices que
representan aplicaciones entre espacios vectoriales de cualquier dimensin.

0 3 1

Ejemplo 1. Obtener la forma reducida de Jordan de la matriz A = 2 1 1 .
2 1 1

Solucin: A partir de la ecuacin caracterstica de A se obtienen los autovalores de A :


A I = 3 2 2 + 4 + 8 = ( 2)( + 2) 2 = 0

de donde = 2 (simple) y = 2 (doble).

A continuacin se calculan los subespacios propios asociados:

Para = 2 se calcula V1 (2) = Ker ( A 2I ) , que es el subespacio vectorial


definido por las ecuaciones:

2 3 1 x1 0 0 0 0 x1 0
2x1 3x 2 x 3 = 0
2 3 1 x =
0 2 3 1 x =
0
2 2
2 1 3 x 0 0 4 4 x 0 4x 2 4x 3 = 0
3 3

x = x2
1
x3 = x 2
de donde:
x1 1

V1 (2) = Ker ( A 2I ) = x1 = x1 1 / x1 R dim V1 (2) = 1 .
-x 1
1

1

Entonces, u1 = 1 es un autovector asociado a = 2 .
1

VI. Triangularizacin por transformaciones de semejanza 170

Para = 2 se calcula V1 (2) = Ker ( A + 2I ) que es el subespacio vectorial

definido por las ecuaciones:

2 3 1 x1 0 2 3 1 x1 0 2 3 1 x1 0

2 1 1 x 2 = 0 2 1 1 x 2 = 0 0 2 2 x 2 = 0
2 1 1 x 0 0 0 0 x 0 0 0 0 x 0
3 3 3

de donde
1

V1 (2) = x1 -1 / x1 R dim V1 (2) = 1 .
1

Luego, dim V1 (2) = 1 < multiplicidad algebraica de = 2 . Esto implica que
A no es diagonalizable. La matriz ms sencilla posible semejante a la matriz A
es su forma reducida de Jordan.

Adems, V1 (2) + V1 (2) 3 , es decir, la suma de los subespacios propios no completa

todo el espacio vectorial 3 , entonces se puede asegurar que no existe una base de
autovectores de A . Es necesario en este caso recurrir al procedimiento realizado en el
caso de races iguales de matrices de orden 2.

Se calcula V2 (2) = Ker ( A + 2I ) 2 , que es el subespacio vectorial cuyas ecuaciones


son:
2
2 3 1 x1 0 8 8 0 x1 0

2 1 1 x 2 = 0 8 8 0 x 2 = 0 x1 = x 2
2 1 1 x 0 8 8 0 x 0
3 3
por tanto,
1 0

V2 (2) = Ker ( A + 2I ) 2 = x1 1 + x 3 0 / x1 ,x 3 R
0
1
que es un subespacio vectorial de dimensin 2. Como la suma V1 (2) + V1 (2) completa

todo el espacio vectorial 3 , se puede elegir una base de 3 tal que la matriz de Jordan
de A sea bastante sencilla en esta base. La forma de elegir esta base es la siguiente:
VI. Triangularizacin por transformaciones de semejanza 171

0

Sea u 3 = 0 un vector de V2 (2) que no pertenece a V1 (2) , y se toma:
1

0 2 3 1 0 1

u 2 = (A + 2I) u 3 = (A + 2I) 0 = 2 1 1 0 = 1
1 2 1 11 1

Se comprueba fcilmente que {u1 , u 2 , u 3 } es una base de 3 formada por

autovectores generalizados , y en esta base la expresin del endomorfismo que tiene


a A como matriz es:

f (u1 ) = A u1 = 2 u1
f (u 2 ) = A u 2 = 2 u 2
f (u 3 ) = A u 3 = u2 2 u 3

2 0 0

De donde la matriz de Jordan de A es J = 0 2 1 , y la matriz de paso es
0 0 2

1 1 0

P = 1 1 0 . Se cumple que J = P -1 A P , es decir, P J = A P ( P regular):
1 1 1

1 1 0 2 0 0 0 3 1 1 1 0

1 1 0 0 2 1 = 2 1 1 1 1 0
1 1 1 0 0 2 2 1 1 1 1 1

2 1 1

Ejemplo 2. Obtener la forma reducida de Jordan de la matriz A = 1 1 0 .
0 1 3

Solucin. A partir de la ecuacin caracterstica de A se obtienen los autovalores de A :


A I = 3 6 2 12 8 = ( + 2)3 = 0

de donde = 2 (triple).

A continuacin se calcula el subespacio propio asociado a = 2 :


VI. Triangularizacin por transformaciones de semejanza 172

Para = 2 se calcula V1 (2) = Ker ( A + 2I ) que es el subespacio vectorial


definido por las ecuaciones:
0 1 1 x1 0

1 1 0 x 2 = 0 x1 = x 2 = x 3
0 1 1 x 0
3

1

se obtiene que V1 (2) = Ker(A + 2I) = x1 1 / x1 R
1

En este ejemplo dim V1 (2) = 1 < 3 = multiplicidad algebraica de = 2 , lo que implica


que no existe una base de autovectores de A , entonces A no es diagonalizable. La
matriz ms sencilla posible semejante a la matriz A es su forma reducida de Jordan.

Se procede a calcular V2 (2) = Ker(A + 2I) 2 :

0 1 1 x1 0 1 0 1 x1 0
2


1 1 0 x 2 = 0 1 0 1 x 2 = 0 x1 = x 3
0 1 1 x 0 1 0 1 x 0
3 3

1 0

V2 (2) = Ker ( A + 2I ) = x1 0 + x 2 1 / x1 , x 2 R
2

1
0
Pero dim V2 (2) = 2 < 3 = multiplicidad algebraica de = 2 . Luego, el subespacio

V2 (2) no completa todo el espacio vectorial 3 . Por tanto, se va a calcular

V3 (2) = Ker ( A + 2I )3 ; y como se tiene que ( A + 2I )3 = (0) , lo cual puede


comprobarse fcilmente, se forma la cadena de subespacios:

V1 (2) V2 (2) V3 (2) = R 3


1

y se elige un vector u 3 V3 (2) = R , tal que u 3 V2 ( 2) ; por ejemplo, u 3 = 0 .
3

0

Se toma u 2 = (A + 2I)u 3 y u1 = (A + 2I)u 2 . Entonces, se tiene:
VI. Triangularizacin por transformaciones de semejanza 173

0 1 1 1 0 0 1 1 0 1

u 2 = (A + 2I)u 3 = 1 1 0 0 = 1 ; u1 = (A + 2I)u 2 = 1 1 0 1 = 1
0 1 1 0 0 0 1 1 0 1

Luego, B' = {u1 , u 2 , u 3 } es una base de 3 , formada por autovectores generalizados.

En esta base:
f (u1 ) = A u1 = 2 u 1
f (u 2 ) = A u 2 = u1 2 u 2
f (u3 ) = A u 3 = u2 2 u 3

2 1 0

De donde la forma reducida de Jordan de A es J = 0 2 1 , que es la matriz
0 0 2

1 0 1

asociada al endomorfismo en la nueva base B' , y P = 1 1 0 es la matriz de paso
1 0 0

de la base cannica a la base B' . Se comprueba fcilmente que J = P -1 A P .

2 0 1

Ejemplo 3. Obtener la forma reducida de Jordan de la matriz A = 0 1 0 .
1 0 0

Solucin. A partir de la ecuacin caracterstica de A se obtienen los autovalores de A :


pA ( ) = A I = ( + 1)3 =0

luego, los autovalores de A son = 1 (triple) .

A continuacin se calcula el subespacio propio asociado a = 1 :

Para = 1 se calcula V1 (1) = Ker(A + I) que es el subespacio vectorial

definido por las ecuaciones:


1 0 1 x1 0

0 0 0 x 2 = 0 x1 = x 3
1 0 1 x 0
3
VI. Triangularizacin por transformaciones de semejanza 174

1 0

se obtiene que V1 (1) = Ker(A + I) = x1 0 + x 2 1 / x1 , x 2 R
1
0

En este ejemplo dim V1 (1) = 2 < 3 = multiplicidad algebraica de = 1 , lo que


implica que no existe una base de autovectores de A , luego A no es diagonalizable. La
matriz ms sencilla posible semejante a la matriz A es su forma reducida de Jordan.

Se calcula V2 (1) = Ker(A + I) 2 :

1 0 1 x 1 0 0 0 0 x 1 0
2


0 0 0 x2 = 0 0 0 0 x2 = 0
1 0 1 x 0 0 0 0 x 0
3 3

Se tiene la cadena de subespacios: V1 (1) V2 (1) = 3 , y se elige u 3 3 V1 (1) ,


1

por ejemplo, u 3 = 0 .
0

Se toma ahora u 2 = (A + I)u 3 , luego

1 0 1 1 1

u2 = 0 0 0 0 = 0 .
1 0 1 0 1

Como V1 (1) es un subespacio de dimensin 2, se puede elegir an un vector

u1 V1 (1) de manera que B' = {u1 , u 2 , u 3 } sea una base de 3 . Por ejemplo,

0

u1 = 1 . En esta base B' :
0

f (u1 ) = A u1 = u 1
f (u 2 ) = A u 2 = u2
f (u 3 ) = A u 3 = u2 u 3
VI. Triangularizacin por transformaciones de semejanza 175

1 0 0

Entonces la forma reducida de Jordan de A es J = 0 1 1 , que es la matriz
0 0 1

0 1 1

asociada al endomorfismo en la nueva base B' , y P = 1 0 0 es la matriz de paso
0 1 0

de la base cannica de 3 a la base B' . Se comprueba fcilmente que J = P -1 A P .

A continuacin se va a resumir el procedimiento utilizado en la obtencin de las


matrices de Jordan de los ejemplos anteriores:

Una vez calculados los autovalores, , de A , se obtienen los ncleos de (A I) ,


donde A es la matriz dada. Se pueden dar dos casos:

1) Si estos ncleos completan todo el espacio vectorial, entonces se puede


encontrar una base de autovectores de A y la matriz A es diagonalizable.

2) Si por el contrario, los ncleos no completan todo el espacio vectorial, es porque


existen autovalores de A dobles (multiplicidad algebraica 2) o triples
(multiplicidad algebraica 3), cuya multiplicidad geomtrica, , es inferior a su
multiplicidad algebraica, m, y en este caso, es necesario construir la cadena de
los ncleos de (A I) j , j = 1, 2,3 . Cuando se haya completado todo el espacio
vectorial, se procede a elegir una base adecuada tal y como se ha mostrado en
los ejemplos (para cada autovalor hay que obtener un total de m autovectores
generalizados).

6.3. TEOREMA DE CLASIFICACIN DE JORDAN

Definicin. Se denomina matriz elemental de Jordan bloque de Jordan de orden k y


autovalor a toda matriz cuadrada, J k ( ) de orden k , cuyos elementos son todos
nulos, excepto los de la diagonal principal, que valen , y los situados inmediatamente
encima de la diagonal principal, que son todos unos. Por ejemplo:
VI. Triangularizacin por transformaciones de semejanza 176

1 0 0
1 0
1 0 1 0
J1 () = ( ) J 2 ( ) = J 3 () = 0 1 J 4 ( ) =
0 0 0 0 0 1

0 0 0

Definicin. Se llama matriz de Jordan, J , a cualquier matriz cuadrada formada por


yuxtaposicin de matrices elementales de Jordan la lo largo de la diagonal, de la forma:

Teorema de clasificacin de Jordan. Toda matriz cuadrada A (real o compleja) de


orden n , es semejante a una matriz de Jordan (compleja), determinada de manera nica
salvo por permutaciones de las matrices de Jordan elementales que la componen.

6.4. ALGORITMO PARA OBTENER LA FORMA DE JORDAN DE UNA


MATRIZ

El algoritmo que se utilizar para la obtencin de la forma de Jordan de una matriz


cuadrada A (real o compleja) de orden n , consta de los siguientes pasos:

1) Dada la matriz A , se comienza calculando los autovalores de A . Sean stos


1 , 2 , m con multiplicidades algebraicas r1 , r 2 , r m respectivamente, tal que

r1 + r 2 + + rm = n .

2) Para cada autovalor se calcula la cadena de subespacios :


V1 ( ) = Ker(A I ) V2 ( ) = Ker(A I ) 2

VI. Triangularizacin por transformaciones de semejanza 177

Vp ( ) = Ker(A I) p = Vp+1 ( ) = Ker(A I ) p+1 =


formada por los ncleos de las potencias sucesivas de (A I) ; la cadena anterior se


estabiliza despus de un cierto nmero de pasos p (el subespacio Vp ( ) se denomina

autoespacio mximo asociado a ). El valor de p puede conocerse porque

dim Vp ( ) = multiplicidad algebraica de .

3) Se toma el mayor nmero posible de vectores linealmente independientes de


Vp ( ) Vp-1 ( ) ; sean stos Fp = {u1 ,..., ur } .

Las imgenes sucesivas a partir de (A I) de cada uno de los vectores de Fp forman

una matriz elemental de Jordan J p ( ) . En el subespacio generado por Fp y las potencias

sucesivas mediante (A I) de los elementos de Fp , la forma de Jordan de A , respecto

a la base
Bp () = (A I) p 1 (Fp ) (A I)(Fp ) Fp ,

est formada por yuxtaposicin de r matrices elementales de Jordan de orden p


dispuestas sobre la diagonal principal.
VI. Triangularizacin por transformaciones de semejanza 178

4) A continuacin se elige el mayor nmero posible de vectores de Vp-1 ( ) Vp-2 ( )

que sean linealmente independientes entre s y linealmente independientes con la


coleccin Bp ( ) , sean stos Fp-1 = {ur+1 , , u t } .

Las imgenes sucesivas de cada uno de estos vectores mediante la matriz (A I) nos
dan un conjunto de vectores linealmente independientes, Bp-1 ( ) , con respecto a los

cuales la matriz de f es una yuxtaposicin en la diagonal principal de t r matrices


elementales de Jordan de orden p 1 .

5) Se contina realizando el procedimiento descrito en 4) hasta llegar a V1 ( ) , en


donde se eligen, si es posible, los vectores necesarios para que junto con todos los
vectores anteriormente elegidos se tenga una base B( ) del autoespacio mximo
Vp ( ) .

6) Se repiten los pasos del 2) al 5) con cada uno de los autovalores j ; la matriz de

Jordan de A es la yuxtaposicin de las matrices elementales de Jordan de A . El


cambio de base viene dado por todos los vectores anteriormente elegidos.

1 0 2 6

0 1 1 3
Ejemplo 4. Obtener la matriz de Jordan de A = , y una matriz P
0 0 1 3

0 0 0 2
tal que AP = PJ .

Solucin. A partir de la ecuacin caracterstica de A se obtienen los autovalores de A :


pA ( ) = A I = ( 1)3 ( 2) =0

de donde los autovalores de A son 1= 1 (triple) y 2 = 2 (simple) .

A continuacin se calculan los subespacios propios asociados a cada autovalor:


VI. Triangularizacin por transformaciones de semejanza 179

Para 1= 1 se calcula V1 (1) = Ker(A I) que es el subespacio vectorial definido

por las ecuaciones:

0 0 2 6 x 1 0 1 0
0 1
0 1 3 x 2 0 x 3 = 0 0
= V1 (1) = Span ,
0 0 0 3 x3 0 x 4 = 0 0 0
0
0 0 0 1 x 4 0 0

En este ejemplo dim V1 (1) = 2 < 3 = multiplicidad algebraica de 1= 1 . Esto implica que
no existe una base de autovectores de A , luego A no es diagonalizable. Entonces
vamos a calcular una base de autovectores generalizados, en la cual la matriz ms
sencilla posible semejante a la matriz A sea su forma reducida de Jordan.

A continuacin calculamos V2 (1) = Ker(A I) 2 :


2
0 0 2 6 x 1 0 0 0 0 0 x1 0

0 0 1 3 x 2 0 0 0 0 0 x2 0
= = x4 = 0
0 0 0 3 x3 0 0 0 0 3 x3 0

0 0 0 1 x 4 0 0 0 0 1 x 4 0

1 0 0
1 0
0
de donde V2 (1) = Span , ,
0 0

1

0 0 0

Como (A I)3 = (A I)2 , entonces V2 (1) es el autoespacio mximo correspondiente a

1= 1 , por tanto se verifica que V2 (1) V1 (2) = 4 . Se elige

0

0
u 3 = V2 (1) V1 (1)
1
0

y
VI. Triangularizacin por transformaciones de semejanza 180

0 0 2 6 0 2

0 0 1 3 0 1
u 2 = (A I)u 3 = = V1 (1)
0 0 0 3 1 0

0 0 0 1 0 0

1

0
Luego se elige u1 = de modo que pertenezca a V1 (1) y sea linealmente
0

0
independiente con el vector u 2 .

Finalmente, para 2 = 2 se calcula V1 (2) = Ker(A 2I) , que es el subespacio

vectorial definido por las ecuaciones:

1 0 2 6 x 1 0
x1 + 2x 3 6x 4 = 0 x1 = 0
0 1 1 3 x 2 = 0 x x + 3x = 0 x = 0
0 0 1 3 x 3 0
2 3 4

2

x 3 + 3x 4 = 0 x 3 = 3x 4
0 0 0 0 x4 0
de donde
0

0
V1 (2) = Span .
3
1

0

0
Si se toma u 4 = , se tiene una base del espacio vectorial 4 : B ' = {u1 ,u 2 ,u 3 ,u 4 } .
3

1
Luego, la matriz de paso de la base cannica de 4 a la nueva base B ' es :

1 2 0 0 1 0 0 0

0 1 0 0 0 1 1 0
P= , y la forma de Jordan de A es la matriz J = .
0 0 1 3 0 0 1 0

0 0 0 1 0 0 0 2
VI. Triangularizacin por transformaciones de semejanza 181

1 2 3 0 0

0 1 2 0 0
Ejemplo 5. Obtener la matriz de Jordan de A = 0 0 1 2 0 , y una matriz P tal

0 0 0 2 1
0 0 0 0 1

que AP = PJ .

Solucin. A partir de la ecuacin caracterstica de A se obtienen los autovalores de A :


pA ( ) = A I = ( 1)4 ( 2) = 0

de donde los autovalores de A son 1= 1 (multiplicidad algebraica=4) y 2 = 2 (simple).

A continuacin se calculan los subespacios propios asociados a cada autovalor:

Para 1= 1 se calcula V1 (1) = Ker(A I) que es el subespacio vectorial definido

por las ecuaciones:

0 2 3 0 0 x1 0
2x 2 + 3x 3 = 0
0 0 2 0 0 x2 0
2x 3 = 0
0 0 0 2 0 x3 = 0 x 2 = x3 = x 4 = x5 = 0
2x 4 = 0
0 0 0 1 1 x 4 0
x 4 + x 5 = 0
0 0 0 0 0 x 5 0

1

0
V1 (1) = Span 0
0

0

A continuacin se calcula V2 (1) = Ker(A I) 2 :


VI. Triangularizacin por transformaciones de semejanza 182

0 0 4 6 0

0 0 0 4 0
(A I) = 0
2
0 0 2 2 , de donde el sistema que resulta al operar es:

0 0 0 1 1
0 0 0 0 0

1 0

3x 3 + 6x 4 = 0 0 1

x 4 = 0 V2 (1) = Span 0 , 0
x 5 = 0 0
0
0 0

Luego se calcula V3 (1) = Ker(A I)3 :

0 0 0 14 6

0 0 0 4 4
(A I) = 0
3
0 0 2 2 , de donde las ecuaciones resultantes son x 4 = x 5 = 0 .

0 0 0 1 1
0 0 0 0 0

1 0 0

0 1 0
Luego, V3 (1) = Span 0 , 0 , 1
0
0 0
0 0

0

Ahora se calcula V4 (1) = Ker(A I) 4 :

0 0 0 14 14

0 0 0 4 4
(A I) = 0
4
0 0 2 2 , de donde las ecuaciones son x 4 = x 5 .

0 0 0 1 1
0 0 0 0 0

1 0 0 0

0 1 0 0
Entonces, V4 (1) = Span 0 , 0 , 1 , 0
0
0 0 1
0 0

0

1

VI. Triangularizacin por transformaciones de semejanza 183

Como V5 (1) = V4 (1) , ya que (A I)5 = (A I)4 , entonces V4 (1) es el


autoespacio mximo. Se toma :

0 0

0 0
u 4 = 0 V4 (1) V3 (1) , u 3 = (A I)u 4 = 2 ,

1 0
1 0

6 8

4 0
u 2 = (A I)u 3 = 0 , u1 = (A I)u 2 = 0 .

0 0
0 0

Para 2 = 2 se calcula V1 (2) = Ker(A 2I) que es el subespacio vectorial

definido por las ecuaciones:

1 2 3 0 0 x1 0 14
x1 + 2x 2 + 3x 3 = 0
0 1 2 0 0 x2 0
x 2 + 2x 3
= 0
4

0 0 1 2 0 x3 = 0 V1 (2) = Span 2
x 3 + 2x 4 = 0 1
0 0 0 0 1 x 4 0
x5
= 0
0 0 0 0 1 x 5 0 0

Por tanto,
1 1 0 0 0 8 6 0 0 14

0 1 1 0 0 0 4 0 0 4
J = 0 0 1 1 0 y P = 0 0 2 0 2 .

0 0 0 1 0 0 0 0 1 1
0 0 0 0 2 0 1 0
0 0
VI. Triangularizacin por transformaciones de semejanza 184
VI. Triangularizacin por transformaciones de semejanza 185

EJERCICIOS TEMA 6

Obtener la forma reducida de Jordan de las siguientes matrices, as como la relacin


entre A y J (es decir, a travs de la matriz de paso P ):

1 0 1 0 2 -2 -4 9
1 0 0
-1 -1 4 0 0 0 -4 -10
1.- A = 1 0 -1 2.- A = 3.- A =
1 -1 0 -1 0 3 0 0 1 4 5

-1 0 4 -1 0 0 0 2

1 0 1 0 0
-1 1 0 0

-1 1 0

0 0 1 0 1 0
4.- A = 5.- A = 0 0 1 0 1
-1 1 0 0
0 0 0 1 0
-1 1 0 0 0
0 0 0 1

6.- Siendo f un endomorfismo de R10 con un solo autovalor , obtener la forma


reducida de f y explicar cmo se puede construir la base en la cual el endomorfismo
est as representado, a partir de los siguientes datos de las dimensiones de los ncleos
de las sucesivas potencias de (A - I) :
a) n1 = 3, n 2 = 5, n 3 = 7, n 4 = 9 y n 5 = 10

b) n1 = 3, n 2 = 6, n 3 = 9 y n 4 = 10

c) n1 = 2, n 2 = 4, n 3 = 6, n 4 = 8 y n 5 = 10

Considerar n i = dim Ker(A - I)i .

7.- Hallar, en funcin de , la matriz ms sencilla posible semejante a

4 6 -2

A = -1 -1 1
0 0

VI. Triangularizacin por transformaciones de semejanza 186

2 1 0

8.- Dada la matriz A = 1 2 1 :
0 0 k

a) Discutir en funcin del parmetro k si la matriz A es diagonalizable.

b) Para el caso en que k=1 hallar la matriz ms sencilla posible semejante a A ,


as como la matriz P de semejanza.

9.- Sea f un endomorfismo de R 6 , .y su polinomio caracterstico pA(x)=( -x)6 .


Averiguar la forma de Jordan, J, de f y explicar cmo debe buscarse la base en la que
tiene dicha forma el endomorfismo, en los siguientes casos:

a) Si dim V1( ) = dim Ker (A - I) = 4, dim V2( ) = dim Ker (A - I)2 = 5,


y dim V3( ) = dim Ker (A - I)3 = 6.
b) Si dim V1( ) = dim Ker (A - I) = 4 y dim V2( ) = dim Ker (A - I)2 =6.

2 1 0 0 0 0 0

0 2 1 0 0 0 0
0 0 2 0 0 0 0

10.- Sea J= 0 0 0 2 0 0 0 la forma de Jordan de una matriz A .
0 0 0 0 5 1 0

0 0 0 0 0 5 1
0 0 0 0 0 0 5

a) Obtener los valores propios de A , indicando su multiplicidad algebraica y


geomtrica.

b) Obtener la dimensin de los subespacios Vk( ), siendo Vk( ) =Ker (A- I)k.

11.- Sea f un endomorfismo cuya matriz asociada en una base B es A . Sea


VI. Triangularizacin por transformaciones de semejanza 187

5 1 0 0 0 0 0

0 5 1 0 0 0 0

0 0 5 0 0 0 0

J = 0 0 0 5 1 0 0 la matriz de Jordan asociada al mismo endomorfismo en

0 0 0 0 5 0 0

0 0 0 0 0 6 1

0 0 0 0 0 0 6

la base B* = {u 1, u 2 , u 3 , u 4 , u 5 , u 6 , u 7 } .

a) Calcular el valor del determinante de A Es A regular?

b) Es f un endomorfismo biyectivo? Razonar la respuesta.

c) Hallar los valores propios de A . Para cada uno de ellos, indicar:

i) multiplicidad algebraica

ii) multiplicidad geomtrica y


k
iii) dimVk ( ) = dimKer (A - I) , k = 1, 2...

iv) Cuntas matrices elementales o bloques elementales de Jordan forman la


matriz J? A qu valores propios corresponden?

d) La base B* est compuesta por siete vectores. Cules son vectores propios? A qu
valores propios estn asociados?
VI. Triangularizacin por transformaciones de semejanza 188

SOLUCIONES EJERCICIOS TEMA 6

1 0 0 1 1 0

1. J = 0 1 0 P = 1 0 1
0 0 -1 0 1 1

2 1 0 0 -1 1 0 0

0 2 0 0 -1 0 1 0
2. J= P=
0 0 -1 0 -1 0 0 0

0 0 0 -1 -1 0 0 1

2 1 0 0 -2 0 9 0

0 2 0 0 -2 1 -10 0
3. J= P=
0 0 2 1 1 0 5 0

0 0 0 2 0 0 0 1

0 0 0 0 0 0 1 0

0 0 0 0 0 0 1 1
4. J= P=
0 0 0 1 0 1 1 0

0 0 0 0 1 0 1 0

1 1 0 0 0 1 0 0 0 0

0 1 1 0 0 0 0 0 1 0
5. J = 0 0 1 0 0 P = 0 1 0 0 0

0 0 0 1 1 0 0 0 0 1
0 0 0 0 1 0 1 0 0
0
VI. Triangularizacin por transformaciones de semejanza 189

1 0 0 0 0 0 0 0 0

0 1 0 0 0 0 0 0 0
0 0 1 0 0 0 0 0 0

0 0 0 1 0 0 0 0 0
0 0 0 0 0 0 0 0 0
6.a) J=
0 0 0 0 0 1 0 0 0
0 0 0 0 0 0 1 0 0

0 0 0 0 0 0 0 1 0
0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0

1 0 0 0 0 0 0 0 0

0 1 0 0 0 0 0 0 0
0 0 1 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0
0 0 0 0 1 0 0 0 0
6.b) J=
0 0 0 0 0 1 0 0 0
0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 1 0
0 0 0 0 0 0 0 0 1

0 0 0 0 0 0 0 0 0

1 0 0 0 0 0 0 0 0

0 1 0 0 0 0 0 0 0
0 0 1 0 0 0 0 0 0

0 0 0 1 0 0 0 0 0
0 0 0 0 0 0 0 0 0
6.c) J=
0 0 0 0 0 1 0 0 0
0 0 0 0 0 0 1 0 0

0 0 0 0 0 0 0 1 0
0 0 0 0 0 0 0 0 1

0 0 0 0 0
0 0 0 0

0 0 1 1 0 2 0 0

7.- a) 1, 2 D = 0 1 0 b) = 1 J = 0 1 0 c) = 2 D = 0 2 0
0 0 2 0 0 2 0 0 1

VI. Triangularizacin por transformaciones de semejanza 190

8.-
k 1,3 A diagonalizable 3 0 0 1 1 1

a) k = 1 A no es diagonalizable , b) J = 0 1 1 , P = 1 -1 0
k = 3 A no es diagonalizable 0 0 1 0 0 -2

1 0 0 0 0

0 1 0 0 0
0 0 0 0 0
9.- a) J = .
0 0 0 0 0
0 0 0 0 0

0 0 0 0 0

Base = {u1, u2, u3, u4, u5, u6}, donde: u2 = (A - I) u3, u1 = (A - I) u2 y

u4, u5 y u6 son vectores propios linealmente independientes de u1.

1 0 0 0 0

0 0 0 0 0
0 0 1 0 0
b) J =
0 0 0 0 0
0 0 0 0 0

0 0 0 0 0

Base = {u1, u2, u3, u4, u5, u6}, donde: u3 = (A - I) u4, u1 = (A - I) u2 y

u5 y u6 son vectores propios linealmente independientes de u1 y u3 .

10.- a) 1 = 2, m1 = 4, 1 = 2 ; 2= 5, m 2 = 3, 2 = 1.

b) dim V1(2)= 2, dim V2(2)= 3, dim V3(2)= 4.


dim V1(5)= 1, dim V2(5)= 2, dim V3(5)= 3.

11.-

a) A = J = 556 2 . El valor del determinante no es cero, por lo tanto es regular.

b) f es un endomorfismo biyectivo, ya que la matriz asociada a ese endomorfismo es


regular. Otra respuesta posible sera: como no hay ningn valor propio igual a cero, la
aplicacin ser biyectiva.
VI. Triangularizacin por transformaciones de semejanza 191

1 = 5 m1 = 5 1 = dimV(5) = 2 dimV2 (5) = 4 dimV3 (5) = 5


c) i) ii) iii)
2 = 6 m2 = 2 2 = dimV(6) = 1 dimV2 (6) = 2

iv) La matriz de Jordan est formada por 3 matrices elementales:

J 3 (5) : matriz elemental de Jordan de orden tres asociada al valor propio 5.

J 2 (5) : matriz elemental de Jordan de orden dos asociada al valor propio 5.

J 2 (6) : matriz elemental de Jordan de orden tres asociada al valor propio 6.

d) Los vectores propios son los vectores de subespacios propios, es decir, de V1 ( ) . Por

lo tanto, hay tres vectores propios: dos asociados al valor propio 1 = 5 y uno asociado

a 2 = 6 . Los vectores propios generan columnas con el valor propio en la diagonal


principal y el resto ceros. Por lo tanto los vectores propios son:

u1, u 4 asociados a 1 = 5 y u 6 asociado a 2 = 6 .


VI. Triangularizacin por transformaciones de semejanza 192
BIBLIOGRAFA

1. ANTON, H., Introduccin al lgebra Lineal. Limusa, Mxico.


2. BURGOS, DE J., lgebra Lineal. Mc Graw-Hill.
3. BRAVO, E., GONZALEZ A. G. Y OTROS, Exmenes resueltos de lgebra Lineal y
Matemticas I, 1996-2000, Ingeniera Industrial e Ingeniera de Telecomunicacin Escuela
Superior de Ingenieros de Bilbao. Servicio Editorial de la Universidad del Pas Vasco.
4. BRAVO, E., GONZALEZ A. G. Y OTROS, Exmenes resueltos de lgebra Lineal y
Matemticas I, 2001-2005, Ingeniera Industrial e Ingeniera de Telecomunicacin Escuela
Superior de Ingenieros de Bilbao. Servicio Editorial de la Universidad del Pas Vasco.
5. FLAQUER, J., Curso de lgebra Lineal. Eunsa.
6. GROSSMAN, S. I., lgebra Lineal. 2a Ed. Grupo Editorial Iberoamericano, Mxico.
7. HERNNDEZ, E., lgebra y Geometra. Ediciones de la Universidad Autnoma de
Madrid.
8. LANG, S., lgebra Lineal. Fondo Educativo Interamericano, Mxico.
9. NOBLE, B. Y DANIEL, J. W. , Applied Linear Algebra. Prentice-Hall.
10. ROJO, J., lgebra Lineal. AC, Madrid.
11. STRANG, G., Linear Algebra and its Applications. HBJ .

You might also like