You are on page 1of 8

75 Matematicas I :

Algebra Lineal
Anexo 1: Demostraciones
Espacios vectoriales
Demostracion de: Propiedades 89 de la pagina 41
Propiedades 89.- Algunas propiedades que se deducen de las anteriores son:
(i) 0u = 0 . (ii) k0 = 0 . (iii) (1)u = u.
(iv) ku = 0 k = 0 o u = 0 .
(v) El vector cero de un espacio vectorial es unico.
(vi) El vector opuesto de cada vector del espacio vectorial es unico.
Demostracion:
(i) Como 0u = (0 +0)u = 0u +0u, si sumamos a cada lado de la igualdad el opuesto de 0u, tenemos que
0u + (0u) = 0u + 0u + (0u) luego 0 = 0u + 0 = 0u.
(ii) Como k0 = k(0 + 0) = k0 +k0 , si sumamos a cada lado de la igualdad el opuesto de k0 , tenemos que
k0 + (k0) = k0 + k0 + (k0) luego 0 = k0 + 0 = k0 .
(v) Si w verica que w + u = u, entonces w + u +(u) = u +(u) de donde w + 0 = 0 y w = 0 .
En consecuencia, el vector cero es unico.
(vi) Si w verica que w+u = 0 , entonces w+u+(u) = 0 +(u) de donde w+0 = u y w = u.
En consecuencia, el vector opuesto es unico.
(iii) Veamos que (1)u es el opuesto u: u + (1)u = 1u + (1)u = (1 + (1))u = 0u = 0 .
(iv) Si ku = 0 y k = 0, entonces
1
k
ku =
1
k
0 = 0 . Luego 0 =
1
k
ku = (
1
k
k)u = 1u = u.
La implicacion en el otro sentido es evidente por (i) y (ii).
Demostracion de: Lema 96 de la pagina 43
Lema 96.- Si S es un conjunto linealmente independiente de vectores de V y v V linS, entonces S{v}
es linealmente independiente.
Demostracion:
Sea S = {u
1
, u
2
, . . . , u
r
} es un conjunto linealmente independiente de vectores V y sea v V que no
pertenece a linS. Entonces, en la igualdad vectorial

1
u
1
+
2
u
2
+ +
r
u
r
+ v = 0 7.1
el coeciente debe ser cero, pues si no lo es, podemos despejar v =

u
1


2

u
2


r

u
r
y v
estara generado por los vectores de S, lo que no es cierto. Ahora bien, como = 0, la ecuacion 7.1 se reduce
a
1
u
1
+
2
u
2
+ +
r
u
r
= 0 y en consecuencia, todos los
i
son cero por ser los vectores u
i
linealmente
independientes.
Demostracion de: Lema 97 de la pagina 43
Prof: Jose Antonio Abia Vian I.T.I. en Electricidad
76 Matematicas I :

Algebra Lineal Anexo 1
Lema 97.- Sean V un espacio vectorial y B una base de V formada por n vectores. Entonces cualquier
conjunto {v
1
, v
2
, . . . , v
m
} de vectores de V , con m > n, es linealmente dependiente.
Demostracion:
Sea B = {w
1
, w
2
, . . . , w
n
} la base de V . Cada vector v
k
del conjunto {v
1
, v
2
, . . . , v
m
} puede expresarse
como combinacion lineal de los vectores de B, en la forma
v
k
= a
k1
w
1
+ a
k2
w
2
+ + a
kn
w
n
, para cada k = 1, . . . , m
El conjunto es linealmente dependiente si la ecuacion
1
v
1
+
2
v
2
+ +
m
v
m
= 0 tiene m ultiples
soluciones. Sustituyendo:
0 =
1
(a
11
w
1
+ a
12
w
2
+ + a
1n
w
n
) +
2
(a
21
w
1
+ a
22
w
2
+ + a
2n
w
n
)
+ +
m
(a
m1
w
1
+ a
m2
w
2
+ + a
mn
w
n
)
=(
1
a
11
+
2
a
21
+ +
m
a
m1
)w
1
+ (
1
a
12
+
2
a
22
+ +
m
a
m2
)w
2
+ + (
1
a
1n
+
2
a
2n
+ +
m
a
mn
)w
n
Como B es un conjunto linealmente independiente de vectores, se tiene el sistema lineal

1
a
11
+
2
a
21
+ +
m
a
m1
= 0

1
a
12
+
2
a
22
+ +
m
a
m2
= 0
= 0

1
a
1n
+
2
a
2n
+ +
m
a
mn
= 0
_

_
que tiene m incognitas (los
k
) y n ecuaciones, con m > n, por lo que no tiene solucion unica.
Demostracion de: Proposicion 101 de la pagina 43
Proposicion 101.- Si V es un espacio vectorial, con dimV = n. Entonces, un conjunto de n vectores de V es
base de V ,
a) si el conjunto es linealmente independiente, o
b) si genera a V .
Demostracion:
Sea S el conjunto de n vectores.
Si S es linealmente independiente, tiene que generar V , pues si no: podran a nadirse vectores linealmente
independientes con lo anteriores hasta formar una base de V (existira al menos un vector v
n+1
V linS,
tal que S {v
n+1
} es linealmente independiente, ver comentarios previos al Lema 97 anterior) que tendra al
menos n + 1 vectores, lo que es absurdo.
Analogamente si S genera V , tiene que ser linealmente independiente, pues si no: podran eliminarse
vectores dependientes de S hasta conseguir una base que tendra menos de n vectores (Lema 94), lo que
tambien es absurdo.
Demostracion de: Desigualdad de Cauchy-Schwarz 111 de la pagina 47
Desigualdad de Cauchy-Schwarz 111.- Para todo u, v V, espacio con producto interior, se tiene
u, v
2
u
2
v
2
o en la forma |u, v| u v .
Demostracion:
Si v = 0 , es claro que 0 = u, 0
2
u
2
0
2
= 0, u V .
Si v = 0 , para todo k IR, se verica que
0 u kv
2
= u kv, u kv = u, u 2ku, v + k
2
v, v
en particular, para k =
u, v
v, v
. Luego
0 u, u 2
u, v
v, v
u, v +
u, v
2
v, v
2
v, v =u, u 2
u, v
2
v, v
+
u, v
2
v, v
=u, u
u, v
2
v, v
= u
2

u, v
2
v
2
Prof: Jose Antonio Abia Vian I.T.I. en Electricidad
77 Matematicas I :

Algebra Lineal Anexo 1
de donde
u, v
2
v
2
u
2
y por consiguiente u, v
2
u
2
v
2
.
Demostracion de: Teorema 119 de la pagina 48
Teorema 119.- Si S = {v
1
, v
2
, . . . , v
k
} un conjunto nito de vectores no nulos, ortogonales dos a dos, entonces
S es linealmente independiente.
Demostracion:
Veamos que en la igualdad
1
v
1
+ +
i
v
i
+ +
k
v
k
= 0 , cada
i
tiene que ser cero:
0 = v
i
, 0 =v
i
,
1
v
1
+ +
i
v
i
+ +
k
v
k
=
1
v
i
, v
1
+ +
i
v
i
, v
i
+ +
k
v
i
, v
k

=0 + +
i
v
i
, v
i
+ + 0 =
i
v
i

2
como v
i
= 0 , su norma no es cero por lo que tiene que ser
i
= 0.
Demostracion de: Lema 124 de la pagina 49
Lema 124.- Sean V un espacio vectorial con producto interior, W un subespacio de V y B una base ortonormal
de W . Entonces para cada v V , el vector v Proy
W
(v) es ortogonal a cada vector de W .
Demostracion:
Por la Proposicion 118, para probar que un vector es ortogonal a todos los vectores de un subespacio, basta
probarlo para los vectores de una base. Sea B = {w
1
, w
2
, . . . , w
k
}, para cada w
i
de B, por ser B ortonormal,
w
i
, w
i
= 1 y w
i
, w
j
= 0, si i = j , entonces
vProy
W
(v), w
i
=v v, w
1
w
1
v, w
i
w
i
v, w
k
w
k
, w
i

=v, w
i
v, w
1
w
1
, w
i
v, w
i
w
i
, w
i
v, w
k
w
k
, w
i

=v, w
i
0 v, w
i
1 0 = v, w
i
v, w
i
= 0
Luego es ortogonal a los vectores de B y, por consiguiente, a todos los vectores de W .
Unicidad de la proyeccion ortogonal.- Sea V un espacio con producto interior y W un subespacio de V . Para
cada v V , la proyeccion ortogonal de v en W no depende de la base ortonormal elegida.
Es decir, si B
1
= {u
1
, u
2
, . . . , u
k
} y B
2
= {v
1
, v
2
, . . . , v
k
} son dos bases ortonormales de W , entonces,
para cada v V , los vectores
Proy
(1)
W
(v) =w
1
= v, u
1
u
1
+v, u
2
u
2
+ +v, u
k
u
k
Proy
(2)
W
(v) =w
2
= v, v
1
v
1
+v, v
2
v
2
+ +v, v
k
v
k
son el mismo.
Demostracion:
Como w
1
es una proyeccion ortogonal de v sobre W , el vector w
1
W y el vector v w
1
es ortogonal a
W y, por la misma razon, el vector w
2
W y el vector v w
2
es ortogonal a W .
Entonces, el vector (v w
1
) (v w
2
) = w
2
w
1
cumple que: es ortogonal a todos los vectores de
W por ser diferencia de dos vectores ortogonales a W ; y tambien es un vector de W por ser diferencia de dos
vectores de W . En consecuencia, es ortogonal a si mismo y w
2
w
1
, w
2
w
1
= 0, luego es el vector 0 ;
por lo que w
1
= w
2
y la proyeccion ortogonal no depende de la base.
Aplicaciones lineales
Justicacion del metodo descrito en la Observacion 136, de la pagina 56
Usaremos en la justicacion el mismo ejercicio del ejemplo, pero la prueba es valida en cualquier caso.
Haciendo las operaciones elementales sobre la matriz A
t
, que tiene por las las [f(v
i
)]
B
2
, hemos obtenido la
matriz que tiene por las
_
_
_
_
_
_
_
_
[f(v
1
)]
B
2
[f(v
6
v
1
)]
B
2
[f(v
5
v
6
+v
1
)]
B
2
[f(v
4
+
1
2
v
1

3
2
v
6

3
2
v
5
)]
B
2
[f(v
3
+ v
6
+ 2v
5
)]
B
2
[f(v
2
2v
6
v
5
)]
B
2
_
_
_
_
_
_
_
_
. Luego si repetimos las mismas operaciones
Prof: Jose Antonio Abia Vian I.T.I. en Electricidad
78 Matematicas I :

Algebra Lineal Anexo 1
sobre la matriz J que tiene por las
_
_
_
_
_
_
_
_
[v
1
]
B
1
[v
2
]
B
1
[v
3
]
B
1
[v
4
]
B
1
[v
5
]
B
1
[v
6
]
B
1
_
_
_
_
_
_
_
_
obtendramos K =
_
_
_
_
_
_
_
_
[v
1
]
B
1
[v
6
v
1
]
B
1
[v
5
v
6
+v
1
]
B
1
[v
4
+
1
2
v
1

3
2
v
6

3
2
v
5
]
B
1
[v
3
+ v
6
+ 2v
5
]
B
1
[v
2
2v
6
v
5
]
B
1
_
_
_
_
_
_
_
_
.
Ahora bien, como la matriz J es la identidad, que tiene rango 6, la matriz K tambien tiene rango 6, por lo
que sus las son linealmente independientes y en consecuencia los tres ultimos vectores (los vectores de ker(f))
tambien son linealmente independientes.
Diagonalizacion
Justicacion de la observacion en Antes de seguir de la pagina 62
Denicion.- Sea f: V V un operador lineal, diremos que un escalar es un valor propio de f si existe
un vector v V , diferente de cero, tal que f(v) = v.
Al vector v se le denomina vector propio de f correspondiente a .
Teorema.- Sea f : V V un operador lineal, siendo V un espacio vectorial de dimension n. Entonces,
existe una base de V con respecto a la cual la matriz de f es diagonal si y solo si f tiene n vectores propios
linealmente independientes.
Demostracion:
Si la matriz de f en la base B = {v
1
, v
2
, . . . , v
1
} es D diagonal, los mismos vectores de la base son vectores
propios y son linealmente independientes, pues:
_
[f(v
1
)]
B
[f(v
2
)]
B
[f(v
n
)]
B
_
= D =
_
_
_
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_
_
_
_
=
_

1
[v
1
]
B

2
[v
2
]
B

n
[v
n
]
B
_
Recprocamente, si tenemos n vectores propios linealmente independientes, la matriz de f respecto de la base
formada con ellos es diagonal.
_
[f(v
1
)]
B
[f(v
2
)]
B
[f(v
n
)]
B
_
=
_

1
[v
1
]
B

2
[v
2
]
B

n
[v
n
]
B
_
=
_
_
_
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_
_
_
_
Teorema.- Sean V un espacio vectorial de dimension n, f: V V un operador lineal y A la matriz de f con
respecto a una base B = {v
1
, v
2
, . . . , v
n
}. Entonces:
a) Los valores propios de f son los valores propios de A
b) Un vector v V es un vector propio de f correspondiente al valor propio si y solo si su matriz de
coordenadas [v]
B
es un vector propio de A correspondiente a .
Demostracion:
a) Sea un valor propio de f , es decir, v V , distinto de 0 , tal que f(v) = v = [f(v)]
B
= [v]
B
= A[v]
B
= [v]
B
, luego es un valor propio de A al ser [v]
B
= 0.
Sea un valor propio de A, entonces x IR
n
, x = 0 tal que Ax = x. Si tomamos x

= x
1
v
1
+ +
x
n
v
n
, siendo x = (x
1
, . . . , x
n
), lo anterior quiere decir que A[x

]
B
= [x

]
B
[f(x

)]
B
= [x

]
B

f(x

) = x

y es un valor propio de f ya que x

= 0
b) v es un vector propio de f correspondiente a si y solo si
f(v) = v [f(v)]
B
= [v]
B
A[v]
B
= [v]
B
si y solo si [v]
B
es un vector propio de A correspondiente a .
Prof: Jose Antonio Abia Vian I.T.I. en Electricidad
79 Matematicas I :

Algebra Lineal Anexo 1
Teorema.- Los vectores propios de f correspondientes al valor propio , son los vectores distintos de cero del
n ucleo de la aplicacion I
d
f (denotamos por I
d
la aplicacion identidad, I
d
(v) = v ).
Llamaremos a dicho n ucleo, espacio caracterstico de f correspondiente al valor propio .
Demostracion:
v un vector propio correspondiente a f(v) = v f(v) = I
d
(v) I
d
(v) f(v) = 0
(I
d
f)(v) = 0 v ker(I
d
f).
Demostracion de: Teorema 152 de la pagina 62
Teorema 152.- Sean v
1
, v
2
, . . . , v
k
vectores propios de una matriz A asociados a los valores propios
1
,

2
, . . . ,
k
respectivamente, siendo
i
=
j
, i = j . Entonces el conjunto de vectores {v
1
, v
2
, . . . , v
k
} es
linealmente independiente.
Demostracion:
Supongamos que v
1
, v
2
, . . . , v
k
son linealmente dependientes.
Por denicion, un vector propio es distinto de cero, luego el conjunto {v
1
} es linealmente independiente.
Sea r el maximo entero tal que {v
1
, v
2
, . . . , v
r
} es linealmente independiente. Puesto que hemos supuesto
que {v
1
, v
2
, . . . , v
k
} es linealmente dependiente, r satisface que 1 r < k. Ademas, por la manera en que
se denio r, {v
1
, v
2
, . . . , v
r
, v
r+1
} es linealmente dependiente. Por tanto, existen escalares c
1
, c
2
, . . . , c
r+1
,
al menos uno diferente de cero, tales que
c
1
v
1
+ c
2
v
2
+ + c
r+1
v
r+1
= 0. 7.2
Multiplicando en ambos lados de la igualdad por A y haciendo las sustituciones
Av
1
=
1
v
1
, Av
2
=
2
v
2
, . . . , Av
r+1
=
r+1
v
r+1
se obtiene
c
1

1
v
1
+ c
2

2
v
2
+ + c
r

r
v
r
+ c
r+1

r+1
v
r+1
= 0 7.3
Multiplicando los dos lados de (7.2) por
r+1
y restandole a (7.3) la ecuacion resultante se obtendra
c
1
(
1

r+1
)v
1
+ c
2
(
2

r+1
)v
2
+ + c
r
(
r

r+1
)v
r
= 0.
Y dado que los vectores v
1
, v
2
, . . . , v
r
son linealmente independientes, necesariamente
c
1
(
1

r+1
) = c
2
(
2

r+1
) = = c
r
(
r

r+1
) = 0
Como los
1
,
2
, . . . ,
r+1
son distintos entre si, se deduce que c
1
= c
2
= = c
r
= 0.
Sustituyendo estos valores en (7.2) resulta que c
r+1
v
r+1
= 0 , y como v
r+1
= 0 se deduce que c
r+1
= 0,
lo que contradice el hecho de que al menos uno de los escalares c
1
, c
2
, . . . , c
r+1
deba de ser distinto de cero.
Luego los vectores v
1
, v
2
, . . . , v
k
han de ser linealmente independientes, que prueba el teorema.
Demostracion de: Proposicion 154 de la pagina 63
Proposicion 154.- Sea A de orden n y
k
un autovalor de A de multiplicidad m
k
. Entonces
1 dimV (
k
) m
k
.
Demostracion:
Como ya observamos anteriormente, dimV (
i
) 1.
Supongamos que dimV (
k
) = d, y consideremos el operador lineal f: IR
n
IR
n
denido por f(v) = Av .
Sea {v
1
, . . . , v
d
} una base del espacio caracterstico V (
k
), que podemos completar hasta obtener una base
de IR
n
, B = {v
1
, . . . , v
d
, v
d+1
, . . . , v
n
}. La matriz A

, del operador en la base B, sera de la forma


A

=
_
[f(v
1
)]
B
[f(v
d
)]
B
[f(v
d+1
)]
B
[f(v
n
)]
B
_
=
_

k
[v
1
]
B

k
[v
2
]
B
[f(v
d+1
)]
B
[f(v
n
)]
B
_
=
_
_
_
_
_
_
_
_
_

k
0
.
.
.
.
.
.
.
.
. A

12
0
k
0 0
.
.
.
.
.
. A

22
0 0
_
_
_
_
_
_
_
_
_
Prof: Jose Antonio Abia Vian I.T.I. en Electricidad
80 Matematicas I :

Algebra Lineal Anexo 1
de donde |I A

| = (
k
)
d
|I A

22
| . Pero como A y A

son matrices semejantes, tienen el mismo polinomio


caracterstico, y (
k
)
d
|I A

22
| = |I A

| = |I A| = (
k
)
m
k
Q(), de donde se obtiene que d m
k
,
pues m
k
es la multiplicidad de la raz.
Demostracion de: Teorema fundamental de la diagonalizacion 155 de la pagina 63
Teorema fundamental de la diagonalizacion 155.- Sea A una matriz de orden n. Entonces A es diagonali-
zable si y solo si se cumplen las condiciones:
1.- El polinomio caracterstico tiene n raices reales. Es decir, |I A| = (
1
)
m
1
(
k
)
m
k
con
m
1
+ m
2
+ + m
k
= n.
2.- Para cada espacio caracterstico V (
i
), se cumple que dimV (
i
) = m
i
.
Demostracion:
= Si A es diagonalizable, la matriz diagonal D y A son semejantes (D = P
1
AP ) y por tanto poseen
el mismo polinomio caracterstico, luego P() = |I A| = |I D| = (
1
)
m
1
(
k
)
m
k
, donde los

i
IR son los valores de la diagonal de D y m
i
el n umero de veces que se repite. Por tanto, P() tiene todas
sus raices reales y, por ser de grado n, m
1
+ m
2
+ + m
k
= n.
Ademas, por ser A y D matrices semejantes, tambien lo son I A y I D, para todo IR, pues
P
1
(I A)P = P
1
IP P
1
AP = I D, de donde rg(IA) = rg(ID), para todo . Entonces, para
cada autovalor
i
se tiene que rg(
i
I A) = rg(
i
I D) = n m
i
y, en consecuencia, que dimV (
i
) = m
i
.
= Si |I A| = (
1
)
m
1
(
k
)
m
k
, con m
1
+ m
2
+ + m
k
= n, y dimV (
i
) = m
i
para cada
i = 1, . . . , k, consideremos en cada V (
i
) una base B
i
, de la forma
B
1
=
_
p

, . . . , p
m

_
, B
2
=
_
p

, . . . , p
m

_
, . . . , B
k
=
_
p
k
, . . . , p
km
k
_
Tomemos entonces B = B
1
B
2
B
k
, un conjunto de n vectores propios de A, si vemos que son linealmente
independientes, tendremos que A es diagonalizable.
Planteemos una combinacion lineal igualada a cero:
0 =
11
p

+ +
1m
1
p
m

+
21
p

+ +
2m
2
p
m

+ +
k1
p
k
+ +
km
k
p
km
k
=(
11
p

+ +
1m
1
p
m

) + (
21
p

+ +
2m
2
p
m

) + + (
k1
p
k
+ +
km
k
p
km
k
)
=v
1
+v
2
+ +v
k
siendo v
j
=
j1
p
j
+ +
jm
j
p
jm
j
V (
j
), para cada j = 1, . . . , k.
Los vectores v
1
, v
2
, . . . , v
k
son vectores de espacios caractersticos correspondientes, respectivamente, a
los valores propios distintos
1
,
2
, . . . ,
k
y por tanto, si no son cero, son linealmente independientes. Pero
la combinacion lineal v
1
+ v
2
+ + v
k
= 0 nos indicara que son dependientes, luego la unica forma de
eliminar esa contradiccion es que v
j
= 0 , j = 1, 2, . . . , k; de donde, si 0 = v
j
=
j1
p
j
+ +
jm
j
p
jm
j
,
han de ser todos
j1
=
j2
= =
jm
j
= 0 por ser B
j
una base. Como es cierto para cada j , se tiene que

ji
= 0, i, j , con lo que B es linealmente independiente.
Demostracion de: Teorema fundamental de la diagonalizacion ortogonal 159 de la pagina 64
Teorema fundamental de la diagonalizacion ortogonal 159.- Una matriz A de orden n es diagonalizable or-
togonalmente si y solo si A es simetrica.

Demostracion:
= A es diagonalizable ortogonalmente = P ortogonal y D diagonal tal que P
t
AP = D = P
ortogonal y D diagonal tal que A = PDP
t
= A
t
= (PDP
t
)
t
= PDP
t
= A = A es simetrica.
= Sea A simetrica, veamos que es diagonalizable. Primero, que todos los valores propios de A son reales:
Sea C un valor propio de A, entonces existe x = (x
1
, . . . , x
n
) = 0 (x
j
C) tal que Ax = x . Por
ser A real, su polinomio caracterstico es real y el conjugado de , , es tambien autovalor de A; ademas,
tomando conjugados en la igualdad anterior, se tiene que Ax = Ax = x . Entonces, son iguales los valores
x
t
Ax =x
t
(Ax) = x
t
(x) = x
t
x =
n

j=1
x
j
x
j
=
n

j=1
|x
j
|
2
x
t
Ax =(x
t
A)x = (x
t
A
t
)x = (Ax)
t
x = (x)
t
x) = x
t
x =
n

j=1
|x
j
|
2
Prof: Jose Antonio Abia Vian I.T.I. en Electricidad
81 Matematicas I :

Algebra Lineal Anexo 1
y, al ser x = 0 ,
n

j=1
|x
j
|
2
= 0 por lo que = y IR. En consecuencia, si todos los autovalores de A son
reales, el polinomio caracterstico de A tiene las n raices reales.
Veamos ahora que para cada
j
se verica que dimV (
j
) = m
j
.
Sean dimV (
j
) = d y B
j
= {x
1
, . . . , x
d
} una base ortonormal de V (
j
) que ampliamos hasta una base
ortonormal de IR
n
, B = {x
1
, . . . , x
d
, x
d+1
, . . . , x
n
}.
Consideremos el operador lineal f: IR
n
IR
n
dado por f(x) = Ax , luego A es la matriz de f en la base
canonica que es ortonormal y si A

es la matriz de f en la base B y P la matriz de paso de B a la canonica,


P es ortogonal y A

= P
t
AP . Como A es simetrica, A

tambien lo sera pues (A

)
t
= (P
t
AP)
t
= P
t
A
t
(P
t
)
t
=
P
t
AP = A

.
A

=
_
[f(x
1
)]
B
[f(x
d
)]
B
[f(x
d+1
)]
B
[f(x
n
)]
B
_
=
_

j
[x
1
]
B

j
[x
2
]
B
[f(x
d+1
)]
B
[f(x
n
)]
B
_
=
_
_
_
_
_
_
_
_
_
_

j
0
.
.
.
.
.
.
.
.
. A

12
0
j
0 0
.
.
.
.
.
. A

22
0 0
_
_
_
_
_
_
_
_
_
_
donde A

12
= 0, puesto que A

es simetrica y A

22
cuadrada de orden n d. Luego la matriz
j
I A

nos
queda

j
I A

=
_
_
_
_
_
_
_
_
_
_

j

j
0
.
.
.
.
.
.
.
.
. 0
0
j

j
0 0
.
.
.
.
.
.
j
I A

22
0 0
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
0 0
.
.
.
.
.
.
.
.
. 0
0 0
0 0
.
.
.
.
.
.
j
I A

22
0 0
_
_
_
_
_
_
_
_
_
_
por lo que rg(
j
I A

) = rg(
j
I A

22
). Por ser A y A

semejantes rg(
j
I A)=rg(
j
I A

) (ver demostracion
del Teorema 155), y se tiene que rg(
j
IA

22
) = rg(
j
IA) = ndimV (
j
) = nd por lo que |
j
I A

22
| = 0.
Entonces, |I A| = |I A

| = (
j
)
d
|I A

22
| , con |
j
I A

22
| = 0, luego d = m
j
.
En resumen, A diagonaliza, y tomando una base ortonormal de cada uno de los espacios caractersticos,
tendremos n vectores propios de norma 1 y, que por el Lema 158, son ortogonales entre s.
Formas cuadraticas
Demostracion de: Teorema de Sylvester o Ley de inercia 169 de la pagina 71
Teorema de Sylvester o Ley de inercia 169.- Si una forma cuadratica se reduce a la suma de cuadrados en
dos bases diferentes, el n umero de terminos que aparecen con coecientes positivos, as como el n umero de
terminos con coecientes negativos es el mismo en ambos casos.
Demostracion:
Supongamos que respecto a una base B
1
= {b
1
, b
2
, . . . , b
n
} la matriz de la forma cuadratica Q es una matriz
diagonal y tiene p elementos positivos y s elementos negativos en su diagonal principal, luego la expresion de
la forma cuadratica sera
Q(x) = a
1
x
2
1
+ + a
p
x
2
p
a
p+1
x
2
p+1
a
p+s
x
2
p+s
con a
i
> 0 para todo i, y (x
1
, . . . , x
p
, x
p+1
, . . . , x
p+s
, x
p+s+1
, . . . , x
n
) = [ x]
t
B
1
; y que respecto a otra base
B
2
= {d
1
, d
2
, . . . , d
n
} la matriz de la forma cuadratica es tambien diagonal con q elementos positivos y r
negativos, por lo que Q se expresara en la forma
Q(x) = c
1
y
2
1
+ + c
q
y
2
q
c
q+1
y
2
q+1
c
q+r
y
2
q+r
con c
i
> 0 para todo i, e (y
1
, . . . , y
q
, y
q+1
, . . . , y
q+r
, y
q+r+1
, . . . , y
n
) = [ x]
t
B
2
.
Prof: Jose Antonio Abia Vian I.T.I. en Electricidad
82 Matematicas I :

Algebra Lineal Anexo 1
Por el teorema 167 anterior, sabemos que las matrices congruentes tienen el mismo rango, luego tienen que
ser p + s = q + r. Veamos que p = q , con lo que tendremos tambien que s = r.
Si p = q , uno de ellos es mayor que el otro, supongamos que es p > q y consideremos los conjuntos de
vectores {b
1
, . . . , b
p
} y {d
q+1
, . . . , d
n
}. Si p > q , el conjunto {b
1
, . . . , b
p
, d
q+1
, . . . , d
n
} tiene p+(nq) =
n + (p q) > n vectores y, por lo tanto, es un conjunto linealmente dependiente y en la igualdad

1
b
1
+ +
p
b
p
+
q+1
d
q+1
+ +
n
d
n
= 0
alguno de los coecientes no es cero. Entonces, el vector

1
b
1
+ +
p
b
p
=
q+1
d
q+1

n
d
n
= x
no es el cero (si es cero, todos los
i
son cero por ser los b
i
de B
1
, y todos los
j
= 0 por ser los d
j
B
2
),
con alg un
i
y alg un
j
distintos de cero. Tenemos as que
[ x]
t
B
1
= (
1
, . . . ,
p
, 0, . . . , 0) y [ x]
t
B
2
= (0, . . . , 0,
q+1
, . . . ,
n
)
pero calculando Q(x) respecto a las dos bases obtenemos
Q(x) =a
1

2
1
+ + a
p

2
p
a
p+1
0 a
p+s
0 = a
1

2
1
+ + a
p

2
p
> 0
Q(x) =c
1
0 + + c
q
0 c
q+1
(
q+1
)
2
c
q+r
(
q+r
)
2
+ 0(
q+r+1
)
2
+ + 0(
n
)
2
=c
q+1
(
q+1
)
2
c
q+r
(
q+r
)
2
0
lo que no puede ser. Por tanto deben ser p = q y s = r, es decir, las dos matrices diagonales tienen el mismo
n umero de elementos positivos y negativos.
Demostracion de: Teorema de clasicacion 172 de la pagina 71
Teorema de clasicacion 172.- Sea Q una forma cuadratica en un espacio de dimension n. Se verica:
a) Q es nula Sig(Q) = (0, 0)
b) Q es denida positiva Sig(Q) = (n, 0).
c) Q es semidenida positiva Sig(Q) = (p, 0) con 0 < p < n.
d) Q es denida negativa Sig(Q) = (0, n).
e) Q es semidenida negativa Sig(Q) = (0, q) con 0 < q < n.
f) Q es indenida Sig(Q) = (p, q) con 0 < p, q .
Demostracion:
Sea B = {v
1
, . . . , v
n
} una base en la cual, la expresion de Q es Q(x) = d
1
x
2
1
+ d
2
x
2
2
+ + d
n
x
2
n
donde (x
1
, . . . , x
n
) = [ x]
t
B
. Luego, Q(v
i
) = d
i
, para todo i = 1, . . . , n, ya que los vectores de B tiene por
coordenadas [ v
1
]
t
B
= (1, 0, 0, . . . , 0), [ v
2
]
t
B
= (0, 1, 0, . . . , 0), . . . , [ v
n
]
t
B
= (0, 0, 0, . . . , 1). Entonces:
a) Si Q(x) = 0, para todo x , se tiene que d
i
= Q(v
i
) = 0, para todo i, luego Sig(Q) = (0, 0).
Reciprocamente, si d
i
= 0 para todo i, entonces Q(x) = 0 para todo x .
b) Si Q(x) > 0 para todo x = 0 , se tiene que d
i
= Q(v
i
) > 0, para todo i, luego Sig(Q) = (n, 0).
Recprocamente, si d
i
> 0 para todo i, entonces Q(x) > 0 para todo x = 0 .
c) Si Q(x) 0 para todo x = 0 , es d
i
= Q(v
i
) 0 para todo i. Como no es nula existe alg un d
j
> 0 y
como no es denida positiva existe alg un d
k
= 0, luego Sig(Q) = (p, 0) con 0 < p < n.
Recprocamente, si d
i
0 para todo i, con alg un d
j
> 0 y alg un d
k
= 0, se tiene que Q(x) 0 para
todo x , que Q(v
j
) = d
j
> 0, por lo que no es nula, y que Q(v
k
) = d
k
= 0, por lo que no es denida
positiva.
d) y e) Analogos a los casos de denida y semidenida positiva.
f) Por ser indenida, Q(x) 0 para todo x, luego d
i
0 para todo i, por lo que existira un d
j
< 0
y Q(x) 0 para todo x , luego d
i
0 para todo i por lo que existira un d
k
> 0. En consecuencia,
Sig(Q) = (p, q) con p, q > 0.
Recprocamente, si existe d
j
< 0 y d
k
> 0, seran Q(v
j
) = d
j
< 0 y Q(v
k
) = d
k
> 0, luego es indenida.
Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

You might also like