You are on page 1of 51

Apuntes de

Algebra Lineal
Carolina B. Becerra O.
Agosto 2012
2

Indice general
1. Vectores en R
n
5
2. Sistemas de ecuaciones 11
3. Matrices 15
4. Determinantes 25
5. Espacios vectoriales 27
6. Transformaciones lineales 33
7. Valores y vectores propios 39
8. Ortogonalidad 43
9. Matrices Simetricas 49
3
4

INDICE GENERAL
Captulo 1
Vectores en R
n
Denicion 1.1. El conjunto de n tuplas ordenadas de n umeros reales se
denota por R
n
y a sus elementos se les llama vectores.
R
n
=
_
_
_
v =
_
_
x
1
.
.
.
x
n
_
_
tal que x
1
, . . . , x
n
R
_
_
_
A x
1
, . . . , x
n
se les llama componentes o coordenadas del vector v. Al vector
cuyas componentes son todas 0 se le llama vector nulo y se denota por

0 .
Denicion 1.2. Vectores canonicos:
e
i
=
_

_
0
.
.
.
0
1
0
.
.
.
0
_

_
i , para i = 1, . . . , n
Denicion 1.3. Dados u, v R
n
la suma de u y v, denotada por u +v es el
vector cuyas componentes son la suma de las respectivas componentes de u
y v. Dado R, la ponderacion de u por el escalar R es el vector cuyas
componentes son el producto de por las respectivas componentes de u. Es
decir:
Si u =
_
_
x
1
.
.
.
x
n
_
_
, v =
_
_
y
1
.
.
.
y
n
_
_
, entonces u +v =
_
_
x
1
+ y
1
.
.
.
x
n
+ y
n
_
_
, u =
_
_
x
1
.
.
.
x
n
_
_
.
5
6 CAP

ITULO 1. VECTORES EN R
N
Proposicion 1.4. Sean u, v, w R
n
y , R. Entonces las operaciones
anteriores satisfacen:
u +v R
n
.
(u + v) +w = u + (v +w).
u +v = v +u.
u +

0 = u.
u + (u) =

0 .
u R
n
.
(u +v) = u +v.
( + )u = u +u.
(u) = ()u.
1 u = u.
Observacion 1.5. Sea R y u R
n
. u =

0 si y solo si = 0 o u =

0.
Denicion 1.6. Sean u, v R
n
, el producto punto de u y v, denotado por
u v, es la suma de los respectivos productos entre coordenadas. Es decir
Si u =
_
_
x
1
.
.
.
x
n
_
_
, v =
_
_
y
1
.
.
.
y
n
_
_
, entonces u v = x
1
y
1
+. . . +x
n
y
n
=
n

i=1
x
i
y
i
.
Proposicion 1.7. Sea u, v, w R
n
y R. Entonces el producto punto
satisface:
u v R.
u

0 =

0.
u v = v u.
u (v +w) = u v +u w.
(u v) = (u) v.
7
u u 0 y u u = 0 u =

0.
Ejemplo 1.8. e
i
e
j
=
_
1 si i = j
0 si i = j.
para todo i, j = 1, . . . , n.
Denicion 1.9. Norma de un vector: Dado u =
_
_
x
1
.
.
.
x
n
_
_
R
n
,
u =

i=1
x
i
2
=

u u.
Denicion 1.10. Vector unitario: vector que tiene norma 1.
Denicion 1.11. Distancia entre vectores: d(u, v) = u v.
Ejemplo 1.12. e
i
= 1 para todo i = 1 . . . n.
d(e
i
, e
j
) =
_
0 si i = j

2 si i = j.
para todo i, j = 1, . . . , n.
Proposicion 1.13. Sean R y u, v R
n
. Entonces
u = ||u.
u +v
2
= u
2
+v
2
+ 2u v.
|u v| uv.
u +v u +v.
Denicion 1.14. Sean u, v R
n
{

0}. El angulo entre dos vectores es tal


que: cos() =
u v
uv
.
Ejemplo 1.15. (e
i
, e
j
) =
_
0 si i = j
/2 si i = j.
para todo i, j = 1, . . . , n.
Denicion 1.16. Sea {v
1
, . . . , v
m
} R
n
. Una combinacion lineal de los
vectores v
1
, . . . , v
m
es el vector

1
v
1
+ . . . +
m
v
m
,
donde
i
R, para algunos
1
, . . . ,
m
R.
8 CAP

ITULO 1. VECTORES EN R
N
Denicion 1.17. Sea S R
n
. El conjunto generado por S, denotado por
< S > es el conjunto de todas las combinaciones lineales de vectores de S.
Ejemplo 1.18. < e
1
, . . . e
n
>= R
n
.
Proposicion 1.19. Sean S, S
1
, S
2
R
n
. Entonces
< >=<

0 >= {

0 }.

0 < S >.
< S > es cerrado bajo la suma y multiplicacion por escalar.
S < S >.
S
1
S
2
< S
1
>< S
2
>.
S
1
< S
2
>< S
1
>< S
2
>.
< S >=<< S >>.
Teorema 1.20. Sea S = {v
1
, v
2
, . . . , v
m
} R
n
.
Si v
1
es combinacion lineal de v
2
, . . . , v
m
, entonces
< v
1
, v
2
, . . . , v
m
>=< v
2
, . . . , v
m
>
Denicion 1.21. Sea S = {v
1
, v
2
, . . . , v
m
} R
n
.
S es linealmente dependiente (LD) si existen escalares
1
, . . . ,
m
no todos nulos tal que
1
v
1
+ . . . +
m
v
m
=

0 . (se puede construir al


vector cero de manera no trivial).
S es linealmente independiente (LI) si no es LD, es decir si para
cualquier combinacion lineal
1
v
1
+. . . +
m
v
m
=

0 , se tiene necesari-
amente que
1
= . . . =
m
= 0. (la unica manera de construir al vector
cero es la trivial).
Observacion 1.22. Si

0 S R
n
, entonces S es LD.
Proposicion 1.23. Sea S R
n
. Entonces
S es LD si y solo si existe un vector de S que es combinacion lineal del
resto de los vectores de S.
9
S es LI si y solo si todo subconjunto de S es LI.
Denicion 1.24. Recta en R
2
. Sea d R
2
no nulo, L = {x R
2
tal que x =
u +d, R}. Si u =

0 se dice que L pasa por el origen.


Denicion 1.25. Recta en R
3
. Sea d R
3
no nulo, L = {x R
3
tal que x =
u +d, R}. Si u =

0 se dice que L pasa por el origen.


Denicion 1.26. Recta en R
n
. Sea d R
n
no nulo, L = {x R
n
tal que x =
u +d, R}. Si u =

0 se dice que L pasa por el origen.


Denicion 1.27. Plano en R
3
. Sea d
1
, d
2
R
n
L.I, = {x R
n
tal que x =
u +d
1
+d
2
, , R}. Si u =

0 se dice que pasa por el origen.


Denicion 1.28. Sean u R
n
y b R. El hiperplano denido por u y b es
H = {x R
n
: x u = b}. Si b = 0, se dice que pasa por el origen.
Ejemplo 1.29. En R
4
sea H = {x R
4
: x
1
+x
2
2x
3
x
4
= 0 tal que x
1
, x
2
, x
3
, x
4

R}.
x H x =
_

_
x
1
x
2
x
3
x
1
+ x
2
2x
3
_

_
para x
1
, x
2
, x
3
R.
x H x = x
1
_

_
1
0
0
1
_

_
+x
2
_

_
0
1
0
1
_

_
+ x
3
_

_
0
0
1
2
_

_
para x
1
, x
2
, x
3
R.
Por lo tanto H =<
_

_
1
0
0
1
_

_
,
_

_
0
1
0
1
_

_
,
_

_
0
0
1
2
_

_
>.
Observacion 1.30. Todo hiperplano en R
n
que pasa por el origen es un
conjunto generado por (n 1) vectores L.I. Todo hiperplano en R
n
es la
suma de un vector posicion y un conjunto generado por (n 1) vectores L.I.
Todo hiperplano en R
3
es un plano en R
3
.
Observacion 1.31. Problema importante: Todo plano en R
3
es un hiper-
plano?
Observacion 1.32. Problema importante: Dado un conjunto S y un vector
b en R
n
. b < S >?
10 CAP

ITULO 1. VECTORES EN R
N
Captulo 2
Sistemas de ecuaciones
Denicion 2.1. Una matriz es un arreglo ordenado de m vectores de R
n
.
Notacion: A = [v
1
v
2
. . . v
m
]. Se dice que A es una matriz de n m, donde
m es el n umero de columnas y n es el n umero de las.
Si v
j
=
_
_
a
1,j
.
.
.
a
n,j
_
_
para j = 1, . . . , m, entonces A = (a
i,j
), donde a
i,j
son los
coecientes o entradas de la matriz.
Denicion 2.2. Matriz nula es tal que todos sus coecientes son 0.
Denicion 2.3. Matriz cuadrada es tal que n = m.
Denicion 2.4. Matriz identidad es una matriz cuadrada denotada por I
tal que I = [e
1
. . . e
n
].
Denicion 2.5. Dada A = [v
1
v
2
. . . v
m
] de n m y x =
_
_
x
1
.
.
.
x
m
_
_
R
m
, el
producto de A por x es Ax = x
1
v
1
+x
2
v
2
+ . . . +x
m
v
m
R
n
.
Proposicion 2.6. Sea A de n m, x, y R
m
y R. Entonces
A(x +y) = Ax +Ay.
A(x) = Ax.
A

0 =

0.
11
12 CAP

ITULO 2. SISTEMAS DE ECUACIONES


Observacion 2.7. Todo sistema de ecuaciones se puede escribir de la forma
matricial Ax = b.
Denicion 2.8. Un sistema de ecuaciones Ax = b es tal que A es una matriz
de n m asociada al sistema, b R
n
y x R
m
. [A b] es la matriz ampliada
del sistema.
El sistema es homogeneo si b =

0 y no homogeneo si b =

0 . El sistema es
consistente si tiene solucion e inconsistente si no tiene solucion.
Denicion 2.9. Una matriz se dice que esta en la forma escalonada (F.E.)
si:
1. a
1,1
= 0.
2. Si el pivote de la la i esta en la columna j, entonces el pivote de la
la i +1 esta en la columna k, tal que j < k. (Pivote: primer elemento
distinto de 0 de la la).
3. Las las nulas estan al nal de la matriz.
Denicion 2.10. Una matriz se dice que esta en la forma escalonada re-
ducida (F.E.R.) si:
1. Esta es la F.E.
2. Todos los pivotes son iguales a 1.
3. Los vectores columna que contienen pivotes son canonicos.
Denicion 2.11. Dada una matriz, las operaciones la son:
1. Tipo I: Intercambiar dos las: F
i
F
j
.
2. Tipo II: Multiplicar una la por un escalar no nulo: F
i
F
i
.
3. Tipo III: (pivotear) Sumar a una la, un m ultiplo escalar de otra:
F
i
F
i
+ F
j
.
Observacion 2.12. Para solucionar un sistema de ecuaciones se lleva la
matriz ampliada a su F.E. o a su F.E.R., usando operaciones la, luego se
reinterpreta el sistema y se resuelve recursivamente hacia arriba. Si el sistema
es consistente, a las variables que quedan en posiciones no pivotes se les llama
variables libres.
13
Observacion 2.13. Lo anterior funciona pues si [A|b] [A

|b

], entonces
Ax = b A

x = b

.
Teorema 2.14. Sea el sistema de ecuaciones Ax = b con A de n m, y M
la F.E.R. de la matriz M = [A b].
Para b =

0, el sistema
es inconsistente si y solo si M tiene una la de la forma [0 . . . 0 c] con
c = 0,
es consistente y tiene solucion unica si y solo si M tiene m pivotes,
es consistente y tiene innitas soluciones si y solo si M tiene menos de
m pivotes (hay variables libres).
Para b =

0 el sistema es consistente (

0 es solucion) y
tiene solucion unica si y solo si F.E. de A tiene m pivotes,
tiene innitas soluciones si y solo si F.E. de A tiene menos de m pivotes
(hay variables libres).
Denicion 2.15. Rango de un sistema: n umero de pivotes de la forma
escalonada de la matriz ampliada del sistema. Rango de una matriz: n umero
de pivotes de la forma escalonada del sistema homogeneo asociado a la ma-
triz.
Teorema 2.16. Sea el sistema Ax = b, u tal que Au = b y los conjuntos
C
1
= {x : Ax = b} y C
2
= {y : Ay =

0}. Entonces x C
1
si y solo si
x u C
2
.
Proposicion 2.17. Sea S = {v
1
, . . . , v
m
} R
n
y A = [v
1
. . . v
m
]. S es L.I.
si y solo si el sistema Ax =

0 tiene solucion unica.


Proposicion 2.18. Sea S = {v
1
, . . . , v
m
} R
n
y A una matriz cuyas las
son los vectores del conjunto S. S es L.I. si y solo si la F.E. de la matriz A
no tiene las nulas.
Teorema 2.19. Sea v
1
, . . . , v
m
un conjunto de vectores de R
n
. Si m > n,
entonces v
1
, . . . , v
m
es L.D.
14 CAP

ITULO 2. SISTEMAS DE ECUACIONES


Observacion 2.20. Sea S = {v
1
, . . . , v
m
} R
n
, A = [v
1
. . . v
m
] y b R
n
.
Entonces b < v
1
, . . . , v
m
> si y solo si el sistema Ax = b es consistente.
Observacion 2.21. Sea A de n m y b
1
, . . . b
r
R
n
, para resolver Ax =
b
1
, Ax = b
2
, . . . , Ax = b
r
se escalona una unica matriz [A b
1
b
2
. . . b
r
] y se
interpreta la solucion para cada sistema por separado.
Observacion 2.22. Para buscar la interseccion de n hiperplanos, se resuelve
el sistema asociado a las n ecuaciones.
Captulo 3
Matrices
Denicion 3.1. Sea A una matriz de n m, se dene una funcion T
A
:
R
m
R
n
, dada por
T
A
(x) = Ax
Ejemplo 3.2. A =
_
1 2 1
0 1 3
_
, entonces T
A
_
1
2
3
_
=
_
0
11
_
.
Observacion 3.3. El dominio de esta funcion es R
m
. La imagen de

0 R
m
es

0 R
n
.
Proposicion 3.4. Sea A una matriz de n m, la funcion T
A
se dice que es
lineal pues para x, y R
m
y R
T
A
(x + y) = A(x +y) = Ax +Ay = T
A
(x) +T
A
(y),
T
A
(x) = A(x) = Ax = T
A
(x).
Observacion 3.5. En adelante la funcion T
A
se denotara por A.
Denicion 3.6. M
n,m
(R) es el conjunto de todas las matrices de n m con
coecientes reales.
Denicion 3.7. Sean A = [v
1
. . . v
m
] , B = [u
1
. . . u
m
] M
n,m
(R) y R.
La operaciones suma y multiplicacion por escalar de matrices se denen por
A +B = [v
1
+u
1
. . . v
m
+u
m
] , A = [v
1
. . . v
m
].
Observacion 3.8. 1 A = A.
15
16 CAP

ITULO 3. MATRICES
Proposicion 3.9. Sean A, B, C M
n,m
(R) y , R. Entonces
A +B M
n,m
(R).
(A +B) + C = A + (B + C).
A +B = B +A.
A + 0 = A.
A + (A) = 0.
A M
n,m
(R).
(A +B) = A +B.
( + )A = A + A.
(A) = ()A.
1 A = A.
Denicion 3.10. Sea A de n m y B de mp, tal que B = [u
1
. . . u
p
], el
producto de A por B es la matriz A B = [A u
1
. . . A u
p
] de n p.
Proposicion 3.11. Sean A, B, C matrices tal que las siguientes operaciones
estan bien denidas y R. Entonces
A(BC) = (AB)C.
(AB) = (A)B = A(B).
A(B + C) = AB +AC.
(A +B)C = AC +BC.
IA = AI = A.
0A = A0 = 0.
Observacion 3.12. En general el producto de matrices no es conmutativo.
A =
_
0 1
0 0
_
, B =
_
1 0
0 0
_
y AB =
_
0 0
0 0
_
=
_
0 1
0 0
_
= BA.
17
Denicion 3.13. Sea A de n m, la trasnpuesta de A denotada por A
t
es
de m n y es la matriz que resulta de intercambiar las las de A por las
columnas de la A.
Ejemplo 3.14. Si A =
_
0 1
2 3
4 1
_
, entonces A
t
=
_
0 2 4
1 3 1
_
.
Proposicion 3.15. Sean A, B matrices tal que las siguientes operaciones
estan bien denidas y R. Entonces
(A
t
)
t
= A.
(A
t
) = (A)
t
.
(A +B)
t
= A
t
+B
t
.
(AB)
t
= B
t
A
t
.
Denicion 3.16. Sea A = (a
i,j
) de n n.
A es triangular superior si a
i,j
= 0 para todo i > j.
A es triangular inferior si a
i,j
= 0 para todo i < j.
A es diagonal si a
i,j
= 0 para todo i = j.
A es simetrica si A = A
t
.
A es antisimetrica si A = A
t
.
Denicion 3.17. Sea A de n m.
Ker(A) = {x R
m
: Ax =

0 }. Es el conjunto de pre-imagenes del
vector cero. Es el conjunto solucion del sistema homogeneo asociado a
la matriz A. Es un subconjunto de R
m
.
Im(A) = {b R
n
: x R
m
: Ax = b}. Es el recorrido de la funcion
dada por la matriz A. Es el conjunto de todos los vectores b tal que el
sistema Ax = b es consitente. Es el conjunto generado por las columnas
de la matriz A. Es un subconjunto de R
n
.
18 CAP

ITULO 3. MATRICES
C(A) es el conjunto generado por las columnas de la matriz A. Es el
recorrido de la funcion dada por la matriz A. Es el conjunto de todos los
vectores b tal que el sistema Ax = b es consistente. Es un subconjunto
de R
n
. (Esta generado por las columnas de la matriz que en su forma
escalonada estan en las posiciones pivotes).
F(A) es el conjunto generado por las las de la matriz A. Es un sub-
conjunto de R
m
. (Esta generado por las las no nulas de la forma
escalonada de la matriz).
Observacion 3.18. Im(A) = C(A) = F(A
t
).
Teorema 3.19. Sea A de n m. Entonces
A es 1-1 (inyectiva) si y solo si Ker(A) = {

0 }.
A es sobreyectiva si y solo si Im(A) = R
n
.
Teorema 3.20. Sea A de n m. Entonces
Filas de A son L.D.
Existe una la que es combinacion lineal del resto.
f
n
=
1
f
1
+. . . +
n1
f
n1
(sin perder generalidad)
La FER de A tiene por lo menos una la nula
(haciendo las operaciones del tipo III necesarias).
Filas de A son L.I.
La F.E.R. de A tiene no tiene las nulas.
Todas las las de la F.E.R. de A contienen pivotes.
Rango de A es n.
A es 1-1
Ker(A) = {

0 }.
Ax =

0 tiene solucion unica.


Columnas de A son L.I.
Rango de A es m.
19
A es sobre
Im(A) = R
n
.
Ax = b es consistente para todo b R
n
.
Ax = e
i
es consistente para todo vector canonico.
La FER de [A e
1
. . . e
n
] no tiene las de la forma [0 . . . 0 u] con u un vector no nulo.
Filas de A son L.I.
Rango de A es n.
Denicion 3.21. A de nm tiene inversa por la derecha si existe una matriz
B de mn tal que AB = I.
Teorema 3.22. Sea A una matriz de n m. Entonces
A tiene inversa por la derecha.
Existe B tal que AB = I.
Existen u
1
, . . . , u
n
tal que A[u
1
. . . u
n
] = [e
1
. . . e
n
].
Ax = e
i
es consistente para todo vector canonico.
A es sobre.
Filas de A son L.I.
Rango de A es n.
Observacion 3.23. Para encontrar la inversa por la derecha de una matriz,
hay que escalonar la matriz [AI] y resolviendo cada sistema se obtienen las
columnas de la matriz B.
Denicion 3.24. A de nm tiene inversa por la izquierda si A
t
tiene inversa
por la derecha.
Teorema 3.25. Sea A una matriz de n m. Entonces
A tiene inversa por la izquierda.
Existe B tal que BA = I.
Ax =

0 tiene solucion unica.


A es inyectiva.
Columnas de A son L.I.
Rango de A es m.
Observacion 3.26. Una matriz no cuadrada no puede tener inversa por la
izquierda y derecha al mismo tiempo. Lo que no signica que siempre tenga
20 CAP

ITULO 3. MATRICES
al menos una inversa, por ejemplo la siguiente matriz no tiene inversa por la
derecha ni por la izquierda.
_
_
1 0 0 0
0 1 0 0
0 0 0 0
_
_
Denicion 3.27. A de nn es invertible o no singular si existe una matriz
B de n n tal que AB = I.
Observacion 3.28. Sea A de n n. Si A tiene inversa por la derecha,
entonces su rango es n, luego tiene inversa por la izquierda y es la misma que
por la derecha. Ademas es unica. La notacion para la inversa de A es A
1
.
Proposicion 3.29. Sean A y B de n n. Entonces
A es invertible si y solo si Ax = b tiene solucion unica para todo b R
n
.
Si A es invertible, entonces (A
1
)
1
= A.
A es invertible si y solo si A
t
es invertible. En este caso (A
t
)
1
= (A
1
)
t
.
Si A es invertible y = 0, entonces A es invertible y (A)
1
=
1

A
1
.
Si A es invertible, entonces para todo r N, A
r
es invertible y se tiene
(A
r
)
1
= (A
1
)
r
= A
r
.
Si Ay B son invertibles, entonces AB es invertible y (AB)
1
= B
1
A
1
.
Observacion 3.30. Sean A
1
, . . . , A
k
matrices cuadradas e invertibles. En-
tonces (A
1
. . . A
k
)
1
= (A
k
)
1
. . . (A
1
)
1
.
Proposicion 3.31. Sean A, B, C, D matrices tal que las siguientes opera-
ciones estan bien denidas. Entonces
Si A es invertible y AB = AC, entonces B = C.
Si A es invertible y BA = CA, entonces B = C.
Si A es invertible y AB = BA, entonces BA
1
= A
1
B.
Si A es invertible, puede ocurrir que A
1
BA = B.
21
Si A y B son invertibles, y ACB = D, entonces C = A
1
DB
1
.
Observacion 3.32. Una matriz diagonal es invertible si y solo si todos los
elementos de su diagonal son no nulos.
Observacion 3.33. Una matriz triangular superior (o inferior) es invertible
si y solo si todos los elementos de su diagonal son no nulos.
Ejemplo 3.34. Productos notables.
Estudio de u
t
u y uu
t
.
Sea A, B de n 1 tal que 1 A
t
B = 0. Demuestre que
(I AB
t
)
1
= I +
1
(1 A
t
B)
AB
t
.
La triangularidad se mantiene en el producto y al tomar inversas.
Denicion 3.35. E
I
(E
II
, E
III
) es una matriz elemental del tipo I (II, III),
si es la matriz que resulta de hacer una operacion elemental del tipo I (II,
III) a la matriz identidad. Se dice que la matriz E representa dicha operacion
elemental.
Observacion 3.36.
tipo matriz operacion transpuesta operacion inversa operacion
I E
I
F
i
F
j
E
I
F
i
F
j
E
I
F
i
F
j
II E
II
F
i
F
i
E
II
F
i
F
i

E
II
F
i
1/F
i
III E
III
F
i
F
i
+F
j

E
III
F
j
F
j
+F
i

E
III
F
i
F
i
F
j
Observacion 3.37. Si A es de n m y B es la matriz de n m que resulta
de hacerle a A una operacion elemental, entonces EA = B, donde E es la
matriz que representa dicha operacion elemental.
Proposicion 3.38. Si A es de n m y B = F.E. de A, entonces E
k
. . .
E
2
E
1
A = B, donde E
i
son las matrices elementales que representan las
operaciones elementales que llevan la matriz A en la matriz B.
22 CAP

ITULO 3. MATRICES
Teorema 3.39. A de n n es no singular si y solo si A se puede escribir
como producto de matrices elementales.
Teorema 3.40. A de nn es no singular si y solo si F.E.R de A es la matriz
identidad
Teorema 3.41. Si A es de nm y U es una forma escalonada de A, tal que
U se obtiene sin necesidad de hacer operaciones del tipo I, entonces existe L
triangular inferior invertible, tal que
A = LU
Teorema 3.42. Si A es de n m y U es una forma escalonada de A, tal
que U se obtiene con la necesidad de hacer operaciones del tipo I, entonces
existe L triangular inferior invertible y P una matriz producto de lementales
del tipi I, tal que
PA = LU
Observacion 3.43. Si A = LU, para resolver Ax = b se hace el cambio de
variable Ux = y.
Observacion 3.44. Si PA = LU, para resolver Ax = b se multiplica el
sistema por P y luego se hace el cambio de variable Ux = y.
Denicion 3.45. Si A es de n n la forma cuadratica asociada a A es
q
A
: R
n
R, denida por
q
A
(v) = v
t
Av
Observacion 3.46. Si A es de n n, se tiene que
q
A
= q
A
t = q
(
A+A
t
2
)
La matriz simetrica B =
_
A +A
t
2
_
, es la unica tal que
q
A
= q
B
En adelante las matrices que denen a formas cuadraticas seran cuadradas
y simetricas.
Denicion 3.47. Dada A de n n, la submatriz principal A
k
para k =
1, . . . , n es la matriz que resulta de eliminar la ultimas n k las y las
ultimas n k columnas de A. Notar que A
n
= A.
23
Proposicion 3.48. Si Aes de nn y sus submatrices principales A
1
, , A
n1
son invertibles, entonces A admite la descomposicion LU. Si L tiene solo unos
en su diagonal, entonces L y U son unicas.
Teorema 3.49. Sea A = A
t
. Si A = LU, entonces existe D diagonal tal que
A = LDL
t
. (Entonces el signo de A es igual al signo de D).
Denicion 3.50. Una matriz (o su forma cuadratica asociada) se dice:
positiva denida si v =

0 , q
A
(v) > 0.
negativa denida si v =

0 , q
A
(v) < 0.
semidenida positiva si v =

0 , q
A
(v) 0.
semidenida negativa si v =

0 , q
A
(v) 0.
Observacion 3.51. Si D es diagonal, con elementos d
1
, . . . , d
n
en su diago-
nal, entonces D (o q
D
) es
positiva denida si d
i
> 0, para todo i = 1, . . . , n.
negativa denida si d
i
< 0, para todo i = 1, . . . , n.
semidenida positiva si d
i
0, para todo i = 1, . . . , n.
semidenida negativa si d
i
0, para todo i = 1, . . . , n.
Proposicion 3.52. Sea A = A
t
. Si A es positiva denida, entonces
A es invertible.
A
k
es positiva denida, para todo k = 1, . . . , n.
A
k
es invertible, para todo k = 1, . . . , n.
Teorema 3.53. Sea A = A
t
. A es positiva denida si y solo si existe L
triangular inferior invertible con unos en su diagonal, y D diagonal, con
elementos en la diagonal positivos, tal que A = LDL
t
.
24 CAP

ITULO 3. MATRICES
Observacion 3.54. En el teorema anterior se dene a

D como la matriz
diagonal, que en su diagonal tiene las races positivas de los elementos de la
diagonal de D. Entonces
A = L

DL
t
= R
t
R
que es llamada la descomposicion con raz cuadrada de una matriz positiva
denida.
Ejemplo 3.55. Sea A =
_
3 3 3
3 5 5
3 5 11
_
. Entonces
A =
_
1 0 0
1 1 0
1 1 1
_ _
3 3 3
0 2 2
0 0 6
_
= LU
=
_
1 0 0
1 1 0
1 1 1
_ _
3 0 0
0 2 0
0 0 6
_ _
1 1 1
0 1 1
0 0 1
_
= LDL
t
=
_
1 0 0
1 1 0
1 1 1
_ _
3 0 0
0

2 0
0 0

6
_ _
3 0 0
0

2 0
0 0

6
_ _
1 1 1
0 1 1
0 0 1
_
= L

DL
t
=
_
3 0 0

2 0

6
_ _
3

3
0

2
0 0

6
_
= R
t
R
Captulo 4
Determinantes
Denicion 4.1. Determinante es una funcion: Det : M
n
(R) R tal que:
|I| = 1
Si E
I
A = B |A| = |B|
Si E
II
A = B |A| = |B|
Si E
III
A = B |A| = |B|
Observacion 4.2. Tomando A = I en la denicion: |E
I
| = 1, |E
II
| = ,
|E
III
| = 1. Reemplazando en la denicion queda que si E es una matriz
elemental, entonces |EA| = |E| |A|.
Observacion 4.3. Si A =
_
a b
c d
_
, entonces |A| = ad bc
Proposicion 4.4. Sea A una matriz de cuadrada. Entonces
Si A tiene dos las iguales, entonces |A| = 0.
Si A tiene una la nula, entonces |A| = 0.
Si A es triangular o diagonal, entonces |A| = a
i,i
.
Teorema 4.5. Sea A una matriz de cuadrada. Entonces A es invertible si y
solo si |A| = 0.
25
26 CAP

ITULO 4. DETERMINANTES
Teorema 4.6. Sean A y B matrices cuadradas. Entonces |AB| = |A| |B|.
(Usar: A y B son invertibles si y solo si AB es invertible.)
Proposicion 4.7. Sea A una matriz de cuadrada. Entonces
|A
t
| = |A|
Si A es invertible, entonces |A
1
| = 1/|A|
Proposicion 4.8. La funcion determinante es lineal en las las y en las
columnas.
Denicion 4.9. Menor i, j de una matriz A es el determinante de la matriz
que resulta de eliminar de A la la i y la columna j. Notacion: M
i,j
=.
Cofactor i, j de una matriz A es C
i,j
= (1)
i+j
M
i,j
Teorema 4.10. |A| = a
i,1
C
i,1
+ . . . + a
i,n
C
i,n
para todo i = 1, . . . , n. (caso
i = 1)
Proposicion 4.11. Sea A una matriz de cuadrada. Entonces
Si PA = LU, entonces (1)
k
|A| = u
i,i
Si A = LDL
t
, entonces |A| = d
i,i
Denicion 4.12. Sea A una matriz de cuadrada. La adjunta de A: Adj(A) =
(c
i,j
)
t
.
Teorema 4.13. Sea A una matriz de cuadrada. Entonces A Adj(A) =
Adj(A) A = |A| I
Proposicion 4.14. Sea A una matriz de cuadrada. Si A es invertible, en-
tonces A
1
= 1/|A| Adj(A)
Proposicion 4.15. Sea A una matriz simetrica. A es positiva denida si y
solo si, los determinantes de las submatrices principales son todos positivos.
Captulo 5
Espacios vectoriales
Denicion 5.1. Cuerpo o campo K, +, conjunto tal que con las operaciones
suma y multiplicacion cumple:
+ es cerrada: , K + K
+ es asociativa: , , K ( +) + = + ( +)
+ es conmutativa: , K + = +
Existe un neutro para la +: 0 : 0 + = + 0 =
Existe un inverso para la +: : + = + = 0
es cerrada: , K K
es asociativa: , , K ( ) = ( )
es conmutativa: , K =
Existe un neutro para la : 1 : 1 = 1 =
Existe un inverso para la : = 0 : = = 1
, , K ( +) = +
Ejemplo 5.2. Q, R, C, Z
p
Denicion 5.3. Un conjunto no vaco V es un espacio vectorial sobre el
cuerpo K si existen dos operaciones: suma y multiplicacion por escalar tal
que:
27
28 CAP

ITULO 5. ESPACIOS VECTORIALES


+ es cerrada: u, v V u +v V
+ es asociativa: u, v, w V (u +v) + w = u + (v +w)
+ es conmutativa: u, v V u +v = v +u
Existe un neutro para la +:

0
V
u :

0
V
+u = u +

0
V
= u
Existe un inverso para la +: u(u) : u + (u) = (u) +u =

0
es cerrada: u V, K u V
u, v V, K (u +v) = u + v
u V, , K ( +) u = u + u
u V, , K () u = (u)
u V 1 u = u
A los elementos de V se les llama vectores.
Ejemplo 5.4. Algunos espacios vectoriales:
R
n
sobre R.
P
n
(R) sobre R.
M
n,m
(R) sobre R.
C[a, b] sobre R.
M
n,m
(Z
p
) sobre Z
p
.
Proposicion 5.5. Si V es un espacio vectorial sobre K, entonces

0
V
es unico.
(u +v) = (u) + (v).
u es unico.

0
V
=

0
V
.
0 u =

0
V
.
29
u =

0
V
si y solo si = 0 o u =

0
V
.
Denicion 5.6. Una combinacion lineal de vectores v
1
, . . . , v
m
es un vector
de la forma
1
v
1
+. . . +
m
v
m
.
Ejemplo 5.7. En C[0, ], 1 sen
2
+1 cos
2
= 1.
Denicion 5.8. Sea S = {v
1
, . . . , v
m
}.
S es linealmente independiente si la unica manera de construir al vector
cero es la trivial:

1
v
1
+. . . +
m
v
m
=

0
1
= . . . =
m
= 0
S es linealmente dependinete si es posible construir al vector cero de
manera no trivial:

1
, . . .
m
no todos nulos, tal que
1
v
1
+. . . +
m
v
m
=

0
Observacion 5.9. Sea S = {v
1
, . . . , v
m
}. Entonces
S es LI si y solo si todo subconjunto de S es LI.
S es LD si y solo si todo conjunto que contiene a S es LD.
Teorema 5.10. Sea S = {v
1
, . . . , v
m
}. S es LD si y solo si existe v S que
es combinacion lineal del resto de los vectores de S.
Denicion 5.11. Sea S = {v
1
, . . . , v
m
}. El conjunto generado por S es
< S >=< v
1
, . . . , v
m
>= {
1
v
1
+. . . +
m
v
m
, tal que
1
, . . . ,
m
R}
Observacion 5.12. {

0
V
} es L.D. y {

0
V
} =<

0
V
>
Observacion 5.13. Sean S
1
y S
2
conjuntos de vectores de un espacio vec-
torial V .
Si S
1
S
2
, entonces < S
1
>< S
2
>
Si S
1
< S
2
>, entonces < S
1
>< S
2
>
Proposicion 5.14. Sea S = {v
1
, . . . , v
m
}. v
j
es combinacion lineal de vec-
tores de S < S >=< S {v
j
} >
30 CAP

ITULO 5. ESPACIOS VECTORIALES


Proposicion 5.15. Sea S = {v
1
, . . . , v
m
}. Si S es LI y v < S >, entonces
v se escribe de manera unica como combinacion lineal de los vectores de S.
Denicion 5.16. Sea V un espacio vectorial sobre K y U V . U es un
subespacio de V si es distinto del vaco y con las operaciones heredadas de
V es un espacio vectorial. Notacion: U V
Proposicion 5.17. U V si y solo si U es no vaco, es cerrado bajo la suma
y es cerrado bajo la multiplicacion por escalar.
Observacion 5.18. Todo conjunto generado es un subespacio.
Teorema 5.19. Sean U
1
, U
2
subespacios de V . Entonces
U
1
U
2
es subespacio de V .
U
1
+ U
2
= {u
1
+ u
2
: u
1
U
1
, u
2
U
2
} es subespacio de V . Si en
este caso, U
1
U
2
= {

0 }, entonces se dice que la suma es directa y se


denota: U
1
U
2
.
Teorema 5.20. Si V =< v
1
, . . . , v
n
> tal que {v
1
, . . . , v
n
} es L.I., entonces
todo conjunto L.I. de V contiene a lo mas n elementos.
Denicion 5.21. B V es una base de V si B es LI y < B >= V .
Teorema 5.22. Si B es una base de V y la cardinalidad de B es n, entonces
todas las bases de V tienen n elementos. Se dice que la dimension de V es n.
Notacion: Dim(V ) = n.
Proposicion 5.23. Si Dim(V ) = n, entonces
S es LI #S n.
< S >= V #S n.
Proposicion 5.24. Si Dim(V ) = n y S = {v
1
, . . . , v
n
}, entonces
S es LI < S >= V .
< S >= V S es L.I.
Observacion 5.25. Si U es subespacio de V y Dim(V ) = n, entonces
Dim(U) Dim(V )
31
Teorema 5.26. Sean U
1
, U
2
subespacios de V . Entonces
Dim(U
1
+U
2
) = Dim(U
1
) + Dim(U
2
) Dim(U
1
U
2
)
Proposicion 5.27. Sea A de n m. Entonces
C(A) es un subespacio de R
n
de dimension igual al rango de A.
F(A) es un subespacio de R
m
de dimension igual al rango de A.
A
t
es de mn, F(A
t
) = C(A) y C(A
t
) = F(A).
Denicion 5.28. Sea B = {v
1
, . . . , v
n
} una base de V y v V tal que
v = x
1
v
1
+. . . x
n
v
n
. El vector coordenado de x en la base B es:
[v]
B
=
_
_
x
1
.
.
.
x
n
_
_
Proposicion 5.29. Sean u, v V y B una base de V . Entonces
[u +v] = [u] + [v].
[u] = [u].
{u
1
, . . . , u
m
} es L.I. si y solo si {[u
1
], . . . , [u
m
]} es L.I.
u < u
1
, . . . , u
m
> si y solo si [u] < [u
1
], . . . , [u
m
] >.
Denicion 5.30. Sean B
1
= {v
1
, . . . , v
n
} y B
2
= {u
1
, . . . , u
n
} bases de V .
Se dene la matriz P
1
2
= [ [v
1
]
2
. . . [v
n
]
2
].
Proposicion 5.31. Sean B
1
= {v
1
, . . . , v
n
} y B
2
= {u
1
, . . . , u
n
} bases de V .
Para todo x V : P
1
2
[x]
1
= [x]
2
.
P
1
2
es invertible.
(P
1
2
)
1
= P
2
1
32 CAP

ITULO 5. ESPACIOS VECTORIALES


Captulo 6
Transformaciones lineales
Denicion 6.1. Sean V y W espacios vectoriales. T : V W es una
transformacion lineal si T(v
1
+v
2
) = T(v
1
) +T(v
2
) y T(v) = T(v).
Proposicion 6.2. Sean V y W espacios vectoriales y T : V W una
transformacion lineal. Entonces
T(

0
V
) =

0
W
.
T(v) = T(v).
Observacion 6.3. Si B es una base de V , entonces T queda determinada
por como act ua sobre la base.
Denicion 6.4. Sean V y W espacios vectoriales y T : V W una trans-
formacion lineal.
Ker(T) = {v V : T(v) =

0
W
} .
Im(T) = {w W : v V : T(v) = w} .
Proposicion 6.5. Sean V y W espacios vectoriales y T : V W una
transformacion lineal.
Ker(T) es un subespacio de V y su dimension es la nulidad de T.
Im(T es un subespacio de W y su dimension es el rango de T.
Observacion 6.6. Si B es una base de V , entonces < T(B) >= Im(T).
33
34 CAP

ITULO 6. TRANSFORMACIONES LINEALES


Denicion 6.7. Sean V y W espacios vectoriales y T : V W una trans-
formacion lineal.
Si T es inyectiva se dice que es un monomorsmo.
Si T es sobre se dice que es un epimorsmo.
Si T es inyectiva y sobre se dice que es un isomorsmo y se denota por
V

= W.
Teorema 6.8. Sean V y W espacios vectoriales y T : V W una transfor-
macion lineal.
T es inyectiva si y solo si Ker(T) = {

0
V
}.
T es sobre si y solo si Im(T) = W.
Proposicion 6.9. Sean V y W espacios vectoriales y T : V W una
transformacion lineal. Si T es inyectiva y S V es L.I., entonces T(S) es
L.I.
Denicion 6.10. Sean V y W espacios vectoriales, T : V W una trans-
formacion lineal, B
1
= {v
1
, . . . , v
m
} una base de V y B
2
= {w
1
, . . . , w
n
} una
base de W. La matriz de T con respecto a B
1
y B
2
es una matriz de n m
dada por
[T]
1
2
= [ [T(v
1
)]
2
. . . [T(v
m
)]
2
]
Proposicion 6.11. Sean V y W espacios vectoriales, T : V W una
transformacion lineal, B
1
= {v
1
, . . . , v
m
} una base de V y B
2
= {w
1
, . . . , w
n
}
una base de W. Entonces
[T]
1
2
[v]
1
= [T(v)]
2
, para todo v V .
v Ker(T) si y solo si [v]
1
Ker[T]
1
2
.
w Im(T) si y solo si [w]
2
Im[T]
1
2
.
T es un isomorsmo (V

= W) si y solo si [T]
1
2
es cuadrada e invertible.
En este caso T
1
es una transformacion lineal y ([T]
1
2
)
1
= [T]
2
1
.
Teorema 6.12. Sean V y W espacios vectoriales y T : V W una trans-
formacion lineal. Entonces
Dim Ker(T) + Dim Im(T) = Dim(V ).
35
Proposicion 6.13. Sea V espacio vectorial de dimension m y B
1
y B
3
bases
de V . Sea W espacio vectorial de dimension n y B
2
y B
4
bases de W. Hay
dos matrices cambio de bases: P
1
3
y P
2
4
.
Sea T : V W y las dos matrices asociadas a T: [T]
1
2
y [T]
3
4
.
Sean x V, y W. Entonces
[x]
3
= P
1
3
[x]
1
.
[y]
4
= P
2
4
[y]
2
.
[T]
1
2
[x]
1
= [T(x)]
2
.
[T]
3
4
[x]
3
= [T(x)]
4
.
Reemplazndo:
[T]
3
4
[x]
3
= [T(x)]
4
.
[T]
3
4
P
1
3
[x]
1
= P
2
4
[T(x)]
2
.
[T]
3
4
P
1
3
[x]
1
= P
2
4
[T]
1
2
[x]
1
.
Entonces [T]
3
4
P
1
3
= P
2
4
[T]
1
2
Esquema:
[T]
1
2
V W
B
1
B
2
P
1
3
P
2
4
V W
B
3
B
4
[T]
3
4
Ejemplo 6.14. Un ejemplo de la relacion entre matriz cambio de base y
matriz de una transformacion lineal es:
36 CAP

ITULO 6. TRANSFORMACIONES LINEALES


Sea V = M
2
(R) con las siguientes bases:
B
1
=
__
1 0
0 0
_
,
_
1 1
0 0
_
,
_
0 0
1 0
_
,
_
0 0
1 1
__
B
3
=
__
1 0
0 0
_
,
_
0 1
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
__
La matriz cambio de base P
1
3
es P
1
3
=
_

_
1 1 0 0
0 1 0 0
0 0 1 1
0 0 0 1
_

_
Sea W = P
2
(R) con las siguientes bases:
B
2
= {1, 1 +x, 1 + x
2
} B
4
= {1, x, x
2
}
La matriz cambio de base P
2
4
es P
2
4
=
_
_
1 1 1
0 1 0
0 0 1
_
_
Sea T : M
2
(R) P
2
(R), dada por
T
__
a b
c d
__
= (a +b) + (b +c)x + (c +d)x
2
La matriz de T con respecto a las bases B
1
en V y B
2
en W es:
[T]
1
2
=
_
_
1 1 2 3
0 1 1 1
0 0 1 2
_
_
La matriz de T con respecto a las bases B
3
en V y B
4
en W es:
[T]
3
4
=
_
_
1 1 0 0
0 1 1 0
0 0 1 1
_
_
Sea A =
_
1 2
3 4
_
V y entonces:
37
[A]
1
=
_

_
1
2
1
4
_

_
, [A]
3
=
_

_
1
2
3
4
_

_
Luego T(A) = 3 + 5x + 7x
2
W y entonces
[T(A)]
2
=
_
_
9
5
7
_
_
, [T(A)]
4
=
_
_
3
5
7
_
_
Y se cumple [T]
1
2
[A]
1
= [T(A)]
2
y [T]
3
4
[A]
3
= [T(A)]
4
Proposicion 6.15. Sean T y L transformaciones lineales de V en W. En-
tonces (T + L) : V W dada por (T + L)(v) = T(v) + L(v) es una trans-
formacion lineal, y (T) : V W dada por (T)(v) = T(v) es una trans-
formacion lineal. Ademas [T +L] = [T] + [L] y [T] = [T].
Proposicion 6.16. Sean T : V W y L : U V transformaciones
lineales. Entonces (T L) : U W dada por (T L)(u) = T(L(u)) es una
transformacion lineal, y [T L] = [T] [L].
38 CAP

ITULO 6. TRANSFORMACIONES LINEALES


Captulo 7
Valores y vectores propios
Denicion 7.1. Sea A de n n, v =

0 es un vector propio de A si existe
R tal que Av = v. Se dice que es el valor propio de A asociado a v.
Proposicion 7.2. Sea A de nn. es valor propio de A si y solo si |AI| =
0.
Denicion 7.3. Sea A de nn. El polinomio caracterstico de A es p
A
(x) =
|xI A|.
Proposicion 7.4. Sea A de n n. es valor propio de A si y solo si es
raz de p
A
(x). La multiplicidad algebraica de es la multiplicidad como raz
de p
A
(x). (m.a.)
Observacion 7.5. Sea A de nn. Si v
1
y v
2
son vectores propios asociados
al valor propio , y R, entonces v
1
y v
1
+ v
2
son vectores propios
asociados a .
Proposicion 7.6. Sea A de n n y un valor propio de A. E

= {v
R
n
: Av = v} es el espacio propio asociado a . La dimension de E

es la
multiplicidad geometrica de .(m.g.). E

= Ker(A I).
Teorema 7.7. Sea A de n n y un valor propio de A. Entonces la m.g.
de es menor o igual a la m.a. de .
Proposicion 7.8. Sea A de n n. Entonces
A tiene a lo mas n valores propios.
39
40 CAP

ITULO 7. VALORES Y VECTORES PROPIOS


Si A es diagonal, entonces los valores propios de A son los elementos
de su diagonal.
Si A es triangular superior o inferior, entonces los valores propios de A
son los elementos de su diagonal.
A es no invertible si y solo si 0 es valor propio de A.
Si es valor propio de A, entonces
m
es valor propio de A
m
, para
m N.
Si es valor propio de A y A es invertible, entonces
1
es valor propio
de A
1
.
Si
1
y
2
son dos valores propios distintos de A, entonces E

1
E

2
=
{

0}.
Observacion 7.9. Considerando |xI A| = c
n
x
n
+ . . . + c
1
x + c
0
= (x
z
1
) . . . (x z
n
) y tomando igualdad en los coecientes c
0
y c
n1
se tiene:
La traza de A es la suma de sus valores propios.
El determinante de A es el producto de sus valores propios.
Denicion 7.10. Dado un polinomio q(x) = a
0
+ a
1
x + . . . + a
m
x
m
y A
matriz cuadrada, se dene a q(A) como la matriz a
0
I +a
1
A +. . . +a
m
A
m
.
Observacion 7.11. Dado un polinomio q(x) = a
0
+ a
1
x + . . . + a
m
x
m
y D
matriz diagonal, se tiene que q(D) es la matriz diagonal cuya diagonal se
forma con los elementos de la diagonal de D evaluados en q(x).
Teorema 7.12. Sea A matriz cuadrada. Entonces p
A
(A) es la matriz nula.
Denicion 7.13. Sea T : V V una transformacion lineal. v =

0 es un
vector propio de T si existe R tal que T(v) = v. Se dice que es el
valor propio de T asociado a v.
Denicion 7.14. Dos matrices cuadradas A y B se dicen similares si existe
una matriz L invertible tal que L
1
AL = B.
Proposicion 7.15. Si A y B son similares, entonces tienen los mismos
valores propios (tienen el mismo polinomio caracterstico). Si L es tal que
L
1
AL = B y v es vector propio de B asociado a , entonces Lv es vector
propio de A asociado a .
41
Denicion 7.16. Una matriz cuadrada A (o transformacion lineal T) es
diagonalizable si y solo si es similar a una matriz diagonal.
Proposicion 7.17. Si A y B son similares, entonces A es diagonalizable si
y solo si B es diagonalizable.
Teorema 7.18. A es diagonalizable si y solo si existen n vectores propios
L.I. de A.
Corolario 7.19. Si A tiene n valores propios distintos, entonces A es diag-
onalizable.
Observacion 7.20. Si A es diagonalizable, entonces A
m
es diagonalizable,
para todo m N.
Observacion 7.21. Si A es tal que Au = u, entonces A
k
u =
k
u. Luego
lm
k
A
k
u =
_
lm
k

k
_
u.
Observacion 7.22. Si Av = v, entonces lm
k
A
k
v =
0 si || < 1,
v si = 1,
no existe si || > 1.
Observacion 7.23. Sea A es diagonalizable y q(x) un polinomio. Entonces
A = L
_

_
d
1
0 . . . 0
0 d
2
0
.
.
.
0 0 . . . d
n
_

_
L
1
q(A) = L
_

_
q(d
1
) 0 . . . 0
0 q(d
2
) 0
.
.
.
0 0 . . . q(d
n
)
_

_
L
1
A = L
_

_
d
1
0 . . . 0
0 d
2
0
.
.
.
0 0 . . . d
n
_

_
L
1
e
A
= L
_

_
e
d
1
0 . . . 0
0 e
d
2
0
.
.
.
0 0 . . . e
d
n
_

_
L
1
42 CAP

ITULO 7. VALORES Y VECTORES PROPIOS


Captulo 8
Ortogonalidad
Denicion 8.1. Sea V un espacio vectorial sobre R. V se dice que es un
espacio vectorial con producto interno si existe una funcion de V V en R
tal que para todo u, v V , y R
u v = v u
u (v +w) = u v +u w
(u) v = (u v)
u u 0 y u u = 0 si y solo si u =

0.
Denicion 8.2. Sea V un espacio vectorial sobre R con producto interno.
Dados u, v V , u es ortogonal a v si u v = 0. Notacion: u v.
{u
1
, . . . , u
m
} V es ortogonal si el conjunto no contiene a

0 y u
i
u
j
= 0
para todo i = j
{u
1
, . . . , u
m
} V es ortonormal si el conjunto es ortogonal y u
i
u
i
=
1, i.
Observacion 8.3. En adelante se considera al espacio vectorial R
n
sobre R,
con el producto punto usual.
Observacion 8.4. u

0, para todo u R
n
.
43
44 CAP

ITULO 8. ORTOGONALIDAD
Observacion 8.5. Sea {u
1
, . . . , u
m
} ortogonal y u =
1
u
1
+ . . . +
m
u
m
,
entonces

i
=
u u
i
u
i
u
i
Observacion 8.6. Todo conjunto ortogonal es L.I., y por lo tanto una base
de su conjunto generado.
Denicion 8.7. Dado U R
n
, el ortogonal a U es U

= {w R
n
: u w =
0}.
Proposicion 8.8. Sea R
n
con el producto punto usual.
Si {u
1
, . . . , u
m
} es una base de U, entonces U

= {w R
n
: u
i
w =
0 para i = 1, . . . , m}.

0 U

es un subespacio de R
n
.
{

0}

= R
n
.
R
n
= {

0}.
U

= U
U U

= {

0}.
Sea {u
1
, . . . , u
m
} una base de U y A de nm la matriz A = [u
1
. . . u
m
].
Entonces U

= Ker(A
t
).
U U

= R
n
. Dado v R
n
, existen unicos u U y w U

tal que
v = u +w.
Proposicion 8.9. Sea S = {u
1
, . . . , u
m
} un conjunto de vectores en R
n
y A
de n m la matriz A = [u
1
. . . u
m
]. Entonces
S es LI si y solo si A
t
A es positiva denida.
S es ortogonal si y solo si A
t
A es diagonal y positiva denida.
S es ortonormal si y solo si A
t
A = I.
45
Denicion 8.10. Sea U subespacio de R
n
y v R
n
tal que u U y w U

donde v = u +w.
La proyeccion ortogonal sobre U es P : R
n
R
n
, tal que P(v) = u.
La proyeccion ortogonal sobre U

es Q : R
n
R
n
, tal que Q(v) = w.
Proposicion 8.11. Sea U subespacio de R
n
y v R
n
tal que u U y
w U

donde v = u + w.
Si {u
1
, . . . , u
m
} es una base de U y A de n m es la matriz A =
[u
1
. . . u
m
], entonces u = Ax, donde x es tal que A
t
Ax = A
t
v.
Si {w
1
, . . . , w
r
} es una base de U

y B de n r es la matriz B =
[w
1
. . . w
r
], entonces w = By, donde y es tal que B
t
By = B
t
v.
Proposicion 8.12. Sea U subespacio de R
n
, P la proyeccion ortogonal sobre
U y Q la proyeccion ortogonal sobre U

. Entonces
P y Q son transformaciones lineales.
P +Q = I (como t.l.).
Ker(P) = U

, Im(P) = U.
Ker(Q) = U, Im(Q) = U

.
P
2
= P y Q
2
= Q (como t.l.).
Si {u
1
, . . . , u
m
} es una base de U y A de n m es la matriz A =
[u
1
. . . u
m
], entonces la matriz de P con respecto a la base canonica es
P = A(A
t
A)
1
A
t
.
Si {w
1
, . . . , w
r
} es una base de U

y B de n r es la matriz B =
[w
1
. . . w
r
], entonces la matriz de Q con respecto a la base canonica es
Q = B(B
t
B)
1
B
t
.
P y Q son simetricas.
P
2
= P y Q
2
= Q (como matrices).
P +Q = I (como matrices).
2P I = R es matriz de reexion, es simetrica y R
2
= I.
46 CAP

ITULO 8. ORTOGONALIDAD
P, Q y R son diagonalizables. Para P: E
1
= U y E
0
= U

. Para Q:
E
1
= U

y E
0
= U. Para R: E
1
= U y E
1
= U

.
Proposicion 8.13. Gram Schmidt: Dado S = {v
1
, . . . , v
m
} L.I., una base
ortogonal de < S > es {u
1
, . . . , u
m
}, donde:
u
1
= v
1
u
2
= v
2

v
2
u
1
u
1
u
1
u
1
u
3
= v
3

v
3
u
1
u
1
u
1
u
1

v
3
u
2
u
2
u
2
u
2
. . ..
Observacion 8.14. Descomposicion QR.
Sea A = [v
1
v
m
] una matriz con columnas L.I. El problema es encontrar
una matriz cuyas columnas formen un conjunto ortonormal que genere lo
mismo que las columnas de A, es decir se busca una matriz Q tal que:
Q = [u
1
u
m
], Im(Q) = Im(A) y Q
t
Q = I.
Sea R la matriz cambio de base de mm, es decir A = QR. Entonces
A
t
A = (QR)
t
QR = R
t
Q
t
QR = R
t
IR = R
t
R.
Dado que A es inyectiva, luego A
t
A es positiva denida y basta tomar su
descomposicion con raz cuadrada R. Obteniendo R se calcula Q = AR
1
.
Ejemplo 8.15. Sea U =<
_

_
1
0
1
1
_

_
,
_

_
1
0
2
0
_

_
,
_

_
1
0
3
1
_

_
>. Determine una base
ortonormal de U.
Solucion:
Sea A =
_

_
1 1 1
0 0 0
1 2 3
1 0 1
_

_
. Entonces
47
A
t
A =
_
3 3 3
3 5 5
3 5 11
_
=
_
3 0 0

2 0

6
_ _
3

3
0

2
0 0

6
_
= R
t
R
Luego R
1
=
_
1/

3 1/

2 0
0 1/

2 1/

6
0 0 1/

6
_
.
Entonces Q =
_

_
1

3 0 2

6
0 0 0
1

3 1

2 1

6
1

3 1

2 1

6
_

_
.
Entonces U =<
_

_
1

3
0
1

3
1

3
_

_
,
_

_
0
0
1

2
1

2
_

_
,
_

_
2

6
0
1

6
1

6
_

_
>
Proposicion 8.16. Sea el sistema Ax = b inconsistente y x

tal que Ax

b
es mnima. Entonces x

es tal que Ax

es la proyeccion de b sobre Im(A).


48 CAP

ITULO 8. ORTOGONALIDAD
Captulo 9
Matrices Simetricas
Denicion 9.1. U de n n es ortogonal si U
t
U = I.
Teorema 9.2. Sea P de n n. Entonces las siguientes proposiciones son
equivalentes:
U es ortogonal.
Ux = x, para todo x R
n
.
Ux Uy = x y, para todo x, y R
n
.
Si {v
1
, . . . , v
m
} es ortonormal, entonces {Uv
1
, . . . , Uv
m
} es ortonormal.
Proposicion 9.3. Sea A simetrica. Entonces
A tiene solo valores propios reales.
Si
1
y
2
son dos valores propios distintos de A tal que v
1
E

1
y
v
2
E

2
, entonces v
1
v
2
= 0.
Denicion 9.4. Una matriz A se dice ortogonalmente diagonalizable si ex-
iste U ortogonal y D diagonal, tal que U
t
AU = D.
Teorema 9.5. A es simetrica si y solo si A es ortogonalmente diagonalizable.
Corolario 9.6. A simetrica es positiva denida si y solo si todos sus valores
propios son positivos.
49
50 CAP

ITULO 9. MATRICES SIM

ETRICAS
Denicion 9.7. Si A es simetrica y v
1
, . . . , v
n
son vectores propios (ortonor-
males) asociados a los valores propios
1
, . . . ,
n
, entonces la descomposicion
espectral de A es:
A =
1
v
1
v
t
1
+. . . +
n
v
n
v
t
n
.
Observacion 9.8. Si A es de n m, se tiene que
1. Ker(A
t
A) = Ker(A).
2. Im(A
t
A) = Im(A
t
).
Teorema 9.9. Sea A de n m. Entonces existen U de mm y V de n n
matrices ortogonales tal que
V
t
AU =
_

_
s
1
0
.
.
.
0 s
r
0
_

_
nm
Observacion 9.10. Como obtener U?
La matriz A
t
A es simetrica y semi denida positiva. Entonces existe U de
mm matriz ortogonal tal que
U
t
A
t
AU =
_

_
d
1
.
.
.
d
r
0
.
.
.
0
_

_
nm
con d
1
d
2
d
r
> 0.
Sea U
1
matriz de mr que contiene vectores propios de valores propios no
nulos y U
2
matriz de m(mr) que contiene los vectores propios del valor
propio 0. Entonces se tiene que:
U = [U
1
U
2
].
Los vectores columna de U
1
forman una base de Im(A
t
A) = Im(A
t
).
Los vectores columna de U
2
forman una base de Ker(A
t
A) = Ker(A).
51
(AU
1
)
t
(AU
1
) = D =
_
_
d
1
.
.
.
d
r
_
_
nm
Observacion 9.11. Como obtener V ?
Sea V
1
de n r la matriz V
1
= AU
1

D
1
.
Sea V
2
de n(nr) la matriz cuyas columnas completan una base ortogonal
con las columnas de V
1
.
Entonces se considera V = [V
1
V
2
].

You might also like