You are on page 1of 45

Algebra Lineal

Graciela A. Reyes Ahumada


Septiembre 2011-febrero 2012
ii

Indice general
1. Matrices 1
1.1. Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2. Operaciones elementales con matrices y el metodo de Gauss-Jordan . . 5
1.2.3. Matrices invertibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2. Espacios vectoriales 13
2.1. Espacios y subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2. Dependencia lineal y Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3. Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.4. C alculos con matrices escal on reducidas . . . . . . . . . . . . . . . . . . . . . . 27
2.4.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3. Transformaciones Lineales 31
3.1. Denici on y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2. El espacio vectorial Hom
F
(V, W) . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3. El teorema de isomorsmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.4. El espacio dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
iii
Bibliografa 41
iv
Captulo 1
Matrices
El objetivo de este curso es estudiar dos estructuras algebraicas muy importantes que
utilizar an en casi todas las areas de fsica y matematicas: Los espacios vectoriales y las matrices.
En este primer captulo daremos un repaso r apido a la teora de matrices, que vieron en su
curso de

Algebra Superior, m as adelante, despues de estudiar un poco de espacios vectoriales
retomaremos el tema de las matrices y profundizaremos mas en el.
1.1. Campos
Empezamos estas notas recordando la denicion de campo:
Definici

on 1.1.1 Un conjunto C con dos operaciones + y llamadas adicion y multipli-


cacion es llamado campo si sus operaciones satisfacen las siguientes propiedades:
C0) Si a, b C entonces a + b C y a b C (A esta propiedad se le llama que el conjunto
C es cerrado bajo sus operaciones de suma y producto).
C1) Leyes conmutativas Para todo a, b C
a + b = b +a
a b = b a.
C2) Leyes asociativas Para todo a, b, c C
a + (b +c) = (a +b) + c
a (b c) = (a b) c.
1
2 CAP

ITULO 1. MATRICES
C3) Leyes distributivas Para todo a, b, c C
a (b +c) = a b +a c
(a +b) c = a c + b c.
C4) Elementos identidad Existe un elemento de C, denotado 0, que satisface
a + 0 = a = 0 +a a C.
A este elemento se le llama identidad de la adicion, o tambien se le llama cero. Existe
un elemento de C, denotado 1, que satisface
a 1 = a = 1 a, a C
A este elemento se le llama identidad de la multiplicacion o tambien se le llama uno.
C5) Elementos inversos Para todo a C existe un elemento denotado a que satisface
a + (a) = 0 = (a) + a.
A este elemento se le llama inverso aditivo de a. Para todo a C diferente de cero,
existe un elemento denotado a
1
que satisface
a a
1
= 1 = a
1
a.
A este elemento se le llama inverso multiplicativo de a.
NOTA: Un campo es un conjunto con 2 operaciones, es decir una triada (C, +, ) que
satisface TODAS las propiedades anteriores. Recordemos de su curso anterior que el conjunto
de los n umero reales R con sus operaciones de suma y producto satisfacen las condiciones
anteriores, es decir que (R, +, ) es un campo y tambien de su curso anterior que los n umeros
complejos con su suma y producto es un campo, es decir (C, +, ) es campo. Recordemos que
a los elementos de un campo se les suele llamar escalares.
1.1.1. Ejercicios
1. Demuestra que el subconjunto Q R de los n umeros racionales junto con las operaciones
de suma y producto denidas como en los reales, es un campo.
2. Demuestra que el subconjunto N R de los n umeros naturales junto con las operaciones
de suma y producto denidas como en los reales, no es un campo.
1.2. MATRICES 3
3. Demuestra que los n umeros complejos con sus operaciones satisfacen las leyes distribu-
tivas (recuerda utilizar las propiedades distributivas de los n umeros reales).
4. Demuestra que los n umeros complejos tienen inversos aditivos, es decir probar que si
a +bi es cualquier n umero complejo, entonces existe un complejo (c +di) tal que
(a +bi) + (c +di) = 0,
recuerda que el inverso aditivo de a + bi se denota (a +bi).
5. Demuestra que al restringir la adici on y multiplicaci on compleja a los n umeros reales,
estas operaciones coinciden con la suma y producto de los reales.
6. Sea p N un n umero natural mayor a 1, y sea Z
p
los enteros m odulo p, con operaciones
denidas como:
a + b := a + b (mod p) y a b := a b (mod p) a, b Z
p
.
i) Si p N no es un n umero primo, entonces Z
p
no es un campo.
ii) Si p N es un n umero primo, entonces Z
p
es un campo.
1.2. Matrices
Esta seccion est a dedicada a estudiar matrices y operaciones en ellas, como siempre, los
resultados se demostraran en clase o se dejaran como ejercicio. Los ejemplos y las cuentas en
general las haremos solo sobre el campo de n umeros reales o de n umeros complejos, pero todos
los resultados que veremos son ciertos para cualquier campo.
1.2.1. Deniciones
Sea F un campo, le llamaremos matriz a un arreglo de elementos a
ij

1im,1jn
F de
la forma:
_
_
_
_
_
_
_
a
11
a
12
a
13
... a
1n
a
21
a
22
a
23
... a
2n
a
31
a
32
a
33
... a
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
m3
... a
mn
_
_
_
_
_
_
_
Notaci on: Diremos que la matriz anterior tiene m renglones y n columnas. Usualmente
se utilizan letras may usculas para designar a las matrices y letras min usculas con 2 subndices
4 CAP

ITULO 1. MATRICES
para designar a los elementos de la matriz, por ejemplo si le llamamos A a la matriz anterior,
entonces a
ij
designa el elemento de la matriz A que est a en el rengl on i y la columna j; otra
manera de designar a la matriz anterior sera como (a
ij
)
1im,1jn
. Al conjunto de matrices
de m renglones y n columnas sobre un campo F, se denota F
mn
.
A las matrices que tienen la misma cantidad de renglones que de columnas se les llama
matrices cuadradas. En una matriz cuadrada a los elementos de la forma a
ii
se les llama
elementos diagonal y al conjunto a
11
, a
22
, a
33
, ..., a
nn
se le llama diagonal (principal). Una matriz
se dice diagonal si todos los elementos fuera de la diagonal son cero; una matriz se dice
triangular superior si todos los elementos por debajo de la diagonal son cero y una matriz
se dice triangular inferior si todos los elementos arriba de la diagonal son cero.
En muchas ocasiones nos ser a util ver los renglones y las columnas de una matriz como
vectores, por ejemplo en la matriz anterior, tenemos n columnas cada una compuesta por m
elementos, es decir en una matriz de F
mn
las columnas se pueden ver como vectores del esp.
vect. F
m
y los renglones se pueden ver como vectores en F
n
.
Ahora dotaremos a las matrices cuadradras F
nn
con operaciones: Sea n un n umero natural
y F un campo, las matrices cuadradas de n n sobre F, denotado F
nn
, denimos la suma y
el producto de matrices como:
_
_
_
_
_
a
11
a
12
... a
1n
a
21
a
22
... a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
... a
nn
_
_
_
_
_
+
_
_
_
_
_
b
11
b
12
... b
1n
b
21
b
22
... b
2n
.
.
.
.
.
.
.
.
.
.
.
.
b
n1
b
n2
... b
nn
_
_
_
_
_
=
_
_
_
_
_
a
11
+b
11
a
12
+ b
12
... a
1n
+b
1n
a
21
+b
12
a
22
+ b
22
... a
2n
+b
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
+b
n1
a
n2
+ b
n2
... a
nn
+b
nn
_
_
_
_
_
_
_
_
_
_
a
11
a
12
... a
1n
a
21
a
22
... a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
... a
nn
_
_
_
_
_

_
_
_
_
_
b
11
b
12
... b
1n
b
21
b
22
... b
2n
.
.
.
.
.
.
.
.
.
.
.
.
b
n1
b
n2
... b
nn
_
_
_
_
_
=
_
_
_
_
_

n
k=1
a
1k
b
k1

n
k=1
a
1k
b
k2
...

n
k=1
a
1k
b
kn

n
k=1
a
2k
b
k1

n
k=1
a
2k
b
k2
...

n
k=1
a
2k
b
kn
.
.
.
.
.
.
.
.
.
.
.
.

n
k=1
a
nk
b
k1

n
k=1
a
nk
b
k2
...

n
k=1
a
nk
b
kn
_
_
_
_
_
estas operaciones podran expresarse de manera m as sencilla como
(a
ij
) + (b
ij
) = (a
ij
+b
ij
) (a
ij
) (b
ij
) = (
n

k=1
a
ik
b
kj
).
Es facil (pero tardado) ver que estas operaciones cumplen con ser cerradas, asociativas y
distributivas, m as a un se puede probar que la suma es conmutativa, tiene inversos aditivos y
una identidad aditiva (la matriz cero).
1.2. MATRICES 5
Le llamaremos matriz identidad de n n a la matriz cuadrada de n n que tiene ceros
fuera de la diagonal y unos en toda la diagonal (es f acil vericar que efectivamente esta es
la identidad multiplicativa de las matrices cuadradas de n n) y la denotaremos por I
nn
.
Tambien es sencillo vericar que el producto de matrices es NO CONMUTATIVO y que existen
elementos que NO TIENEN inversos multiplicativos.
1.2.2. Operaciones elementales con matrices y el metodo de Gauss-
Jordan
Definici

on 1.2.1 Una matriz se dice escalonada si el primer elemento distinto de cero


de cada renglon esta mas a la derecha del primer elemento distinto de cero del renglon anterior.
Una matriz se dice escalonada reducida si es escalonada y ademas el primer elemento
distinto de cero de cada renglon es 1.
Ejemplos:
1. Las siguientes matrices son escalonadas:
A =
_
_
_
_
1 0 0 0
0 6 0 18
0 0 0 1
0 0 0 0
_
_
_
_
B =
_
_
77 6 8
0 10 18
0 0 11
_
_
C =
_
77 0
0 10
_
2. Las siguientes matrices NO son escalonadas:
_
_
_
_
1 0 0 0
0 6 0 18
0 1 0 1
0 0 0 8
_
_
_
_
_
_
77 6 8
0 10 18
3 0 11
_
_
_
77 0
1 10
_
3. Las siguientes matrices son escalonadas reducidas:
_
_
_
_
1 0 0 0
0 1 0 18
0 0 0 1
0 0 0 0
_
_
_
_
_
_
1 6 8
0 1 18
0 0 1
_
_
_
1 97
0 1
_
Las Operaciones Elementales de matrices son:
6 CAP

ITULO 1. MATRICES
i) Intercambiar dos renglones.
ii) Multiplicar un renglon por un escalar no cero.
iii) Sumar un rengl on a otro rengl on.
Diremos que una matriz A es equivalente a una matriz B si se puede obtener B al aplicarle
un n umero nito de operaciones elementales a A y se denota A B y tenemos el siguiente
teorema (demostrado en clase).
Teorema 1.2.2 Toda matriz A F
nm
es equivalente a una matriz escalonada reducida.
Al proceso de convertir una matriz arbitraria en una matriz escalonada, se le llama metodo
de Gauss-Jordan.
Ejemplo (del metodo de Gauss-Jordan): Encontrar una matriz escalonada reducida que
sea semejante a la siguiente matriz:
A =
_
_
_
_
1 0 7 0
0 0 3 2
3 3 0 0
1 1 0 1
_
_
_
_
Soluci on del ejemplo:
_
_
_
_
1 0 7 0
0 0 3 2
3 3 0 0
1 1 0 1
_
_
_
_

1
_
_
_
_
3 3 0 0
0 0 3 2
1 0 7 0
1 1 0 1
_
_
_
_

2
_
_
_
_
1 1 0 0
0 0 3 2
1 0 7 0
1 1 0 1
_
_
_
_

3
_
_
_
_
1 1 0 0
1 0 7 0
0 0 3 2
1 1 0 1
_
_
_
_

4
_
_
_
_
1 1 0 0
1 0 7 0
0 0 3 2
0 0 0 1
_
_
_
_

5
_
_
_
_
1 1 0 0
0 1 7 0
0 0 3 2
0 0 0 1
_
_
_
_

6
_
_
_
_
1 1 0 0
0 1 7 0
0 0 1
2
3
0 0 0 1
_
_
_
_
donde:
paso 1) intercambiar los renglones 1 y 3,
paso 2) multiplicar por
1
3
el primer renglon,
1.2. MATRICES 7
paso 3) intercambiar los renglones 2 y 3,
paso 4) restar el primer rengl on al cuarto rengl on,
paso 5) restar el primer rengl on al segundo rengl on.
paso 6) multiplicar el segundo rengl on por 1 y el tercer renglon por
1
3
Ahora veremos que las operaciones elementales realmente son multiplicaciones matriciales:
Si tenemos una matriz de mn
A =
_
_
_
_
_
_
_
a
11
a
12
a
13
... a
1n
a
21
a
22
a
23
... a
2n
a
31
a
32
a
33
... a
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
m3
... a
mn
_
_
_
_
_
_
_
y Sea E
1
la matriz que resulta de en la matriz identidad I
mm
intercambiar el rengl on k con
el renglon l (con k < l), es decir
E
1
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 ...
.
.
. 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 ... 1
k1,k1
0 ... 0
0 0 ... 1
k,l
0 ... 0
0 0 ... 0 1
k+1,k+1
... 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 ... 1
l1,l1
0 ... 0
0 0 ... 0 1
l,k
... 0
0 0 ... 0 1
l+1,l+1
... 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 ... ... ... 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
Haciendo una cuenta muy sencilla podemos vericar que la matriz de m n que resulta
de multiplicar E
1
A es exactamente intercambiar los renglones k y l en la matriz A; del mismo
modo, si E
2
es la matriz resultante de multiplicar el renglon k de I
nn
por un escalar ,= 0,
es decir
8 CAP

ITULO 1. MATRICES
E
2
=
_
_
_
_
_
_
_
_
_
_
_
1 0 0 ... 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 ... 1 ... 0 0 0
0 ... 0 ... 0 0
0 ... ... 0 1 ... 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 ... ... ... ... 0 1
_
_
_
_
_
_
_
_
_
_
_
Tenemos que E
2
A es la matriz que resulta de multiplicar el rengl on k de A por el es-
calar ; por ultimo si E
3
es la matriz que resulta de en la matriz identidad I
mm
sumar el
rengl on k al renglon l, tenemos que E
3
A es la matriz que resulta de sumar el rengl on k de
A al rengl on l de A. Todo esto prueba que las operaciones elementales en realidad son
multiplicaciones matriciales, a estas matrices que act uan como operaciones elementales,
les llamaremos matrices elementales.
Como vieron en su curso anterior, el proceso de Gauss-Jordan es muy util para resolver
sistemas de ecuaciones lineales. A continuaci on veremos otra aplicacion de Gauss-Jordan para
obtener inversos multiplicativos de matrices.
1.2.3. Matrices invertibles
Si A es una matriz cuadrada de F
nn
A =
_
_
_
_
_
_
_
a
11
a
12
a
13
... a
1n
a
21
a
22
a
23
... a
2n
a
31
a
32
a
33
... a
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
n3
... a
nn
_
_
_
_
_
_
_
Una matriz B F
nn
tal que BA = I se le llama inversa izquierda de A, una matriz
C F
nn
tal que AC = I se le llama inversa derecha de A, si existen B, C tales que BA = AC,
(es decir si A tiene inversas por ambos lados) la matriz A se llama invertible; es sencillo probar
el siguiente resultado:
Lema 1.2.3 Si A tiene una inversa por la izquierda B y una inversa por la derecha C,
entonces B = C.
Los siguientes resultados ser an probados en clase:
1.2. MATRICES 9
Teorema 1.2.4 sean A, B F
nn
i) Si A es invertible, entonces tambien lo es A
1
y (A
1
)
1
= A.
ii) Si A y B son invertibles tambien lo es AB y (AB)
1
= B
1
A
1
; y el producto de matrices
invertibles es invertible.
Teorema 1.2.5 Si A F
nn
, los siguientes enunciados son equivalentes:
i) A es invertible.
ii) A es equivalente a la matriz identidad.
iii) A es producto de matrices elementales.
Lema 1.2.6 Sea A F
nn
, A es invertible si y solo si el sistema AX = 0 solo tiene la
solucion trivial.
Teorema 1.2.7 Si A F
nn
tiene inversa por la derecha o por la izquierda, entonces es
invertible.
Ahora veamos como aplicar el metodo de Gauss-Jordan para calcular inversos: queremos
obtener B F
nn
tal que AB = BA = I
nn
, lo que haremos es lo siquiente, primero nos
construiremos la matriz de n2n llamada A[I
nn
, que resulta de poner A y la identidad I
nn
:
AI
nn
=
_
_
_
_
_
_
_
a
11
a
12
a
13
... a
1n
a
21
a
22
a
23
... a
2n
a
31
a
32
a
33
... a
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
n3
... a
nn

1 0 ... ... 0
0 1 ... ... 0
0 0 1 ... 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 ... 0 1
_
_
_
_
_
_
_
luego haremos operaciones elementales a esta matriz de n 2n hasta que logremos que nos
quede la identidad del lado izquierdo, es decir, si logramos encontrar una matriz equivalente a
A[I
nn
de la forma
I
nn
[B =
_
_
_
_
_
_
_
1 0 ... ... 0
0 1 ... ... 0
0 0 1 ... 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 ... 0 1

b
11
b
12
b
13
... b
1n
b
21
b
22
b
23
... b
2n
b
31
b
32
b
33
... b
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
b
n1
b
n2
b
n3
... b
nn
_
_
_
_
_
_
_
10 CAP

ITULO 1. MATRICES
tendramos que B es el inverso multiplicativo de A, la razon por la que esto funciona es
porque lo que estamos haciendo es que de el lado izquierdo estamos multiplicandoA por matri-
ces elementales hasta que nos quede la identidad, y del lado derecho estas matrices elementales
las estamos multiplicando por la identidad. Observemos que NO todas las matrices cuadradas
son invertibles, pero si es que una matriz es invertible, entonces con este procedimiento encon-
traremos el inverso.
Haremos un ejemplo de como obtener el inverso de una matriz de 3 3 en R:
Sea
A =
_
_
1 0 3
0 0 1
0 2 1
_
_
entonces
A[I
33
=
_
_
1 0 3
0 0 1
0 2 1

1 0 0
0 1 0
0 0 1
_
_
y entonces
A[I
33
=
_
_
1 0 3
0 0 1
0 2 1

1 0 0
0 1 0
0 0 1

1
_
_
1 0 0
0 0 1
0 2 1

1 3 0
0 1 0
0 0 1
_
_

2
_
_
1 0 0
0 2 1
0 0 1

1 3 0
0 0 1
0 1 0
_
_

3
_
_
1 0 0
0 2 0
0 0 1

1 3 0
0 1 1
0 1 0
_
_

4
_
_
1 0 0
0 1 0
0 0 1

1 3 0
0
1
2
1
2
0 1 0
_
_
donde:
paso 1) el segundo rengl on se multiplico por 3 y esto se sumo al primer rengl on,
paso 2) intercambio del segundo y tercer rengl on,
paso 3) el tercer rengl on se multiplico por 1 y se sum o al segundo renglon,
paso 4) el segundo rengl on se multiplico por
1
2
.
y se puede vericar f acilmente que BA = AB = I
33
es decir
_
_
1 3 0
0
1
2
1
2
0 1 0
_
_
_
_
1 0 3
0 0 1
0 2 1
_
_
=
_
_
1 0 0
0 1 0
0 0 1
_
_
1.2. MATRICES 11
1.2.4. Ejercicios
1. Prueba que las matrices cuadradas sobre un campo, con las operaciones denidas en la
secci on anterior son asociativas y distributivas.
2. Sea
A =
_
_
1 3 0
2 0 0
0 1 1
_
_
B =
_
_
1 5 3
0 4 1
1 2 8
_
_
Calcula lo siguiente:
i) A+B
ii) AB
iii) A
1
iv) B
1
Captulo 2
Espacios vectoriales
Ya hemos escuchado la palabra vector en varios cursos hasta ahora y generalmente se usa
para designar direcciones en un espacio que casi siempre es R
3
, entonces lo que nos interesa
es generalizar nuestra idea de espacio de vectores; quisieramos tener las mismas propiedades
que tiene R
2
y R
3
, para empezar nos interesa poder sumar vectores y tambien nos interesa
poder agrandar o achicar los vectores (es decir poder multiplicarlos por elementos de R), as que
debemos tener al menos dos operaciones; por otro lado, sabemos que R es un campo as que tal
vez nos interese tener vectores en otro campo, como C, Q o inclusive alg un Z
p
. Empezaremos
dando la estructura algebraica de estos espacios y veremos muchos ejemplos en clase.
2.1. Espacios y subespacios vectoriales
Hasta ahora las estructuras que hemos estudiado poseen dos operaciones (suma y multi-
plicaci on) y todas ellas toman dos elementos del mismo conjunto y dan como resultado otro
elemento del mismo tipo, los espacios vectoriales tambien son conjuntos que tienen 2 opera-
ciones, una suma y una operaci on que es llamada producto escalar.
Definici

on 2.1.1 Un espacio vectorial sobre un campo F es un conjunto V que posee


dos operaciones, una llamada suma y denotada + y otra llamada producto por escalar (que
denotaremos ), que satisfacen las siguientes condiciones:
Para la suma:
S0) La suma es cerrada Si v
1
, v
2
V entonces v
1
+ v
2
V .
S1) Conmutatividad de la suma. v
1
+v
2
= v
2
+v
1
para todo v
1
, v
2
V .
S2) Asociatividad de la suma. v
1
+ (v
2
+v
3
) = (v
1
+v
2
) + v
3
para todo v
1
, v
2
, v
3
V .
13
14 CAP

ITULO 2. ESPACIOS VECTORIALES


S3) Identidad aditiva. Existe un elemento de V llamado vector cero y denotado 0 que
satisface:
v +0 = 0 +v = v, v V.
S4) Inversos aditivos. Si v V existe un elemento llamado v V que satisface v+(v) =
0.
Para el producto por escalar: Sea c
1
, c
2
F elementos del campo y v
1
, v
2
V elementos del
espacio vectorial, se satisfacen:
P0)El producto escalar es cerrado Si c F y v V entonces c v V
P1) 1 v
1
= v
1
, donde 1 es la identidad multiplicativa del campo.
P2) (c
1
c
2
) v
1
= c
1
(c
2
v
1
).
P3) c
1
(v
1
+v
2
) = c
1
v
1
+c
1
v
2
.
P4) (c
1
+ c
2
) v
1
= c
1
v
1
+ c
2
v
1
.
Notemos que un espacio vectorial consta de 4 cosas: Un campo F, un conjunto V , una suma
+ y un producto por escalar que toma un elemento del campo y un elemento del espacio
vectorial y dan como resultado un elemento del espacio vectorial, este es nuestro primer ejemplo
de una operaci on de este estilo, puede ser algo confuso al principio pero quedara m as claro
cuando veamos algunos ejemplos. Sea c F y v V cuando no haya confusion escribiremos
simplemente cv en lugar de c v para denotar el producto por escalar. A los elementos del
campo F se les llama escalares y a los elementos del espacio vectorial V se les llama vectores.
Ejemplos:
1. Las funciones continuas sobre R con la suma y producto por escalar de los reales, son un
espacio vectorial sobre R.
2. Del mismo modo las funciones diferenciables sobre R son un esp. vect. sobre los reales.
3. El conjunto de funciones integrables sobre un intervalo cerrado de R son un esp. vect.
sobre R.
4. Los anillos de polinomios con coecientes sobre un campo, son espacios vectoriales sobre
el respectivo campo; es decir C[x] es un espacio vectorial sobre C; R[x] es un esp. vect.
sobre R; Q[x] es un esp. vect. sobre el campo Q.
2.1. ESPACIOS Y SUBESPACIOS VECTORIALES 15
5. Sea F un campo y F[x] el anillo de polinomios con coecientes en F. Sea n un n umero
natural jo, el conjunto denido como:
V = p(x) F[x][grad(p) n
es un espacio vectorial sobre el campo F.
6. Sea X un conjunto nito y sea T(X) su conjunto potencia (es decir el conjunto de todos
los subconjuntos de X). T(X) junto con las siguientes operaciones es un espacio vectorial
sobre el campo Z
2
: Suma: Sea U
1
, U
2
T(X), denimos su suma como U
1
+ U
2
:=
U
1
U
2
U
1
U
2
. Producto escalar: Como en este caso el campo Z
2
= 0, 1 solo tiene
dos elementos, es suciente decir que signica multiplicar por el elemento cero y por el
elemento uno: Sea U T(X) entonces
0 U := y 1 U := U.
7. El conjunto de sucesiones reales que convergen a cero es un esp. vect. sobre los reales.
8. Si F es un campo y n es un n umero natural, el conjunto de n-adas de elementos de F:
F
n
:= (f
1
, f
2
, ..., f
n
)[f
i
F
con la suma denida: (f
1
, f
2
, ..., f
3
) + (g
1
, g
2
, ..., g
3
) := (f
1
+ g
1
, f
2
+ g
2
, ..., f
n
+ g
n
) y el
producto escalar: (f
1
, f
2
, ..., f
3
) := ( f
1
, f
2
, ..., f
n
), es un espacio vectorial sobre
F.
9. Los n umeros complejos C son un espacio vectorial sobre R.
10. Las matrices F
mn
sobre un campo F, con la suma habitual y el producto escalar denido
como
(a
ij
) := (a
ij
)
es un espacio vectorial sobre F.
11. El espacio solucion de un sistema homogeneo de ecuaciones lineales con coecientes en
un campo F, es un espacio vectorial sobre F.
Definici

on 2.1.2 Sea V un espacio vectorial sobre un campo F; a un subconjunto S V


que tambien es un espacio vectorial sobre F, se le llama subespacio vectorial.
16 CAP

ITULO 2. ESPACIOS VECTORIALES


Como toda funci on diferenciable es continua, entonces de los ejemplos 1 y 2 tenemos que
el conjunto de funciones diferenciables son un subespacio vectorial de las funciones continuas
sobre R. Si F es un campo, ya sabemos que F[x] es un espacio vectorial sobre F entonces por
el ejemplo 5 tenemos que V = p(x) F[x][grad(p) n es un subespacio vectorial de F[x].
Notemos que las propiedades S1, S2, P1, P2, P3, P4 se cumplen para todos los escalares
y vectores de un espacio vectorial V sobre un campo F, por lo que si S V es cualquier
subconjunto entonces esas propiedades SIEMPRE se satisfacen, entonces para probar que
un subconjunto es un espacio vectorial, solo es necesario probar las 4 propiedades faltantes:
S0, S3, S4, P0.
Lema 2.1.3 Sea V un espacio vectorial sobre un campo F
i) c 0 = 0 para todo escalar c.
ii) 0 v = 0 para todo vector v.
iii) (1) v = v para todo vector v.
Demostracion.
i) Sea c F un escalar, entonces c 0 = c (0 +0) = c 0 +c 0 luego sumando (c 0) de
ambos lados, tenemos c 0 = 0.
ii) Sea v V analogamente al inciso anterior tenemos 0 v = (0 + 0) v = (0 v) + (0 v)
por lo que 0 v = 0.
iii) Sea v V veamos que (1) v es el inverso aditivo de v: v +(1) v = 1 v +(1) v =
(1 1) v = 0 v = 0.
2
Si probamos que un subconjunto S V es cerrado bajo el producto escalar, entonces por
2.1.3 ii) tendramos que el vector 0 debe estar en S y del mismo modo por 2.1.3 iii) tendramos
que si v S entonces v S, esto prueba que:
Proposici

on 2.1.4 Sea S V un subconjunto de un espacio vectorial, para probar que


S es subespacio vectorial, es suciente ver que S satisface S0, P0, es decir que es cerrado bajo
la suma y bajo el producto escalar; o dicho de otro modo, para probar que S V es subespacio
vectorial, es suciente probar que v +w S para todo F y v, w S.
Proposici

on 2.1.5 La interseccion de subespacios vectoriales es un subespacio vectorial.


2.1. ESPACIOS Y SUBESPACIOS VECTORIALES 17
Definici

on 2.1.6 Sea S un conjunto de vectores de un espacio vectorial V , el subespacio


generado por S, denotado < S >, se dene como la interseccion de todos los subespacios
que contienen al conjunto S.
Definici

on 2.1.7 Si S
1
, S
2
, ..., S
k
son subconjuntos de un espacio vectorial V, el conjunto
de todas las sumas de la forma
v
1
+v
2
+... +v
k
con v
i
S
i
es llamado suma de los subconjuntos S
1
, S
2
, ..., S
k
; notemos que si W
1
, W
2
, ...W
k
son subespacios vectoriales de V entonces W
1
+W
2
+... +W
k
es un subespacio vectorial, mas
a un en este caso W
1
+W
2
+ ... + W
k
=<

k
i=1
W
i
>.
2.1.1. Ejercicios
1. Prueba que las funciones diferenciables sobre R son un espacio vectorial real.
2. Prueba que la potencia de un conjunto nito junto con las operaciones denidas en el
ejemplo 6 es un espacio vectorial sobre el campo Z
2
.
3. Sea n N, prueba que R
n
es un espacio vectorial sobre R.
4. Demuestra que en un espacio vectorial, c v = 0 si y s olo si c = 0 o v = 0.
5. Sea C los n umeros complejos y n N un n umero jo; denotamos C[x
1
, x
2
, ..., x
n
] al anillo
de polinomios en n variables con coecientes en C. Sea p(x
1
, x
2
, ..., x
n
) = a
1
x
1
+ a
2
x
2
+
... +a
n
x
n
un polinomio lineal en C[x
1
, x
2
, ..., x
n
], con a
1
,= 0, a
2
,= 0, ..., a
n
,= 0. Denimos
el conjunto
1 := (k
1
, k
2
, ..., k
n
) C
n
[p(k
1
, k
2
, ..., k
n
) = 0;
prueba que 1 es un subespacio vectorial de C
n
(1 son las races del polinomio p)
6. Demuestra que si W
1
, W
2
, ...W
k
son subespacios vectoriales de un espacio vectorial W,
entonces W
1
+W
2
+ ... + W
k
=<

k
i=1
W
i
>
7. Sea V R
n
el subconjunto de vectores cuya primer coordenada es cero, es decir
V := (r
1
, r
2
, ..., r
n
) R
n
[r
1
= 0;
demuestra que V es un subespacio vectorial del R
n
; Sea W R
n
el subconjunto denido
como
W := (r
1
, r
2
, ..., r
n
) R
n
[r
1
= 1 +r
2
;
demuestra que W no es un subespacio vectorial de R
n
para n 2.
18 CAP

ITULO 2. ESPACIOS VECTORIALES


8. En R
n
se denen las operaciones:
v w := v w;
v := v
para R y v, w R
n
donde las operaciones del lado derecho son las usuales de R
n
;
Cu ales propiedades de espacio vectorial sobre R satisface (R
n
, , )?
9. Sea V el espacio vectorial sobre R de todas las funciones f : R R, cu ales de los
siguientes conjuntos son subespacios de V ?
i) f V [f(x
2
) = f(x)
2

ii) f V [f(0) = 1
iii) f V [f(3) = 1 +f(5)
iv) f V [f(1) = 0
v) f V [fcontinua
10. Sean W
1
, W
2
subespacios de un espacio vectorial V , tales que W
1
+W
2
= V y W
1
W
2
=
0, demuestra que todo vector v V se puede escribir de manera unica como v = w
1
+w
2
con w
i
W
i
2.2. Dependencia lineal y Bases
Hemos probado hasta ahora que los R
n
son espacios vectoriales sobre el campo R; y de
hecho esto hace mucho sentido con nuestra idea de dibujar los vectores como echas, tal como
lo vimos en la preparatoria; as que ya dominamos R
2
y R
3
, y podemos intuir que R
2
tiene
dimensi on 2 y que R
3
tiene dimensi on 3; sin embargo, nos gustara de alguna manera
generalizar la idea de dimension a todos los espacios vectoriales, sin importar que tan raros
sean, eso es lo que haremos en esta secci on.
Empezamos dando la denici on de combinaci on lineal:
Definici

on 2.2.1 Si V es un esp. vect. sobre un campo F, sean v


1
, v
2
, v
3
, ..., v
n
vectores de
V , a un elemento v V se le llama combinacion lineal de v
1
, v
2
, ..., v
n
si existen escalares
f
1
, ..., f
n
F tales que
v = f
1
v
1
+f
2
v
2
+... +f
n
v
n
.
2.2. DEPENDENCIA LINEAL Y BASES 19
Intentemos interpretar geometricamente esta denici on: Supongamos que V = R
3
; notemos
que si tenemos un solo vector v
1
, los vectores que son combinaci on lineal de el son los que estan
sobre la lnea que contiene a v
1
y al vector cero. Si v
1
, v
2
son dos vectores que no est an sobre
la misma lnea, entonces un vector v es combinaci on lineal de ellos si existen
1
,
2
R tales
que
1
v
1
+
2
v
2
= v recordando nuestro curso de geometra analtica esto quiere decir que v
est a en el mismo plano que v
1
, v
2
y el origen.
Teorema 2.2.2 Sea V esp. vect. y sea S V un subconjunto, el conjunto de todas las
combinaciones lineales de elementos en S, es un subespacio vectorial de V , mas a un, este
conjunto es exactamente < S >
Con nuestra interpretaci on anterior, tenemos entonces que si V = R
3
y S = v
1
, v
2

entonces el subespacio generado < S > es exactamente el plano que contiene a v


1
y v
2
(y al
origen).
Definici

on 2.2.3 Sea V un espacio vectorial sobre un campo F y sea S V un subcon-


junto; S se dice linealmente dependiente (o l.d.) si existen vectores distintos s
1
, s
2
, ..., s
n

S y escalares nos todos cero f
1
, ..., f
n
tales que
f
1
s
1
+f
2
s
2
+... +f
n
s
n
= 0;
un conjunto que no es linealmente dependiente se dice linealmente independiente (o l.i.)
Definici

on 2.2.4 Sea V un espacio vectorial. Una base de V es un subconjunto S V


de vectores linealmente independientes que satisface < S >= V (es decir que genera a V ); un
espacio vectorial se dice de dimension nita si tiene una base nita.
Probaremos en clase que los vectores
e
1
= (1, 0, 0, ..., 0)
e
2
= (0, 1, 0, ..., 0)
.
.
.
e
n
= (0, 0, 0, ..., 1)
son una base de F
n
, esta base es llamada base canonica de F
n
.
Proposici

on 2.2.5 Sea V un esp. vect. y sea W V un subespacio generado por r


vectores, es decir que existen w
1
, w
2
, ..., w
r
W tales que < w
1
, ..., w
r
>= W;
20 CAP

ITULO 2. ESPACIOS VECTORIALES


i) Cualquier conjunto de r+1 vectores de W es linealmente dependiente. En general si W V
es un subespacio vectorial generado por r elementos entonces cualquier subconjunto de
mas de r vectores es linealmente dependiente.
ii) Si w
1
, ..., w
r
son l.i., entonces todo conjunto de vectores l.i. de W es nito y no contiene
mas de r elementos
Corolario 2.2.6 Todas las bases de un espacio vectorial de dimesion nita tienen la
misma cardinalidad.
El corolario anterior nos permite dinir la dimension de un espacio vectorial V (de dimen-
si on nita) como la cardinalidad de cualquiera de sus bases, y se denotar a dim(V ).
Corolario 2.2.7 Si V es un espacio vectorial de dimension nita y n = dim(V )
i) Cualquier subconjunto de V que contenga a mas de n elementos es l.d.
ii) Ning un subconjunto de V que contenga menos de n elementos puede ser base de V .
Lema 2.2.8 Sea S un subconjunto de vectores l.i. de un espacio vectorial de dimension
nita V ; si w V es un vector tal que w / < S >, entonces el conjunto w S es l.i.
Ahora enunciamos un resultado muy importante y util del algebra lineal (lo probaremos
en clase)
Teorema 2.2.9 Sea V un espacio vectorial de dimension nita, W V un subespacio
vectorial y w
1
, ..., w
r
un conjunto de vectores l.i. de W. Entonces existen w
r+1
, w
r+2
, ..., w
r+s
vectores en W tales que
w
1
, ..., w
r
, w
r+1
, ..., w
r+s

es una base de W. Se puede concluir que todo subespacio vectorial de un espacio vectorial de
dimension nita tiene una base.
Notemos que el teorema anterior dice que si V es un espacio vectorial de dimension nita,
entonces cualquier subconjunto de vectores l.i. v
1
, v
2
, ..., v
r
V es parte de una base. Los
siguientes corolarios son muy importantes y extremadamente utiles para hacer calculos de
bases y dimensi on
Corolario 2.2.10 Si v
1
, ..., v
n
son vectores l.i. de un espacio vectorial V de dimension
n, entonces son una base de V .
2.2. DEPENDENCIA LINEAL Y BASES 21
Corolario 2.2.11 Si v
1
, ..., v
n
son vectores de un espacio vectorial V de dimension n,
tales que < v
1
, ..., v
n
>= V , entonces son base de V .
Corolario 2.2.12 Si V espacio de dimension nita y W V subespacio vectorial, en-
tonces dim(W) dim(V ); mas a un si W V es un subespacio vectorial de V y dim(W) =
dim(V ) entonces W = V .
Teorema 2.2.13 Si W
1
, W
2
son subespacios de dimension nita de un espacio vectorial
V , entonces W
1
+ W
2
es de dimension nita y
dim(W
1
) + dim(W
2
) = dim(W
1
W
2
) + dim(W
1
+ W
2
).
2.2.1. Ejercicios
1. Sea V = R
3
i) Demuestra que el vector (1, 0, 1) es una combinacion lineal de los vectores (1, 1, 0) y
(0,
3
2
,
3
2
).
ii) Demuestra que el vector (0, 0, 6) NO es combinaci on lineal de los vectores (8, 0, 8) y
(0, 2, 1).
iii) Demuestra que cualesquiera 3 vectores de R
2
son l.d.
2. Demuestra que en R
n
cualquier conjunto de m as de n vectores es l.d.
3. Encuentra una base para el espacio vectorial de polinomios sobre R, es decir V = R[x].
4. Calcula la dimensi on del espacio vectorial dado en el ejemplo 5.
5. Decide cuales de los siguientes conjuntos son bases de R
3
:
i) (1, 0, 0), (0, 1, 1), (0, 0, 1);
ii) (0, 0, 1), (0, 8, 9), (1, 1, 7);
iii) (4, 1, 2), (1, 2, 1), (0, 0, 1).
6. Sea v
1
= (a, b) y v
2
= (c, d) vectores de R
2
, demuestra que v
1
, v
2
son l.i. si y solo si
ad bc ,= 0.
7. Demuestra que F
nm
es un espacio vectorial de simensi on nita y que tiene dimensi on
nm.
22 CAP

ITULO 2. ESPACIOS VECTORIALES


8. Una matriz A = (a
ij
) F
nn
se dice simetrica si a
ij
= a
ji
para todo i, j. Demuestra
que el conjunto de matrices simetricas es un subespacio vectorial de F
nn
. Calcula la
dimensi on de este subespacio.
9. Sea W
1
el subconjunto de F
22
que consta de las matrices de la forma
_
x x
y z
_
con x, y, z F; y sea W
2
esl conjunto de matrices de la forma
_
a b
a c
_
con a, b, c F.
i) Demuestra que W
1
y W
2
son subespacios vectoriales de F
22
.
ii) Calcula la dimensi on de W
1
, W
2
, W
1
+ W
2
, W
1
W
2
.
10. Sea W R
33
el subconjunto de matrices reales de la forma
_
_
a b c
0 d e
0 0 f
_
_
tales que a +d + f = b +e = 0.
i) Demuestra que W es un subespacio vectorial de R y calcula dim(W).
ii) Sea V R
33
el subconjunto de matrices de la forma
_
_
x
1
x
2
x
3
y
1
y
2
y
3
z
1
z
2
z
3
_
_
tales que x
3
x
1
x
2
= 0. Demuestra que V es un subespacio vectorial de R
33
y
calcula dim(V ).
iii) Encuentra una base para el subespacio W V .
2.3. COORDENADAS 23
2.3. Coordenadas
El objetivo de esta seccion es generalizar la idea de coordenadas tal y como la tenemos
en R
3
, notemos que en R
3
cuando nos referimos al vector v = (a, b, c) lo que queremos decir,
es el vector que en la direcci on x tiene el valor a, en la y el valor b y en la direcci on z el valor
c; notemos que estos valores a, b, c casualmente nos dan tambien la expresi on del vector v
como combinaci on lineal de la base canonica de R
3
,es decir v visto como combinaci on lineal
de la base e
1
= (1, 0, 0), e
2
= (0, 1, 0), e
3
= (0, 0, 1) se ve como
v = a(1, 0, 0) + b(0, 1, 0) + c(0, 0, 1)
notemos que es MUY IMPORTANTE el orden que les dimos a la base canonica (es decir si
cambiamos los vectores de orden nos queda una combinacion lineal diferente; por ejemplo:
ae
2
+ be
1
+ ce
3
es un vector DIFERENTE a (a, b, c), de hecho es el vector (b, a, c)).
Del mismo modo si F es cualquier campo y v = (a
1
, a
2
, ..., a
n
) es un vector en F
n
, entonces
los a
i
nos dan la expresi on de v como combinaci on lineal de la base can onica (ordenada)
e
1
= (1, 0, 0, ..., 0)
e
2
= (0, 1, 0, ..., 0)
.
.
.
e
n
= (0, 0, 0, ..., 1)
mediante
v = a
1
e
1
+ a
2
e
2
+ ... + a
n
e
n
y notemos que de nuevo el orden de la base can onica juega un papel muy importante en la
combinaci on lineal; empezamos esta seccion con la siguiente denici on:
Definici

on 2.3.1 Si V es un espacio vectorial de dimension nita, una base ordenada


de V es una sucesion nita de vectores l.i. que generan a V
Notemos que si v
1
, v
2
, ..., v
n
es una base ordenada de V entonces v
1
, ..., v
n
es una base
de V (es decir una base ordenada es una base junto con un orden), denotaremos usualmente
B = v
1
, ..., v
n
la base ordenada que consiste de la sucesion v
1
, v
2
, ..., v
n
.
Ahora si V es un espacio vectorial de dimensi on nita y B = v
1
, ..., v
n
es una base
ordenada de V , si v V es cualquier vector entonces v se ve combinaci on lineal de los v
1
, ..., v
n
,
supongamos que podemos escribir a v de dos maneras diferentes como combinacion lineal de
esta base ordenada, entonces:
24 CAP

ITULO 2. ESPACIOS VECTORIALES


v = a
1
v
1
+a
2
v
2
+ ... + a
n
v
n
= b
1
v
1
+b
2
v
2
+... +b
n
v
n
para ciertos a
1
, ..., a
n
, b
1
, ...b
n
escalares, entonces tendramos que
0 = v v = (a
1
v
1
+a
2
v
2
+... +a
n
v
n
) (b
1
v
1
+ b
2
v
2
+ ... +b
n
v
n
)
= (a
1
b
1
)v
1
+ (a
2
b
2
)v
2
+... + (a
n
b
n
)v
n
y como los vectores v
1
, ..., v
n
son l.i. (por ser base de V ), esto implica que los coecientes
(a
i
b
i
) son cero para toda i, es decir a
i
= b
i
para toda i, es decir, Si B = v
1
, ..., v
n
es
una base ordenada de un espacio vectorial de dimensi on nita V , entonces todo vector v V
se escribe DE MANERA

UNICA como una combinacion v = a
1
v
1
+ ... + a
n
v
n
, o dicho de
otro modo: Si B = v
1
, ..., v
n
es una base ordenada de un espacio vectorial de dimensi on
nita V para cada vector v V existe una unica n-ada de escalares (a
1
, ..., a
n
) F
n
tal que
v = a
1
v
1
+ ... + a
n
v
n
; al escalar a
i
del vector (a
1
, ..., a
n
) se le llamara i-esima coordenada
del vector v en la base ordenada B = v
1
, ..., v
n
.
Acabamos de demostrar que cada base ordenada determina una biyeccion
f : V F
n
v (a
1
, ..., a
n
)
entre el conjunto de vectores del espacio vectorial (sobre el campo F) V y el conjunto de
vectores en el espacio F
n
; notemos que si v, w V son vectores cuyas coordenadas en la base
ordenada B = v
1
, ..., v
n
son (a
1
, a
2
, ..., a
n
) y (b
1
, b
2
, ..., b
n
) respectivamente entonces el vector
v +w V tiene coordenadas (a
1
+b
1
, a
2
+b
2
, ..., a
n
+b
n
) en la base ordenada B, y si F es
un escalar entonces el vector v V tiene coordenadas (a
1
, a
2
, ..., a
n
) en la base ordenada
B. Entonces la biyeccion que hemos dado entre V y F
n
mediante la base ordenada B satisface
que
f(v +w) = f(v) + f(w)
f(v) = f(v)
donde las operaciones del lado derecho son las del espacio vectorial F
n
.
Llamaremos matriz de coordenadas del vector v respecto a la base ordenada B a
la matriz de F
n1
_

_
a
1
a
2
.
.
.
a
n
_

_
2.3. COORDENADAS 25
en vez de la n-ada (a
1
, ..., a
n
) que representa a v en F
n
y a la matriz anterior la denotaremos
[v]
B
(es decir este smbolo signica: la matriz de coordenadas del vector v respecto a la base
ordenada B).
Ahora veamos que sucede cuando cambiamos de una base ordenada a otra: Sea V espacio
vectorial de dimension nita n y sean
B = v
1
, ..., v
n

= w
1
, ..., w
n

dos bases ordenadas de V , como cada w


j
es un vector de V , entonces existen unicos escalares
a
ij
tales que w
j
= a
1j
v
1
+ a
2j
v
2
+ ... + a
nj
v
n
=

n
i=1
a
ij
v
i
; sea v V un vector, y denotemos
(x
1
, ..., x
n
) sus coordenadas en la base ordenada B y (y
1
, ..., y
n
) sus coordenadas en la base
ordenada B

, veamos cual es la relaci on entre [v]


B
y [v]
B
:
v = y
1
w
1
+y
2
w
2
+... +y
n
w
n
=
n

j=1
y
j
w
j
=
n

j=1
y
j
(
n

i=1
a
ij
v
i
)
=
n

j=1
n

i=1
a
ij
y
j
v
i
=
n

i=1
n

j=1
a
ij
y
j
v
i
=
n

i=1
(
n

j=1
a
ij
y
j
)v
i
por lo que en [v]
B
se tiene x
i
=

n
j=1
a
ij
y
j
(debido a la unicidad de las coordenadas); si
A F
nn
es la matriz denida por los escalares a
ij
entonces podemos escribir esto ultimo
como:
[v]
B
= A[v]
B

notemos que si [v]


B
= 0 entonces [v]
B
= 0 y por el lema 1.2.6 implica que la matriz A
siempre es invertible y
A
1
[v]
B
= [v]
B
.
Y hemos demostrado el siguiente resultado:
26 CAP

ITULO 2. ESPACIOS VECTORIALES


Teorema 2.3.2 Sea V un espacio vectorial de dimension nita n sobre el campo F y sean
B, B

bases ordenadas de V , entonces existe una unica matriz A F


nn
tal que:
i) [v]
B
= A[v]
B

ii) [v]
B
= A
1
[v]
B
para todo v V ; mas a un la columna j de A es exactamente [w
j
]
B
donde B

= w
1
, ..., w
n
.
demostraremos en clase el siguiente resultado:
Teorema 2.3.3 Sea A F
nn
una matriz invertible, sea V un espacio vectorial de di-
mension n sobre el campo F y sea B una base ordenada de V ; entonces existe una unica base
ordenada B

de V , tal que:
i) [v]
B
= A[v]
B

ii) [v]
B
= A
1
[v]
B
para todo v V .
2.3.1. Ejercicios
1. Demostrar que los vectores
v
1
= (1, 1, 0, 0)
v
2
= (0, 0, 1, 1)
v
3
= (1, 0, 0, 4)
v
4
= (0, 0, 0, 2)
son una base de R
4
; sea e
1
, e
2
, e
3
, e
4
la base can onica de R
4
encontrar la matriz de
coordenadas de cada vector de la base can onica con respecto a la base ordenada B =
v
1
, v
2
, v
3
, v
4
(es decir encontrar [e
i
]
B
para i = 1, 2, 3, 4).
2. Sea W el subespacio de C
3
generado por los vectores w
1
= (1, 0, i), w
2
= (1 +i, 1, 1)
i) Demostrar que w
1
, w
2
son una base de W.
ii) Demostrar que los vectores v
1
= (1, 1, 0), v
2
= (1, i, 1 + i) pertenecen a W y forman
otra base de W.
iii) Calcula [w
1
]
B
y [w
2
]
B
donde B = v
1
, v
2
.
3. Sea V el espacio vectorial sobre C de todas las funciones f : R C y sean f
1
(x) =
1, f
2
(x) = e
ix
, f
3
(x) = e
ix
.
2.4. C

ALCULOS CON MATRICES ESCAL

ON REDUCIDAS 27
i) Demostrar que f
1
, f
2
, f
3
son l.i.
ii) Sea g
1
(x) = 1, g
2
(x) = cos(x), g
3
(x) = sen(x), hallar una matriz invertible A =
(a
ij
) C
33
tal que g
j
= a
1j
f
1
+a
2j
f
2
+a
3j
f
3
.
4. Sea V el espacio vectorial sobre R de todos los polinomios con coecientes reales en una
inc ognita, de grado menor o igual que 2, es decir V = f(x) R[x][grad(f) 2; sea
t R un n umero real jo y denamos g
1
(x) = 1, g
2
(x) = x+t, g
3
(x) = (x+t)
2
, demostrar
que B = g
1
, g
2
, g
3
es una base de V . Si f(x) = a + bx + cx
2
V , encontrar [f]
B
2.4. Calculos con matrices escalon reducidas
En esta secci on relacionaremos algunos calculos de dimension y bases con los resultados
que conocemos de matrices escalon reducidas y matrices equivalentes, todos los resultados de
esta secci on ser an muy sencillos, pero mas adelante ver an como estos resultados les seran de
mucha ayuda para hacer calculos de dimensiones y subespacios. En esta seccion le llamaremos
matriz escal on reducida por las a una matriz que es escalonada reducida y que ademas
satisface que cada columna que contiene al primer elemento no nulo de alg un rengl on, tiene
todos sus otros elementos de la columna iguales a cero; por ejemplo de las siguientes matrices
A =
_
_
_
_
1 0 5 0
0 1 0 18
0 0 1 1
0 0 0 1
_
_
_
_
B =
_
_
1 0 8
0 1 0
0 0 0
_
_
la matriz A NO es escal on reducida por las y la matriz B si es escal on reducida por las.
Empezamos deniendo el rango de una matriz:
Definici

on 2.4.1 Sea A F
nm
una matriz, denimos rango de la matriz A como la
dimension del subespacio de F
m
generado por sus n vectores la, y a este n umero lo denotamos
rank(A)
Teorema 2.4.2 Si A es equivalente a una matriz B entonces rank(A) = rank(B). Mas
a un si A B entonces el subespacio vectorial generado por los vectores la de A es igual al
subespacio generado por los vectores las de V .
Proposici

on 2.4.3 Si A es una matriz escalonada reducida por las (no nula), entonces
sus vectores renglon no nulos forman una base para el subespacio generado por los vectores
renglon de A; por lo tanto, si A es una matriz escalon reducida por las, entonces el n umero
de vectores renglon no cero es su rango.
28 CAP

ITULO 2. ESPACIOS VECTORIALES


Teorema 2.4.4 Sean n, m Z y sea F un campo, supongamos que W F
m
es un
subespacio vectorial y dim(W) n; entonces existe exactamente una sola matriz M F
nm
escalon reducida por las, tal que el subespacio generado por sus vectores renglon es W.
Corolario 2.4.5 Cada matriz A F
nm
es equivalente a una y solo una matriz escalon
reducida por las.
Corolario 2.4.6 Sean A y B matrices en F
nm
entonces A B si y solo si los sube-
spacios generados por sus vectores la coinciden.
Ahora bien, veremos como estos resultados nos facilitaran la vida a la hora de calcular
dimensiones y dependencia lineal de ciertos vectores dados en un espacio vectorial arbitrario:
Sea V un espacio vectorial de dimensi on n sobre el campo F si v
1
, ..., v
m
V son vectores
arbitrarios, lo que queremos saber usualmente es si estos vectores son l.i. o l.d. o cu al es
dim(< v
1
, ..., v
n
>), otra pregunta frecuente es dado v V cierto vector, como saber si
v < v
1
, ..., v
n
> y la respuesta a todas estas preguntas se puede calcular muy f acilmente con
los resultados que tenemos de matrices escal on reducidas por las.
Como saber cuando ciertos vectores son l.i o l.d. o cual es la dimensi on del
subespacio generado por ciertos vectores ? Sea V un espacio vectorial de dimension n
sobre el campo F y tomemos una base ordenada B de V y sean v
1
, ..., v
m
V ciertos vec-
tores, escribamos a cada vector v
i
en sus coordenadas respecto a la base ordenada B, es decir
tomemos los vectores (a
i1
, a
i2
, ..., a
in
) que se corresponden con las coordenadas del vector v
i
en
la base B y construyamos la matriz A = (a
ij
), el siguiente paso es llevar a la matriz A a su
forma escal on reducida por las y de este modo ya sabemos cual es el rango de la matriz A (es
exactamente el n umero de renglones no cero de su forma escal on reducida por las), as que
dim(< v
1
, ..., v
m
>) = rank(A); notemos que si rank(A) = m entonces los v
1
, ..., v
m
deben ser
base de < v
1
, ..., v
m
>, es decir si rank(A) = m los v
1
, ..., v
m
son l.i.; y si rank(A) < m los
v
1
, ..., v
m
son l.d.
Si v V es un vector Como saber cuando v pertenece al subespacio generado
por ciertos vectores v
1
, ..., v
m
?
En este caso hay que volver a hacer todo el desarrollo para la pregunta anterior, es decir, dar
una base ordenada, expresar los vectores v
i
en sus coordenadas respecto de la base ordenada,
luego construir la matriz A cuyos vectores rengl on son los dados por los v
i
en sus coordenadas
y luego llevar a la matriz A a su forma escal on reducida por las, sea rank(A) = r y sean
w
1
, ..., w
r
F
n
los vectores no nulos de la forma escalon reducida por las de A, entonces por
la ultima proposici on tenemos que W = w
1
, ..., w
r
es una base para el espacio < v
1
, ..., v
m
>,
pero los vectores w
i
son de una forma muy particular (tienen muchos 0s y 1s) as que si
2.4. C

ALCULOS CON MATRICES ESCAL

ON REDUCIDAS 29
v V es un vector y tiene coordenadas (c
1
, ..., c
n
) respecto de la base ordenada B, entonces
nuestro problema de ver si v < v
1
, ..., v
n
> se convirti o en intentar ver si (c
1
, ..., c
n
) es una
combinaci on lineal de los w
i
y esto es muy sencillo de checar (haremos muchos ejemplos en
clase para que quede claro).
2.4.1. Ejercicios
Captulo 3
Transformaciones Lineales
Esta secci on esta dedicada a estudiar las funciones entre espacios vectoriales; queremos
estudiar las funciones entre ellos para poder tener una manera de comparar espacios vec-
toriales; por ejemplo en el caso de conjuntos, podemos decir que 2 conjuntos son iguales si
existe una biyecci on entre ellos, para el caso de espacios vectoriales tenemos conjuntos con dos
operaciones que son la suma y el producto escalar, quisieramos tener una funci on entre los con-
juntos que de cierta manera preserve la suma y el producto escalar, todo este razonamiento
dar a lugar a la denicion de transformaci on lineal; el estudio de los espacios vectoriales y las
transformaciones lineales entre ellos es en esencia lo que estudia el algebra lineal.
3.1. Denici on y Ejemplos
Empezamos con la denici on de transformaci on lineal:
Definici

on 3.1.1 Sean V y W espacios vectoriales sobre el mismo campo F una trans-


formacion lineal de V en W es una funcion T : V W tal que para todo F y para
todos v
1
, v
2
V ,
T(v
1
+ v
2
) = T(v
1
) + T(v
2
).
Notemos que en la ultima igualdad las operaciones del lado izquierdo son las del espacio
vectorial V y las operaciones del lado derecho son las de W, por lo que una transformaci on
lineal es una funcion que nos relaciona el producto escalar y la suma de V con el producto
escalar y la suma de W.
Veamos algunos ejemplos de transformaciones lineales:
1. Sea V un espacio vectorial sobre el campo F y denamos la funci on I
V
: V V
dada por I
V
(v) = v para todo v V , si c F y v
1
, v
2
V entonces I
V
(cv
1
+ v
2
) =
31
32 CAP

ITULO 3. TRANSFORMACIONES LINEALES


cv
1
+v
2
= cI
V
(v
1
) +I
V
(v
2
) por lo que es transformaci on lineal, a esta funcion se le llama
transformacion lineal identidad de V .
2. Sea V y W espacios vectoriales sobre el mismo campo F y denamos T
0
: V W la
funci on dada por T
0
(v) = 0
W
para todo v V , donde 0
W
es el vector cero de W; en
este caso para todo c F y v
1
, v
2
V , T
0
(cv
1
+ v
2
) = 0
W
= cT
0
(v
1
) + T
0
(v
2
); esta
transformaci on lineal es llamada la transformaci on lineal nula de V en W.
3. Sea V = R[x] es espacio vectorial de polinomios en una variable con coecientes en R y
denamos la funcion
D : V V
c
0
+ c
1
x +c
2
x
2
+ ... +c
n
x
n
c
1
+ 2c
2
x + 3c
3
x
2
+... +nc
n
x
n1
:
es f acil probar que esta es una transformacion lineal; a esta transformacion se le llama
la derivada de polinomios.
4. Sea A F
mn
y denamos la funcion T
A
: F
n1
F
m1
dada por T
A
(v) = Av para todo
v F
n1
; debido a la asociatividad del producto de matrices, se puede probar que T
A
es
una transformaci on lineal.
Lema 3.1.2 Si T : V W es una transformacion lineal entre espacios vectoriales sobre
un campo F, entonces T(0
V
) = 0
W
.
Demostracion. Notemos que por la linealidad de T tenemos T(0
V
) = T(0
V
+ 0
V
) = T(0
V
) +
T(0
V
) sumando T(0
V
) de ambos lados tenemos que 0
W
= T(0
V
). 2
El ultimo resultado nos dice que las transformaciones lineales siempre mandan el cero al
cero; el siguiente teorema nos dice que cualquier transformaci on lineal T : V W donde V
tiene dimension nita, esta unicamente determinada por las imagenes de una base de V
Teorema 3.1.3 Si V es un espacio vectorial de dimension nita sobre un campo F y
W es un espacio vectorial sobre F, sea v
1
, ..., v
n
una base ordenada de V y sean w
1
, ...., w
n
cualesquiera vectores de W, entonces existe una unica transformacion lineal T : V W tal
que T(v
i
) = w
i
para todo i = 1, ..., n.
Sea T : V W una transformacion lineal entre espacios vectoriales sobre un campo F,
denimos los siguientes conjuntos:
El conjunto imagen de T, denotado Im(T) se dene como
Im(T) = w W[ existe v V tal que T(v) = w;
3.1. DEFINICI

ON Y EJEMPLOS 33
El conjunto Nulidad de T, tambien llamado Kernel de T, denotado Ker(T) como
Ker(T) = v V [T(v) = 0
W

Notemos que Im(T) es un subconjunto de W, mientras que Ker(T) es un subconjunto de


V ; Ahora probaremos que estos conjuntos son subconjuntos de W y V respectivamente:
Como T(0
V
) = 0
W
entonces 0
W
Im(T); sean c F y w
1
, w
2
Im(T) entonces existen
v
1
, v
2
V tales que T(v
1
) = w
1
y T(v
2
) = w
2
por lo que el vector cv
1
+ v
2
V satisface
T(cv
1
+ v
2
) = cw
1
+w
2
as que cw
1
+w
2
Im(T) y Im(T) es un subespacio vectorial de W.
Por otro lado, T(0
V
) = 0
W
as que T(0
V
) Ker(T); sean c F y v
1
, v
2
Ker(T),
entonces T(cv
1
+ v
2
) = cT(v
1
) + T(v
2
) = 0
W
por lo que cv
1
+ v
2
Ker(T) y Ker(T) es un
subespacio vectorial de V .
Denimos el rango de una transformacion lineal T, denotado rank(T) como la dimension
de su espacio imagen, es decir rank(T) := dim(Im(T)).
A continuacion enunciamos uno de teoremas m as importantes del algebra lineal (usual-
mente llamado el teorema de la dimension):
Teorema 3.1.4 Sean V, W espacios vectoriales sobre un campo F y sea T : V W una
transformacion lineal, si V es de dimension nita, entonces:
dim(V ) = rank(T) + dim(Ker(T)).
La demostraci on de este teorema es en esencia tomar una base v
1
, ..., v
k
de Ker(T) y
extenderla a una base de V , es decir tomar v
k+1
, ..., v
n
vectores de V tales que v
1
, ..., v
n
sean
una base de V y luego probar que el conjunto T(v
k+1
), ..., T(v
n
) es una base de Im(T).
Si A F
nm
denimos su rango de las como la dimensi on del subespacio de F
m
generado
por sus n renglones y denimos su rango de columnas como la dimensi on del subespacio de
F
n
generado por sus m columnas, un corolario del teorema de la dimensi on en elsiguiente
resultado:
Proposici

on 3.1.5 Si A F
nm
entonces su rango de las es igual al rango de columnas;
a este n umero se le llama el rango de la matriz A y se denota rank(A)
De hecho se puede probar que si A F
nm
y T
A
: F
m1
F
n1
la transformacion lineal
dada por T(v) = Av, entonces rank(T
A
) = rank(A) donde el rango del lado izquierdo de la
igualdad se reere a la dimensi on del subespacio imagen de la transformacion T
A
y del lado
derecho se reere al rango de la matriz A
34 CAP

ITULO 3. TRANSFORMACIONES LINEALES


3.1.1. Ejercicios
3.2. El espacio vectorial Hom
F
(V, W)
Denotaremos Hom
F
(V, W) al conjunto de todas las transformaciones lineales que van de
V a W donde V, W son espacios vectoriales sobre un campo F, es decir:
Hom
F
(V, W) := T : V W[T es transformacion lineal.
Si V, W son espacio vectoriales sobre un campo F y T, U : V W son dos transformaciones
lineales, denimos la funci on
(T +U) : V W
v T(v) + U(v);
y si c F es un escalar denimos la funcion
(cT) : V W
v cT(v)
es facil probar que estas dos funciones son transformaciones lineales de V en W.
Teorema 3.2.1 El conjunto Hom
F
(V, W) junto con las operaciones antes mencionadas
es un espacio vectorial sobre el campo F.
A este espacio vectorial se le llama el espacio de transformaciones lineales de V en W.
Proposici

on 3.2.2 Si V y W son espacios vectoriales sobre un campo F, de dimension n


y m respectivamente, entonces Hom
F
(V, W) es un espacio vectorial de dimension nita sobre
F; mas a un dim(Hom
F
(V, W)) = nm
As que si tenemos dos espacios de dimensi on nita sabemos la dimensi on del espacio de
transformaciones lineales; el siguiente resultado dice que la composicion de transformaciones
lineales es transformacion lineal:
Proposici

on 3.2.3 Sean V, W, Z espacios vectoriales sobre un campo F y sean T : V


W, U : W Z transformaciones lineales, entonces U T : V Z es una transformacion
lineal.
Si V es un espacio sobre el campo F, denotamos End(V ) := Hom
F
(V, V ) a este conjunto
se le llama: el conjunto de endomorsmos de V .
3.3. EL TEOREMA DE ISOMORFISMOS 35
Lema 3.2.4 Sea V espacio vectorial sobre un campo F y sean U, T
1
, T
2
End(V ) y c F,
entonces:
i) I
V
U = U I
V
= U;
ii) U (T
1
+T
2
) = U T
1
+U T
2
y (T
1
+ T
2
) U = T
1
U + T
2
U;
iii) c(U T
1
) = (cU) T
1
= U (cT
1
)
Para quienes esten familiarizados con la denici on de anillo:
Definici

on 3.2.5 Un algebra es un conjunto que tiene estructura de anillo y de espacio


vectorial.
El lema anterior prueba que el conjunto End(V ) con su estructura de espacio vectorial y
el producto dado por la composici on es un algebra.
3.2.1. Ejercicios
3.3. El teorema de isomorsmos
Sean A y B dos conjuntos, y sea f : A B una funci on de A a B; f de dice inyectiva
si f(a
1
) = f(a
2
) implica a
1
= a
2
(es decir, si manda elementos diferentes de A a elementos
diferentes de B); f se dice sobreyectiva si para todo b B existe a A tal que f(a) = b (es
decir, si la imagen de f es todo B).
Si A y B son conjuntos, una funci on f : A B se dice invertible si existe una funci on
g : B A tal que g f = I
A
y f g = I
B
donde I
A
y I
B
denotan a las funciones identidad de
A y B respectivamente; es f acil probar que si una funci on f : A B es invertible, solo existe
una unica funci on g tal que g f = I
A
y f g = I
B
, a esta unica funcion se le llama la inversa
de f y se denota f
1
. El siguiente resultado tambien es f acil de probar:
Lema 3.3.1 Sean A y B conjuntos y f : A B una funcion; f es invertible si y solo si f
es inyectiva y sobreyectiva.
Ahora regresemos a espacios vectoriales:
Teorema 3.3.2 Sean V y W espacios vectoriales sobre un campo F y T : V W una
transformacion lineal, si T es invertible entonces T
1
es una transformacion lineal.
36 CAP

ITULO 3. TRANSFORMACIONES LINEALES


Notemos que este resultado nos dice que si una transformaci on lineal es invertible (s olo
como funci on entre 2 conjuntos) la inversa tambien es una transformaci on lineal; estudiemos
un poco que signica que una transformaci on lineal sea inyectiva: Sea T Hom
F
(V, W) si
v
1
, v
2
V , son tales que T(v
1
) = T(v
2
) por ser transformaci on lineal esto pasa si y s olo si
T(v
1
v
2
) = 0
W
es decir si y s olo si v
1
v
2
Ker(T), as que podemos concluir que T es
inyectiva si y solo si Ker(T) = 0
V
.
A una transformacion lineal T : V W que satisface que Ker(T) = 0
V
se le llama
transformaci on no singular. Nos interesa estudiar las transformaciones no singulares por que
como veremos a continuaci on son las unicas que preservan la independencia lineal:
Teorema 3.3.3 Sea T : V W una transformacion lineal, T es no singular si y solo si
manda cualquier conjunto linealmente independiente de V en un conjunto linealmente inde-
pendiente de W.
Definici

on 3.3.4 Sea T Hom


F
(V, W), la transformacion lineal T se le llama isomor-
smo si existe una transformacion g Hom
F
(W, V ) tal que g f = I
V
y f g = I
W
; decimos
que dos espacios vectoriales V y W son isomorfos si existe un isomorsmo entre ellos, y se
denota V

= W.
Notemos que por el teorema y el lema anterior, una transformaci on lineal es un isomorsmo
si y s olo si es inyectiva y sobreyectiva.
Otro resultado que nos sera de mucha utilidad es el siguiente:
Proposici

on 3.3.5 Sean V, W espacios vectoriales de dimension nita n, sobre un campo


F, si T Hom
F
(V, W), son equivalentes:
i) T es un isomorsmo;
ii) T es no singular;
iii) T es sobreyectiva.
Y ahora estamos listos para probar uno de los teoremas m as importantes del algebra lineal
(usualmente llamado el teorema de isomorsmos):
Teorema 3.3.6 Todo espacio vectorial de dimension n sobre un campo F es isomorfo a
F
n
.
Este resultado es sumamente importante, nos dice que todos los espacios de dimension n
sobre F son en esencia F
n
, es decir por muy complicado que queramos tomar un conjunto y
darle operaciones para que satisfaga que es un espacio vectorial de dimension n sobre F, lo
que nos queda es algo casi identico a F
n
.
3.3. EL TEOREMA DE ISOMORFISMOS 37
Teorema 3.3.7 Sean V, W espacios vectoriales sobre F de dimension n y m respectiva-
mente, sean B y B

bases ordenadas de V y W, para cada transformacion lineal T : V W


existe una unica matriz A F
mn
tal que para todo v V
[T(v)]
B
= A[v]
B
A la matriz A asociada a la transformaci on lineal T del teorema anterior se le llama la
matriz de coordenadas de la transformacion T en las bases B y B

y se denota
[T]
B,B
.
Teorema 3.3.8 Sean V, W espacios vectoriales de dimension n y m respectivamente, para
cada par (B, B

) donde B es una base ordenada de V y B

es una base ordenada de W existe


un isomorsmo
B,B
: Hom
F
(V, W) F
mn
Deteng amonos un poco a entender lo que nos dice este teorema, as como el teorema de
isomorsmos nos dice que todos los espacios vectoriales de dimensi on n son F
n
, este ultimo
teorema nos dice que TODAS las transformaciones lineales de un espacio vectorial de dimensi on
n a otro de dimensi on m son esencialmente las matrices F
mn
, es decir, intentar estudiar
espacios vectoriales de dimension nita y transformaciones lineales entre ellos, es a n de
cuentas, estudiar F
n
y las matrices F
mn
.
Lo que nos interesa estudiar ahora es los endomorsmos End(V ) cuando V es un espacio
de dimensi on nita n, en este caso si tomamos una base ordenada B de V una transformaci on
T End(V ) tiene una matriz de coordenadas [T]
B,B
F
nn
a la que le llamaremos la
matriz de coordenadas del endomorsmo T respecto a la base B y la denotaremos
[T]
B
:= [T]
B,B
, queremos saber Que le pasa a la matriz de coordenadas [T]
B
si cambiamos la
base B?
Teorema 3.3.9 Sean V, W, Z espacios vectoriales de dimension nita sobre un campo F
y sean T : V W , U : W Z transformaciones lineales, si B, B

, B

son bases ordenadas


de V, W, Z respectivemante entonces:
[U T]
B,B
= [U]
B

,B
[T]
B,B
;
donde la operacion del lado derecho es el producto de matrices.
Teorema 3.3.10 Sea V un espacio vectorial de dimension nita n sobre el campo F y
sean B = v
1
, ...., v
n
y B

= w
1
, ..., w
n
bases ordenadas de V y sea T End(V ); si P F
nn
es la matriz cuya i-esima columna es el vector [w
i
]
B
entonces:
[T]
B
= P
1
[T]
B
P;
38 CAP

ITULO 3. TRANSFORMACIONES LINEALES


dicho de otro modo si U End(V ) es el endomorsmo denido por U(v
i
) = w
i
para i = 1, ..., n
entonces [T]
B
= [U]
1
B
[T]
B
[U]
B
.
Definici

on 3.3.11 Sean A, B F
nn
, A y B se dicen semejantes si existe una matriz
invertible P F
nn
tal que A = P
1
BP.
Notemos que el teorema anterior nos dice que las matrices [T]
B
y [T]
B
son semejantes
para cualesquiera B, B

bases ordenadas de un espacio vectorial de dimension nita V y T


End(V ).
3.3.1. Ejercicios
1. Demuestra el teorema de la dimensi on y el teorema de isomorsmos.
2. Sea C el conjunto de los n umeros complejos, con sus operaciones de suma y producto
este conjunto es un espacio vectorial sobre el campo R, encuentra un isomorsmo entre
este espacio y R
2
.
3. Demuestra que dos espacios vectoriales de dimensi on nita que son isomorfos tienen la
misma dimensi on. Usa esto para probar que dos espacios vectoriales de dimension nita
son isomorfos si y solo si tienen la misma dimension.
4. Sean V, W espacios vectoriales sobre F y sea U : V W un isomorsmo, demuestra que
la funcion : End(V ) End(W) denida por (T) = UTU
1
para cada T End(V )
es un isomorsmo.
5. Sea T End(C) la transformacion denida por T(x
1
, x
2
) = (x
1
, 0) sea B = e
1
, e
2
la
base ordenada can onica de C
2
y B

= v
1
= (1, i), v
2
= (0, i), encuentra las siguientes
matrices de coordenadas:
i) [T]
B
;
ii) [T]
B
;
iii) [T]
B,B
;
iv) [T]
B

,B
;
v) [T]
B
donde B

= v
2
, v
1
.
6. Sea T Hom
R
(R
3
, R
3
) la transformaci on denida por T(x
1
, x
2
, x
3
) = (x
1
x
2
, x
2
+x
3
);
i) sea B la base can onica de R
3
y B

la base can onica de R


2
, encuentra [T]
B,B
;
3.4. EL ESPACIO DUAL 39
ii) sea B = v
1
= (1, 0, 1), v
2
= (1, 1, 1), v
3
= (1, 0, 0) y B

= w
1
= (0, 1), w
2
=
(1, 0) demuestra que estas son bases de R
3
y R
2
respectivamente y calcula [T]
B,B
.
7. Sea T End
R
(R
3
) el endomorsmo cuya matriz de coordenadas en la base canonica de
R
3
es
_
_
1 0 1
0 2 1
1 1 1
_
_
demuestra que T es un isomorsmo.
8. Sea T End
R
(R
3
) el endomorsmo cuya matriz de coordenadas en la base canonica de
R
3
es
_
_
1 2 1
0 1 1
1 3 4
_
_
i) Encuentra una base de la imagen de T;
ii) Encuentra una base del Kernel de T:
9. Demuestra que una transformacion T End
F
(V ) es un isomorsmo si y s olo si para
toda B base ordenada de V , la matriz [T]
B
es invertible.
10. Sea V un espacio vectorial de dimensi on nita n sobre un campo F y sea W = Hom
F
(V, F)
encuentra un isomorsmo entre V y W; sea B = v
1
, ..., v
n
una base de V , demuestra
que existe una unica base B

= f
1
, ..., f
n
de W tal que f
i
(v
j
) =
ij
(donde
ij
es la
funci on delta de Kronecker)
3.4. El espacio dual
En esta seccion estudiaremos el espacio Hom
F
(V, F) donde V es un espacio vectorial sobre
el campo F.
Definici

on 3.4.1 Si V es un espacio vectorial sobre el campo F, el espacio vectorial


Hom
F
(V, F) es llamado espacio dual a V y se denota V

Cuando V es de dimension nita, tenemos que V



= V

, si B = v
1
, ..., v
n
es una base
de V entonces para cada i = 1, ..., n tenemos una unica transformaci on lineal f
i
V

tal que
f
i
(v
j
) =
ij
, estas f
1
, ...f
n
V

se puede probar que son una base para V

, a esta base se le
llama la base dual de B.
40 CAP

ITULO 3. TRANSFORMACIONES LINEALES


Teorema 3.4.2 Sea V un espacio vectorial de dimension nita n sobre un campo F y
sea B = v
1
, ..., v
n
una base de V , existe una unica base B

= f
1
, ..., f
n
de V

tal que
f
i
(v
j
) =
ij
(donde
ij
es la funcion delta de Kronecker); para cada f V

se tiene
f =
n

i=1
f(v
1
)f
i
;
y para cada v V se tiene que
v =
n

i=1
f
i
(v)v
i
.
Definici

on 3.4.3 Si V es un espacio vectorial sobre el campo F y S V es un subcon-


junto, denimos el anulador de S como el subespacio vectorial de V

, denotado S
0
:
S
0
= f V

[f(s) = 0 s S.
Teorema 3.4.4 Sea V un espacio vectorial de dimension nita sobre el campo F y sea W
un subespacio de V , entonces
dim(W) + dim(W
0
) = dim(V ).
Si V es un espacio vectorial de dimension n sobre un campo F, a un subespacio W V
tal que dim(W) = n 1 se le llama hiperespacio.
Corolario 3.4.5 Si W es un subespacio de dimension k de un espacio vectorial de di-
mension n, entonces W es la interseccion de (n k) hiperespacios de V .
3.4.1. Ejercicios
Bibliografa
[1] E. Swokowski:

Algebra Universitaria. CONTINENTAL, septima impresi on (1975).
[2] G. Birkoh, S. Mac Lane:

Algebra Moderna.VICENS-VIVES, cuarta edici on (1970).
[3] H. C ardenas, F. Raggi:

Algebra Superior. TRILLAS segunda edici on (reimp. 2007).
[4] F. G. Florey: Fundamentos de

Algebra Lineal y aplicaciones. PRENTICE HALL.
[5] K. Homan, R. Kunze:

Algebra Lineal. PRENTICE HALL (1973).
[6] I. N. Herstein:

Algebra Moderna. TRILLAS, cuarta reimpresi on (2002).
41

You might also like