You are on page 1of 36

Tema 2: Espacios vectoriales

La estructura de espacio vectorial juega un papel fundamental en el álgebra lineal pues es la base
de todos los conceptos que ahí se desarrollan. Vamos en la siguiente sección a tratarla.

1 Definición y ejemplos
Cuando manejamos vectores del plano R2 o del espacio tridimensional R3 podemos deducir una serie
de propiedades, a partir de las cuales, en un ejercicio de abstracción, introducimos el concepto de
espacio vectorial como aquel ente que verifica dichas propiedades, que serán tomadas como axiomas
y que se recogen en la siguiente definición:
Definición: Sea V un conjunto y sea K un cuerpo. Supongamos que tenemos definidas dos
operaciones en V , una LCI ”+” (denominada suma), que asigna a cada par de elementos u, v ∈ V
un elemento u + v ∈ V , y otra externa ”·”: K × V → V (denominada producto o multiplicación
por elementos del cuerpo), que asigna a cada elemento λ ∈ K y a cada v ∈ V un elemento λ · v ∈ V
(se podrá omitir el punto en adelante).
Se dice que la terna (V, +, ·) es un K-espacio vectorial o un espacio vectorial sobre K (en
adelante se dirá simplemente que V es un espacio vectorial) si se satisfacen las siguientes propiedades
(a las que denominaremos axiomas):

1. V es un grupo abeliano con la suma ”+”:

(a) (Propiedad asociativa) ∀u, v, w ∈ V se tiene que

(u + v) + w = u + (v + w)

(b) (Propiedad conmutativa) ∀ u, v ∈ V se tiene que

u+v =v+u

(c) (Elemento neutro) Existe un elemento, al que vamos a denotar por 0, tal que dado
cualquier u ∈ V se tiene que
u+0=u

(d) (Elemento opuesto) Dado u ∈ V existe un vector v tal que

u+v =0

Diremos que v es el opuesto de u y pondremos v = −u.

2. (Propiedades pseudodistributivas)

1
(a) ∀u, v ∈ V, ∀λ ∈ K se tiene que

λ · (u + v) = λ · u + λ · v

(b) ∀u ∈ V, ∀λ, μ ∈ K se tiene que

(λ + μ) · u = λ · u + μ · u

3. (Propiedad pseudoasociativa) ∀u ∈ V, ∀λ, μ ∈ K se tiene que

(λ · μ) · u = λ · (μ · u)

4. (Pseudoelemento neutro) ∀u ∈ V se tiene que

1·u=u

(donde 1 es el neutro para la multiplicación en el cuerpo K).

Observación: Los elementos de un espacio vectorial se denominarán vectores (de dicho espacio
vectorial) y los del cuerpo se llamarán escalares. Debido a las propiedades de un espacio vectorial
como grupo abeliano existirá un vector especial que será el neutro para la suma, al cual llamaremos
vector nulo, o vector cero, y lo denotaremos 0V . Y para referirnos al cero del cuerpo K distinguién-
dolo del anterior podemos usar la notación 0K . Si no hay lugar a confusión los denotaremos a ambos
indistintamente por 0. También aparecen dos sumas, la de escalares y la de vectores. Representare-
mos ambas por el mismo símbolo ”+”, siempre que no dé lugar a confusión. Por último recordemos
que todo vector v ∈ V tendrá un vector opuesto para la suma, el cual será designado por −v (que
es el vector que cumple que v + (−v) = 0).
Propiedad: Sea (V, +, ·) un espacio vectorial sobre un cuerpo K y sean λ ∈ K y v ∈ V . Se
tiene que λv = 0 si y sólo si λ = 0 ó v = 0.
Ejemplos:

1. Sea K = R el cuerpo de los números reales y consideremos el conjunto

V = R2 = {(x, y) : x, y ∈ R}

Se define la suma interna ”+” y la multiplicación externa ”·” en V coordenada a coordenada:

Dados u = (x, y), v = (z, t) ∈ V definimos


u + v = (x, y) + (z, t) = (x + z, y + t)

Dados u = (x, y) ∈ V y λ ∈ R definimos


λ · u = λ · (x, y) = (λ · x, λ · y).

Es sencillo comprobar que R2 , con estas operaciones anteriormente definidas, es un R-espacio


vectorial. Veámoslo.

2
(a) Grupo abeliano:
i. Propiedad asociativa: Dados

u = (x, y), v = (z, t), w = (a, b) ∈ V

se tiene que
(u + v) + w = [(x, y) + (z, t)] + (a, b) =
= (x + z, y + t) + (a, b) = ((x + z) + a, (y + t) + b) =
= (x + (z + a), y + (t + b)) =
= (x, y) + [(z + a, t + b)] =
= (x, y) + [(z, t) + (a, b)] = u + (v + w)
(hemos utilizado la propiedad asociativa de los números reales para la suma).
ii. Propiedad conmutativa: Dados

u = (x, y), v = (z, t) ∈ V

se tiene que
u + v = (x, y) + (z, t) =
= (x + z, y + t) = (z + x, t + y) =
= (z, t) + (x, y) = v + u
(hemos utilizado la propiedad conmutativa de los números reales para la suma).
iii. Existencia de elemento neutro: Existe un vector, el vector 0 = (0, 0), tal que dado
cualquier u = (x, y) ∈ V se tiene que

u + 0 = (x, y) + (0, 0) = (x + 0, y + 0) = (x, y) = u

(hemos utilizado que el número real 0 es el neutro para la suma en R).


iv. Existencia de elemento opuesto: Dado u = (x, y) ∈ V existe un vector, el vector
−u = (−x, −y), tal que

u + (−u) = (x, y) + (−x, −y) = (x − x, y − y) = (0, 0) = 0

(hemos utilizado que todo número real posee opuesto para la suma).
(b) Propiedades pseudodistributivas:
i. Dados u = (x, y), v = (z, t) ∈ V y λ ∈ R se tiene que

λ · (u + v) = λ · [(x, y) + (z, t)] = λ · (x + z, y + t) =

= [λ · (x + z), λ · (y + t)] = (λ · x + λ · z, λ · y + λ · t) =
= (λ · x, λ · y) + (λ · z, λ · t) = λ · (x, y) + λ · (z, t) = λ · u + λ · v
(hemos utilizado la propiedad distributiva de los números reales).

3
ii. Dados u = (x, y) ∈ V y λ, μ ∈ R se tiene que

(λ + μ) · u = (λ + μ) · (x, y) = ((λ + μ) · x, (λ + μ) · y) =

= (λ · x + μ · x, λ · y + μ · y) = (λ · x, λ · y) + (μ · x, μ · y) =
= λ · (x, y) + μ · (x, y) = λ · u + μ · u
(hemos utilizado de nuevo la propiedad distributiva de los números reales).
(c) Propiedad pseudoasociativa: dados u = (x, y) ∈ V y λ, μ ∈ R se tiene que

(λ · μ) · u = (λ · μ) · (x, y) = [(λ · μ) · x, (λ · μ) · y] = [λ · (μ · x), λ · (μ · y)] =

= λ · (μ · x, μ · y) = λ · (μ · (x, y)) = λ · (μ · u)
(hemos utilizado la propiedad asociativa de los números reales para la multiplicación).
(d) Pseudoelemento neutro: dado u = (x, y) ∈ V se tiene que

1 · u = 1 · (x, y) = (1 · x, 1 · y) = (x, y) = u

(hemos utilizado que el número real 1 es el neutro para el producto de números reales).

De modo análogo se tiene para (R3 , +, ·), (R4 , +, ·) y en general para cualquier n = 1, 2, 3....
el espacio vectorial (Rn , +, ·), donde Rn = {(x1 , x2 , ..., xn ) : x1 , x2 , ..., xn ∈ R}. Incluso para
n = 1 obtenemos el espacio vectorial (R, +, ·) con la suma y el producto entre números.
Además, esta construcción no es exclusiva del cuerpo R porque también es posible definir, para
cualquier cuerpo K y cualquier n = 1, 2, 3, .... los espacios vectoriales de la forma (K n , +, ·).

2. Consideremos V = P2 [R], el conjunto de todos los polinomios de grado menor o igual que dos
con coeficientes reales, es decir,

V = {ax2 + bx + c : a, b, c ∈ R}

Definimos una suma interna ”+” y una multiplicación por escalares ”·” del siguiente modo:

Dados ax2 + bx + c, dx2 + ex + f ∈ V definimos

(ax2 + bx + c) + (dx2 + ex + f ) = (a + d)x2 + (b + e)x + (c + f )


y dados ax2 + bx + c ∈ V y λ ∈ R definimos
λ · (ax2 + bx + c) = λax2 + λbx + λc

En definitiva se define la suma y la multiplicación en cada coeficiente. Es sencillo comprobar


que P2 [R], con estas operaciones anteriormente definidas, es un R-espacio vectorial. En este
espacio vectorial el vector nulo es el polinomio

0 = 0 + 0x + 0x2

4
y el opuesto de un vector ax2 + bx + c es

−(ax2 + bx + c) = −ax2 − bx − c.

De modo análogo se definen P3 [R], P4 [R] y en general para cualquier n ∈ N, Pn [R], el conjunto
de los polinomios de grado menor o igual que n (en la indeterminada x) con coeficientes reales.
Además esta construcción puede extenderse de nuevo a cualquier cuerpo. De este modo, para
un cuerpo K y cualquier n = 0, 1, 2, 3.... también es posible definir los espacios vectoriales de
la forma Pn [K], tomando los polinomios de grado menor o igual que n (en la indeterminada x)
con coeficientes sobre K.

3. El espacio vectorial de las funciones reales con dominio sobre un conjunto X ⊆ R:

F[X] = {f uncionesf : X → R}

(y como caso especial las funciones de una variable con dominio todo R,

F = F[R] = {funciones f : R → R})

En este espacio vectorial se definen la suma y el producto de escalares por vectores del siguiente
modo: si tenemos dos funciones f, g : X → R, la función suma f + g : X → R está dada por
(f + g)(x) = f (x) + g(x), ∀x ∈ X; y si tenemos una función f ∈: X → R y un escalar α ∈ R
se define el producto de ambos como la función α · f : X → R dada por (α · f )(x) = α · f (x),
∀x ∈ X. Estas operaciones proporcionan a F[X] estructura de espacio vectorial sobre R en el
que el vector nulo es la función idénticamente nula:

0 : X → R, tal que 0(x) = 0, ∀x ∈ X

es decir, es la que lleva todos los elementos de X al 0; y el vector opuesto de f es la función


−f , definida por
(−f )(x) = −f (x), ∀x ∈ X

4. Dados m, n ∈ N∗ , las matrices de orden m × n con coeficientes sobre K constituyen un K-


espacio vectorial con la suma y el producto por escalares coordenada a coordenada (como si
fueran vectores). El neutro es la matriz nula, y el opuesto de una matriz dada es la matriz que
tiene todos los coeficientes opuestos de la anterior.

2 Subespacios vectoriales
Definición: Un subconjunto W de un K-espacio vectorial V se dirá que es un subespacio vectorial
(o simplemente un subespacio) de V (y lo denotaremos así: W ≤ V ) si se cumplen las dos propiedades
siguientes:

5
1. Para todo par de vectores u, v ∈ W se tiene que u + v ∈ W ; y

2. Para todo vector u ∈ W y todo escalar λ ∈ K se tiene que λu ∈ W .

Propiedades: Sea V un espacio vectorial. Entonces:

1. Si W ≤ V , entonces (W, +, ·) (con las operaciones suma y multiplicación externa heredadas de


V ) es un K-espacio vectorial.

2. (Caracterización de subespacio) Dado un subconjunto W de V , se tiene que W es un


subespacio de V si y sólo si para cada par de vectores u, v ∈ W y cada par de escalares
λ, μ ∈ K, se tiene que λu + μv ∈ W .

3. Si W ≤ V . Entonces 0 ∈ W .

La última de las propiedades anteriores es útil en la práctica para determinar, en algunas ocasio-
nes, que ciertos subconjuntos de un espacio vectorial no son subespacios, pues, en cuanto tengamos
un subconjunto del espacio vectorial que no contiene al vector nulo podremos afirmar que no puede
ser un subespacio suyo.
Ejemplo:

1. Consideremos el espacio vectorial V = R2 y el subconjunto W = {(x, y) tales que 3x − y = 0}


de R2 . Entonces, W es un subespacio de V . Veámoslo.
Dados u = (x, y), v = (z, t) ∈ W y α, β ∈ R, debemos ver que el vector w = αu + βv está en
W . Como w = α(x, y) + β(z, t) = (αx + βz, αy + βt) y como 3x − y = 0, 3z − t = 0, se tiene
que 3(αx + βz) − (αy + βt) = α(3x − y) + β(3z − t) = 0. En definitiva w ∈ W .

2. Sea V = K 3 = {(x, y, z)|x, y, z ∈ K} y sea U = {(x, y, z)|z = 1}. Entonces U no es un


subespacio de V porque el vector nulo de K 3 , 0 = (0, 0, 0), no está en U .

3. Sea V = K 2 = {(x, y)|x, y ∈ K} y sea S = {(x, y)|y = x2 }. Entonces S no es un subespacio de


V porque aunque el vector nulo de K 2 , 0 = (0, 0), está en S, se cumple para el vector (1, 1) ∈ S
que 2(1, 1) = (2, 2) ∈
/ S.

4. Sea V un espacio vectorial. Asociados a V siempre aparecen los llamados subespacios tri-
viales, que son V y {0}. El primero es claro que es un subespacio vectorial, pues la suma de
vectores de V están en V , y el producto de un escalar por un vector de V está de nuevo en
V (esto se debe a la definición de suma y producto por escalares en V ). Y el conjunto {0}
también es un subespacio de V , ya que, la suma de vectores nulos da de nuevo el vector nulo,
así como el producto de cualquier escalar por el vector nulo. El primero está formado por todos
los vectores de V y el segundo está formado únicamente por el vector 0. A éstos se les llamará
subespacio total y subespacio cero (o subespacio nulo), respectivamente. A este último
se le designa (igual que al vector) con el símbolo 0.

6
3 Sistemas de vectores
Un sistema de vectores de un espacio vectorial V es una colección (finita) de vectores v1 , v2 , ..., vn
de V , en la que pudiera ocurrir que hubiese alguno repetido (de ahí que no empleemos en general
el término conjunto de vectores, pues en un conjunto, por definición, no puede haber elementos
repetidos). También designaremos a los sistemas de vectores mediante llaves, dejando claro que eso
no significa que el sistema sea propiamente un conjunto. Así, no es lo mismo hablar del sistema de
vectores {v1 , v2 , ..., vn }, que del conjunto de vectores {v1 , v2 , ..., vn }, pues en el segundo caso estamos
suponiendo además que no hay vectores repetidos.

3.1 Combinaciones lineales. Subespacio generado. Sistema generador


Supongamos que tenemos un sistema de vectores v1 , v2 , ..., vn de un espacio vectorial V . Dado otro
vector v del espacio vectorial, diremos que v es combinación lineal (abreviadamente CL) del
sistema (o de los vectores) v1 , v2 , ..., vn si

v = λ1 v1 + λ2 v2 + ... + λn vn

para algunos λ1 , λ2 , ...λn ∈ K.


Ejemplo:

1. Dados los vectores


(0, 1, 2), (3, 0, 1)
una de sus CL es el vector
2(0, 1, 2) − 1(3, 0, 1) = (−3, 2, 3)
Todas las CL de ellos serán los vectores de la forma

α(0, 1, 2) + β(3, 0, 1) = (3β, α, 2α + β)

para cualquier par de escalares α y β.

2. Dado cualquier sistema de vectores v1 , v2 , ..., vn se tiene que cada vi es CL del sistema. Esto es
así porque
vi = 0 · v1 + 0 · v2 + ... + 0 · vi−1 + 1 · vi + 0 · vi+1 + ... + 0 · vn

3. El vector nulo es siempre CL de cualquier sistema de vectores {v1 , v2 , ..., vn }. Esto se debe a
que
0 = 0 · v1 + 0 · v2 + ... + 0 · vn

Dado un sistema de vectores S = {v1 , v2 , ..., vn } de un K-espacio vectorial V , podemos coger


todos los vectores de V que son CL de los vectores de S, es decir, el siguiente conjunto de vectores:

{λ1 v1 + λ2 v2 + ... + λn vn : λ1 , λ2 , ...λn ∈ K}

7
al que denotaremos por < S > ó < v1 , v2 , ..., vn > (otros autores utilizan la notación L(S) o
L{v1 , v2 , ..., vn }). De hecho se tiene que < S > es un subespacio de V .
Dados vectores v1 , v2 , ..., vn , al subespacio dado anteriormente, < v1 , v2 , ..., vn >, lo llamaremos
subespacio generado o engendrado por S o por los vectores v1 , v2 , ..., vn (otros docentes lo llaman
envoltura lineal de los vectores v1 , v2 , ..., vn ).
Ejemplo: Hallemos el subespacio de R3 generado por los vectores (2, 0, 3) y (−1, 1, 0). Éste es

< (2, 0, 3), (−1, 1, 0) >= {α(2, 0, 3) + β(−1, 1, 0) : α, β ∈ R} = {(2α − β, β, 3α) : α, β ∈ R}

Diremos que {v1 , v2 , ..., vn } es un sistema generador (abreviadamente SG) de V si

V =< v1 , v2 , ..., vn >

Esto ocurre si y sólo si todo vector de V es CL de los vectores v1 , v2 , ..., vn .


Ejemplo: Determinar cuáles de los siguientes son SG de R2 :
1.

{(1, 2), (−1, 1)}

Tomemos un vector arbitrario (x, y) de R2 . Veamos si existen escalares a, b ∈ R de manera que


(x, y) = a(1, 2) + b(−1, 1). Operando e igualando coordenada a coordenada tendríamos que
(
x=a−b
(∗)
y = 2a + b

Sumando estas dos ecuaciones concluiríamos que a = x+y 3


, y sustituyendo en la primera que
−2x+y
b = a − x = 3 . Así, vemos que efectivamente todo vector de R2 es CL de los vectores
iniciales (pues hemos hallado a y b en función de x e y, comprobando que se cumple la igualdad
(x, y) = a(1, 2) + b(−1, 1)), lo que prueba que éstos constituyen un SG de R2 .
Nota: Habitualmente uno de los métodos más sencillos para ver que el sistema de vectores es un
SG es comprobar que el sistema de ecuaciones lineales (*) es un SC. Por ejemplo, analizando
los rangos (argumentando como en el Teorema de Rouché). En nuestro caso la matriz de
coeficientes tiene claramente rango 2, y por tanto también la ampliada. Por ello es un SC y
por tanto y los vectores consituyen un SG de R2 .
2.

{(1, 3)}.

Tomemos nuevamente un vector arbitrario (x, y) de R2 . Veamos si existe algún escalar a ∈ R


de manera que (x, y) = a(1, 3). Operando e igualando coordenada a coordenada tendríamos
que (
x=a
(∗)
y = 3a

8
Las matrices de coeficientes y ampliada son, respectivamente,
à ! à !
1 1 x
3 3 y

por lo que su rango vale, para la primera 1, y para la segunda a veces 1 y otras veces 2. Entonces
no se cumple que estemos siempre (para todos los valores de x, y) con un SC (cuando el rango
de la matriz ampliada es 2 estamos con un SI). Concluimos que no es un SG de R2 .

3. Supongamos que estamos en el espacio vectorial R2 y tomemos el subespacio

U = {(x, y)|x + 2y = 0}

de R2 . Veamos si los vectores (2, −1) y (−2, 1) forman un SG de U.


En primer lugar es claro que ambos vectores pertenecen a U . Seguidamente tomemos un vector
cualquiera (x, y) ∈ U y veamos si es CL de los dos vectores anteriores. Así veamos si existen
escalares a y b tales que (x, y) = a(−2, 1)+b(2, −1), es decir, tales que x = −2a+2b e y = a−b.
Sabemos que x + 2y = 0, con lo que x = −2y = −2a + 2b (es decir, la primera ecuación sobra,
pues se deduce de la segunda). Entonces es suficiente tomar a y b tales que y = a − b. Hemos
deducido que los vectores (2, −1) y (−2, 1) forman un SG de U.

Algunas propiedades destacables son las siguientes:


Propiedades: Sea V un espacio vectorial. Entonces:

1. Dado un sistema de vectores v1 , v2 , ..., vn de V , se tiene que cada vi pertenece a < v1 , v2 , ..., vn >.

2. El subespacio generado por un sistema de vectores no varía si realizamos alguna de las siguientes
manipulaciones:

(a) Aplicamos las trasformaciones elementales de Gauss. En particular esto es aplicable a


un SG de V , es decir, si sobre un SG de V aplicamos alguna de las transformaciones de
Gauss (cambiamos de orden los vectores, le añadimos a algún vector algún múltiplo de
otro vector del sistema o multiplicamos algún vector por un escalar no nulo) el sistema
resultante es de nuevo un SG de V .
(b) Eliminar algunos vectores del sistema que no aporten más información de la que ya aportan
los demás. Es decir, si a un sistema de vectores le quitamos uno que sea CL de los demás
el sistema resultante es de nuevo un SG de V .

Ejemplo: Consideremos el siguiente subespacio de R4 :

W =< (1, 2, 0, −1), (0, −1, 3, 0), (2, 4, 0, −2), (2, 3, 3, −2), (0, 0, 0, 0), (1, 0, 6, −1) >

Hallar un SG de W que tenga el menor número de vectores posibles, escalonando por Gauss.

9
Se deduce de lo anterior que un SG de W es

{(1, 2, 0, −1), (0, −1, 3, 0), (2, 3, 3, −2), (1, 0, 6, −1)}

Simplemente vamos a escalonar por Gauss dicho sistema y después de eliminar los vectores sobrantes
nos quedará el SG pedido de W . Observemos en primer lugar que el tercero puede ser eliminado,
pues es el doble del primero, y el penúltimo es el vector nulo y por tanto puede ser también eliminado.
A simple vista no es fácil observar más relaciones de dependencia, por lo que los otros cuatro los
dispondremos en forma matricial y procederemos a escalonar por Gauss:
⎛ ⎞
1 2 0 −1
⎜ 0 −1 3 0 ⎟
⎜ ⎟
⎜ ⎟
⎝ 2 3 3 −2 ⎠
1 0 6 −1

Ahora le añadimos a la tercera fila −2 veces la primera y a la última le restamos la primera:


⎛ ⎞
1 2 0 −1
F3 − 2F1 ⎜ 0 −1 3 0 ⎟
⎜ ⎟
⎜ ⎟
F4 − F1 ⎝ 0 −1 3 0 ⎠
0 −2 6 0

Ahora podemos eliminar la tercera fila, por ser igual que la segunda, y la cuarta, por ser el doble de
la segunda, quedándonos como SG de W el siguiente

{(1, 2, 0, −1), (0, −1, 3, 0)}

3.2 Dependencia e independencia lineal


Un sistema de vectores v1 , v2 , ..., vn se dice que es libre, o que los vectores que lo forman son lineal-
mente independientes (LI), cuando la única CL de ellos que da como resultado el vector 0 es la
CL en la que todos los escalares son nulos (diremos indistintamente que el sistema o los vectores son
LI). Podemos expresarlo así:

λ1 v1 + λ2 v2 + ... + λn vn = 0 ⇒ λ1 = λ2 = ..... = λn = 0

En caso contrario se dice que el sistema de vectores es ligado, o que los vectores que lo forman son
linealmente dependientes (LD) (diremos indistintamente que el sistema o los vectores son LD).
Esto ocurre cuando podamos encontrar alguna CL de los vectores que da cero, siendo algún escalar
no nulo.
Ejemplo:

1. Veamos que los vectores u = (0, 3, 4) y v = (1, 2, 3) de R3 son LI.

10
Para ello supongamos que tenemos alguna CL nula de ellos, es decir, αu + βv = 0 para ciertos
escalares α y β. Entonces tendremos

(0, 0, 0) = α(0, 3, 4) + β(1, 2, 3) = (0, 3α, 4α) + (β, 2β, 3β) = (β, 3α + 2β, 4α + 3β)

De aquí deducimos el sistema de ecuaciones




⎨ β =0
3α +2β = 0


4α +3β = 0
en las incógnitas α y β, cuya única solución es α = β = 0.
Nota: Como regla general podemos decir que si el sistema lineal obtenido es SCD entonces al
tener solución única y la solución nula es una de ellas, ésta debe ser la única posible. En tal
caso (SCD) los vectores serán LI, y en caso contrario (SCI) los vectores serán LD. Esto equivale,
utilizando el Teorema de Rouché-Fröbenius, a que el rango de la matriz de coeficientes sea igual
al número de incógnitas, dicho de otro modo, que el rango de la matriz de los vectores sea igual
al número de ellos.

2. Consideremos los vectores u1 = (1, 0, 1), u2 = (−1, 2, 0) y u3 = (1, 2, 2) de R3 ; veamos que son
LD.
Para ello supongamos que se tiene alguna CL nula au1 + bu2 + cu3 = 0, para ciertos escalares
a, b y c. Entonces tendremos

(0, 0, 0) = a(1, 0, 1) + b(−1, 2, 0) + c(1, 2, 2) = (a − b + c, 2b + 2c, a + 2c)

De aquí deducimos el sistema de ecuaciones




⎨ a −b +c = 0
2b +2c = 0


a +2c = 0
el cual es SCI. Por tanto los vectores son LD.

3. Veamos que el siguiente sistema de vectores de R4 es libre:

{u = (1, 5, 4, 5), v = (0, 3, −1, 0), w = (0, 0, 2, −5)}

Si suponemos que existe una CL de estos vectores que da cero αu + βv + γw = 0 tenemos que

(0, 0, 0, 0) = α(1, 5, 4, 5) + β(0, 3, −1, 0) + γ(0, 0, 2, −5) = (α, 5α + 3β, 4α − β + 2γ, 5α − γ)

De aquí deducimos el sistema de ecuaciones




⎪ α =0

⎨ 5α +3β =0

⎪ 4α −β +2γ = 0


5α −γ = 0

11
cuyas soluciones obtenemos así: en la primera ecuación α = 0; sustituyendo esto en la segunda
β = 0; sustituyendo lo anterior en la tercera o cuarta γ = 0. Claramente es un SCD y por ello
el sistema de vectores es LI.

En los ejemplos anteriores se ha analizado la dependencia o independencia lineal de ciertos sis-


temas de vectores utilizando sólo la definición. A continuación vamos a ver ciertas propiedades que
nos van a permitir dicho análisis de manera más práctica y eficiente. Entre ellas figura, cómo no, las
transformaciones de Gauss, las cuáles nos permitirán escalonar el sistema para obtener la respuesta
a la cuestión.
Propiedades: En un espacio vectorial V se tiene que:

1. Un sistema escalonado es LI si y sólo si no tiene filas (vectores) nulas.

2. Las transformaciones de Gauss conservan la dependencia o independencia lineal de un sistema.

3. Todo sistema de vectores que contenga al vector nulo es LD.

4. Todo sistema de vectores que tenga algún vector repetido es LD.

5. Un sistema formado por un sólo vector es un sistema LD si y sólo si el vector es nulo.

6. Los vectores u, v son LD si y sólo si son proporcionales.

7. Los vectores u1 , u2 , ..., un son LD si y sólo si alguno de ellos es CL del resto.

8. Todo sistema de vectores que contenga a un sistema LD es LD.

9. Todo sistema de vectores contenido en un sistema LI es LI.

10. Si un sistema de vectores es LI entonces las CL lineales del sistema no se repiten, es decir, cada
vector que es CL del sistema puede ponerse sólo de una forma como CL del sistema.

Para determinar si un sistema de vectores de Rn es o no LI utilizaremos habitualmente las dos pri-


meras propiedades de la lista. De este modo escalonaremos el sistema mediante las transformaciones
de Gauss. Como dichas transformaciones no cambian el carácter del sistema, si originalmente éste
era LI el sistema resultante también lo será, y si el del principio era LD el escalonado final también
lo será. Entonces si al escalonar nos aparece (no importa que sea al final o en un paso intermedio) el
vector nulo el sistema será LD. Por contra si conseguimos escalonar hasta el final el sistema sin que
aparezca el vector nulo, será un sistema LI.
Veámoslo en el siguiente ejemplo:
Ejemplo:
Veamos si los siguientes vectores de R5 son LI o LD escalonando el sistema

u1 = (1, 2, 3, 4, 5), u2 = (0, 2, 3, 4, 5), u3 = (−1, 0, 0, 0, 0), u4 = (−3, 0, 0, 4, 1), u5 = (0, 0, 0, 8, 2)

12
Los ponemos en forma matricial en el orden que creamos conveniente:
⎛ ⎞
−1 0 0 0 0
⎜ ⎟
⎜ −3 0 0 4 1 ⎟
⎜ ⎟
⎜ 0 0 0 8 2 ⎟
⎜ ⎟
⎜ ⎟
⎝ 0 2 3 4 5 ⎠
1 2 3 4 5
Le añadimos la primera fila a la segunda y quinta del siguiente modo
⎛ ⎞
−1 0 0 0 0
⎜ ⎟
⎜ 0 0 0 4 1 ⎟
F2 − 3F1 ⎜ ⎟
⎜ 0 0 0 8 2 ⎟
F5 + F1 ⎜ ⎟
⎜ ⎟
⎝ 0 2 3 4 5 ⎠
0 2 3 4 5
Ahora observamos que hay relaciones de dependencia. Por ejemplo, las dos últimas filas son iguales.
O bien la segunda y tercera son proporcionales. Por tanto los vectores iniciales son LD. Si por el
contrario en ninguno de los pasos obtenemos ninguna relación de dependencia, entonces los vectores
serían LI.
Veamos otro ejemplo:
Ejemplo: Demostremos que los vectores (−1, 0, 1, 1), (1, 0, 3, 2) y (2, 1, −1, 0) son LI. Para ello
hagamos operaciones sobre la matriz cuyas filas son estos vectores:
⎛ ⎞
−1 0 1 1
⎜ ⎟
⎝ 1 0 3 2 ⎠
2 1 −1 0
En primer lugar le añadimos la primera fila a la segunda y a la tercera, (a ésta última multiplicada
por 2): ⎛ ⎞
−1 0 1 1
F2 + F1 ⎜ ⎟
⎝ 0 0 4 3 ⎠
F3 + 2F1
0 1 1 2
Después cambiamos de orden la segunda y tercera filas y obtenemos
⎛ ⎞
−1 0 1 1
⎜ ⎟
F3 ←→ F2 ⎝ 0 1 1 2 ⎠
0 0 4 3
Como en el sistema escalonado de vectores que forman las filas de la matriz no aparece el vector
nulo, se deduce que éstos (y por lo tanto los vectores iniciales) son LI.
Ejemplo: Demostremos que los vectores (2, 1, −1, 0), (1, 0, −3, 1) y (−1, −1, −2, 1) son LD. Para
ello hagamos operaciones sobre la matriz cuyas filas son estos vectores:
⎛ ⎞
2 1 −1 0
⎜ ⎟
⎝ 1 0 −3 1 ⎠
−1 −1 −2 1

13
En primer lugar cambiamos de orden las dos primeras filas:
⎛ ⎞
1 0 −3 1
⎜ ⎟
F1 ←→ F2 ⎝ 2 1 −1 0 ⎠
−1 −1 −2 1

Después le añadimos la primera fila a la segunda y a la tercera (a la segunda multiplicada por −2)
y obtenemos ⎛ ⎞
1 0 −3 1
F2 − 2F1 ⎜ ⎟
⎝ 0 1 5 −2 ⎠
F3 + F1
0 −1 −5 2
Ahora le sumamos a la tercera fila la segunda. Nos da
⎛ ⎞
1 0 −3 1
⎜ ⎟
F3 + F2 ⎝ 0 1 5 −2 ⎠
0 0 0 0

Como ha aparecido el vector nulo estamos ante un sistema de vectores LD.

4 Bases y dimensión de un espacio vectorial


Definición: Un sistema de vectores de un espacio vectorial V se dice que es una base de V si es un
SG de V y es LI.
Ejemplos:

1. Base canónica.
Consideremos en el espacio vectorial R3 el sistema de vectores

{(1, 0, 0), (0, 1, 0), (0, 0, 1)}

Es fácil comprobar que este sistema es libre y generador del espacio vectorial: lo primero es
inmediato; para lo segundo es suficiente observar que para cualquier vector (x, y, z) se tiene
que
(x, y, z) = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1)
Entonces es una base de R3 , a la que llamaremos base canónica de R3 . De modo análogo puede
definirse la base canónica en cualquier Rn y en cualquier K n . Por ejemplo, en K 2 la base
canónica sería {(1, 0), (0, 1)}.

2. El sistema de vectores {(1, 3), (2, −3)} es una base de R2 .


LI: Por el método de escalonación basta escalonar la matriz
à ! à !
1 3 1 3
dejándola así
2 −3 0 −9

14
SG: Sea u = (x, y) un vector cualquiera de R2 . Veamos si puede ponerse como CL de nuestros
vectores. Para ello deberían existir escalares a y b tales que (x, y) = a(1, 3) + b(2, −3), lo que
se traduce en el siguiente sistema de ecuaciones en el que las incógnitas son a y b
(
x = a + 2b
y = 3a − 3b

Como es un SC (el rango de la matriz de coeficientes y el de la ampliada vale 2), el vector (x, y)
puede ponerse como CL de los vectores (1, 3) y (2, −3), y como esto ocurre para cualquier
vector (x, y) ∈ R2 , se cumple entonces que los vectores iniciales forman un SG (y al ser LI, por
tanto, también una base) de R2 .

3. En el espacio vectorial P3 [R], de los polinomios con coeficientes reales de grado menor o igual
que 3, el sistema
{1, x, x2 , x3 }
es una base. A esta base la llamaremos también base canónica del espacio vectorial P3 [R].
LI: Si tenemos una CL nula de los vectores

0 = α · 1 + β · x + γ · x2 + δ · x3 = α + βx + γx2 + δx3

esto se traduce que el polinomio anterior es el polinomio cero, y por tanto sus coeficientes son
todos nulos, es decir, α = β = γ = δ = 0.
SG: Sea p(x) = a+bx+cx2 +dx3 un vector cualquiera de P3 [R]. Este vector se pone claramente
como CL de {1, x, x2 , x3 }, pues

p(x) = a + bx + cx2 + dx3 = a · 1 + b · x + c · x2 + d · x3

Tener una base en un espacio vectorial es algo que simplifica mucho las cosas, pues no hace falta
trabajar con todos los vectores del espacio vectorial, teniendo en cuenta que éstos se ponen como CL
de los vectores de la base. El siguiente resultado nos dice que la existencia de bases es una propiedad
de todo espacio vectorial.
Teorema de la base Todo espacio vectorial (no nulo) tiene alguna base. Además, todas las
bases de un espacio vectorial tienen el mismo número de elementos.
Se llama dimensión de un espacio vectorial V al número de elementos de cualquiera de sus
bases, y se denotará por dim V . Según lo que hemos visto para las bases canónicas de los espacios
vectoriales de la forma Rn (o K n ) deducimos que la dimensión de estos espacios vectoriales es n.
Diremos que un espacio vectorial tiene dimensión finita cuando sus bases tienen un número finito
de elementos, cosa que ocurrirá en todos los casos que vamos a tratar, salvo que hagamos mención
explícita de lo contrario.
Observación: El subespacio nulo es un espacio vectorial que no tiene bases, ya que
el único vector que forma parte de él es el vector 0, y éste no puede formar un sistema libre. Esto

15
también puede ser interpretado como que la base del espacio vectorial nulo es el conjunto vacío, ∅.
En cualquier caso la dimensión de este espacio vectorial es 0. Sería incorrecto decir que la base de
este espacio vectorial está formada por el vector 0.
Propiedades: Sea V un espacio vectorial no nulo de dimensión n, y X = {v1 , v2 , ..., vk } un
sistema de vectores de V .

1. Si X es SG de V entonces existe una base de V contenida en X. En particular n ≤ k.

2. Si X es un sistema libre de vectores de V entonces existe una base de V que contiene a X. En


particular k ≤ n.

3. Si k = n, entonces X es una base de V ⇔ X es un SG de V ⇔ X es un sistema libre de


vectores de V .

Observación: Como consecuencia de estas propiedades se deduce además que la dimensión de


un espacio vectorial V es el número máximo de vectores que puede tener un sistema libre de V e
igualmente el número mínimo de vectores que puede tener un SG de V .
En la práctica normalmente lo que necesitaremos es simplemente hallar una base de V a partir
de un SG del espacio, sin necesidad de que la base esté formada exclusivamente por vectores del SG.
Un método válido, si estamos en Rn , es de nuevo el método de escalonación: Después de escalonar
el SG de V los vectores no nulos que queden constituirán una base de V . Se pueden ir
quitando durante la escalonación los vectores nulos que vayan apareciendo sin necesidad de esperar
hasta el final. Incluso pueden eliminarse los vectores que sean CL de los demás.
Ejemplo: Recordemos el ejemplo 3.2 en el que probábamos que los siguientes vectores de R5
eran LD

u1 = (1, 2, 3, 4, 5), u2 = (0, 2, 3, 4, 5), u3 = (−1, 0, 0, 0, 0), u4 = (−3, 0, 0, 4, 1), u5 = (0, 0, 0, 8, 2)

Ahora lo que pretendemos es hallar una base del subespacio vectorial de R5 generado por u1 , u2 , u3 , u4 , u5 .
Escalonamos igual que hicimos para comprobar si el sistema era libre o ligado:
Partiendo de
⎛ ⎞
−1 0 0 0 0
⎜ ⎟
⎜ −3 0 0 4 1 ⎟
⎜ ⎟
⎜ 0 0 0 8 2 ⎟
⎜ ⎟
⎜ ⎟
⎝ 0 2 3 4 5 ⎠
1 2 3 4 5
le añadíamos la primera fila a la segunda y quinta del siguiente modo
⎛ ⎞
−1 0 0 0 0
⎜ ⎟
⎜ 0 0 0 4 1 ⎟
F2 − 3F1 ⎜ ⎟
⎜ 0 0 0 8 2 ⎟
F5 + F1 ⎜ ⎟
⎜ ⎟
⎝ 0 2 3 4 5 ⎠
0 2 3 4 5

16
y luego eliminábamos algunos vectores que eran CL de otros:
Como los dos últimos vectores son iguales se puede quitar, por ejemplo, el quinto. Como el
segundo y el tercero son proporcionales quitaremos el tercero.
Así nos quedaría la matriz ⎛ ⎞
−1 0 0 0 0
⎜ ⎟
⎝ 0 0 0 4 1 ⎠
0 2 3 4 5
Ahora simplemente intercambiamos los dos últimos vectores para tener escalonada la matriz.
⎛ ⎞
−1 0 0 0 0
⎜ ⎟
F2 ←→ F3 ⎝ 0 2 3 4 5 ⎠
0 0 0 4 1

Eso significa que los vectores

{(−1, 0, 0, 0, 0), (0, 2, 3, 4, 5), (0, 0, 0, 4, 1)}

constituyen una base del subespacio generado por los 5 vectores iniciales.
Sabemos que todo subespacio U de un espacio vectorial V es por sí solo un espacio vectorial,
con lo que tendrá una base. Podremos hablar pues de su dimensión, como el número de vectores de
cualquiera de sus bases. Veamos en el próximo resultado que entonces la dimensión del subespacio
no puede superar la del espacio.
Propiedad: Sea V un espacio vectorial (de dimensión finita) y U un subespacio suyo. Entonces
dim U ≤ dim V . De hecho dim U = dim V si y sólo si U = V .

4.1 Rango de un sistema de vectores


Definición: Se llama rango de un sistema de vectores v1 , v2 , ..., vk a dim < v1 , v2 , ..., vk >. Si
estamos en Rn esto es lo mismo que el rango de la matriz cuyas filas (o columnas) son los vectores.
Propiedades
El rango se conserva al realizar cualquier operación que transforme un sistema de vectores en otro
que genere lo mismo. Por ejemplo:

1. Quitar algún vector que sea CL de los restantes.

2. Las transformaciones de Gauss.

Además, dado un sistema formado por k vectores de un espacio vectorial V se tiene que:

1. El sistema es LI si y sólo si su rango es k.

2. Es un SG de V si y sólo si su rango es dim V .

17
Ejemplo: Calculemos el rango del sistema de vectores siguiente

{(1, 0, 3, 2), (0, −1, 1, 0), (3, 0, −1, 1), (2, 1, −5, −1)}

y deducir si el sistema es LI o SG de R4 .
Si lo ponemos en forma de matriz el problema se reduce a calcular el rango de la siguiente matriz
⎛ ⎞
1 0 3 2
⎜ 0 −1 1 0 ⎟
⎜ ⎟
⎜ ⎟
⎝ 3 0 −1 1 ⎠
2 1 −5 −1

lo cual se puede hacer escalonándola. En primer lugar le añadimos la primera fila a la tercera
(multiplicada por −3) y a la cuarta (multiplicada por −2)
⎛ ⎞
1 0 3 2
F3 − 3F1 ⎜ 0 −1 1 0 ⎟
⎜ ⎟
⎜ ⎟
F4 − 2F1 ⎝ 0 0 −10 −5 ⎠
0 1 −11 −5

Seguidamente le sumamos a la cuarta fila la segunda


⎛ ⎞
1 0 3 2
⎜ 0 −1 1 0 ⎟
⎜ ⎟
F4 + F2 ⎜ ⎟
⎝ 0 0 −10 −5 ⎠
0 0 −10 −5

Y por último le restamos la tercera a la cuarta para obtener la siguiente escalonación de la matriz
inicial ⎛ ⎞
1 0 3 2
⎜ 0 −1 1 0 ⎟
⎜ ⎟
F4 − F3 ⎜ ⎟
⎝ 0 0 −10 −5 ⎠
0 0 0 0
lo cual nos indica que el rango es 3 (nos han salido 3 vectores no nulos). Por tanto los vectores no
son LI (el rango no es igual al número de vectores, 4) ni constituyen un SG de R4 (pues el rango no
coincide con dim R4 = 4).

4.2 Coordenadas respecto de una base


Supongamos que tenemos una base B = {v1 , ..., vn } de un espacio vectorial V . Entonces dado un
vector u ∈ V sabemos que éste puede ponerse como CL de los vectores de la base B, ya que ésta
constituye un SG del espacio. Pero al ser además vectores LI esta CL es única. Esto significa que
tenemos
u = x1 v1 + ..... + xn vn

18
para ciertos escalares x1 , ....., xn , que, en ese orden, son únicos cumpliendo la condición anterior.
Llamaremos coordenadas del vector u en (o respecto de) la base B a los escalares anteriores (que
se suelen poner en forma de vector), y para esto usaremos la notación uB = (x1 , ....., xn ) (aunque
en algunos textos prefieren poner u = (x1 , ....., xn )B ). El vector anterior es lo que se llama un
vector-fila; también se puede poner, si interesa, en forma de vector-columna
⎛ ⎞
x1
⎜ ⎟
uB = ⎝ .... ⎠
xn
La necesidad de ponerlo en forma de vector es que interesa que estén ordenados porque importa el
orden en que se disponen los escalares.
Ejemplos:

1. En R2 cojamos la base
B = {(1, −3), (0, −1)}
Hallemos las coordenadas del vector (2, 5) en la base B.
Sabemos que son los escalares x, y que cumplen que

(2, 5) = x(1, −3) + y(0, −1) = (x, −3x − y)

De aquí deducimos el sistema de ecuaciones


(
2= x
5 = −3x − y

cuya solución es x = 2, y = −11. De este modo obtenemos que las coordenadas de (2, 5) en la
base B son (2, −11).

2. Las coordenadas del vector nulo son todas nulas. Esto es así porque

(0, ..., 0) = 0 · v1 + 0 · v2 + ... + 0 · vn

para cualquier base B = {v1 , v2 , ..., vn }.

3. Si tenemos una base B = {v1 , v2 , ..., vn } de un espacio vectorial entonces las coordenadas en B
de los propios vectores de la base son las siguientes:

(v1 )B = (1, 0, ..., 0), (v2 )B = (0, 1, 0, ..., 0), ...., (vn )B = (0, 0, ..., 0, 1)

4. Si estamos en los espacios vectoriales de la forma Rn y tomamos como base B la canónica, las
coordenadas de un vector v ∈ Rn en esta base son precisamente las componentes del vector, es
decir, ⎛ ⎞
x1
⎜ ⎟
v = (x1 , ..., xn ) −→ vB = ⎝ .... ⎠
xn

19
Esto es así porque

(x1 , ..., xn ) = x1 (1, 0, ..., 0) + x2 (0, 1, ..., 0) + ... + xn (0, 0, ..., 1)

5. Dada la base
B = {(4, 3), (−5, 0)}
de R2 y el vector v ∈ R2 tal que vB = (3, −2) se tiene que

v = 3 · (4, 3) − 2 · (−5, 0) = (22, 9)

4.3 Cambio de base


Supongamos que tenemos dos bases B = {v1 , v2 , ..., vn } y B 0 de un mismo espacio vectorial V (con
dim V = n). Lo que pretendemos es, dado un vector u ∈ V , relacionar las coordenadas de u en B con
las coordenadas de u en B 0 . Llamaremos matriz cambio de base de B a B 0 (y la denotaremos por
MB→B0 ó CB→B0 ) a aquélla cuyas columnas son las coordenadas de los vectores de la base B respecto
de B 0 . Esto es, si

(v1 )B0 = (a11 , a21 , ..., an1 ), (v2 )B0 = (a12 , a22 , ..., an2 ), ..., (vn )B0 = (a1n , a2n , ..., ann )

entonces ⎛ ⎞
a11 a12 ... a1n
⎜ a21 a22 ... a2n ⎟
⎜ ⎟
MB→B0 = ⎜ ⎟
⎝ ... ... ... ... ⎠
an1 an2 ... ann
La matriz cambio de base nos relaciona las coordenadas de un vector en ambas bases. Concreta-
mente, si tomamos un vector u ∈ V se cumple la siguiente relación matricial

uB0 = MB→B0 · uB

Poniendo ⎛ ⎞ ⎛ ⎞
x1 x01
⎜ ⎟ ⎜ ⎟
uB = ⎝ .... ⎠ uB0 = ⎝ .... ⎠
xn x0n
la relación matricial anterior se traduce en el sistema de ecuaciones

x01 = a11 x1 + a12 x2 + ... + a1n xn


x02 = a21 x1 + a22 x2 + ... + a2n xn
...............
x0n = an1 x1 + an2 x2 + ... + ann xn

a lo que denominaremos ecuaciones cambio de base de B a B 0 .


Ejemplo: En R2 se consideran las bases B = {(1, 2), (2, −1)} y B 0 = {(1, −3), (0, −1)} de R2 .

20
1. Hallar tanto la matriz cambio de base como las ecuaciones cambio de base de B a B 0 .

2. Dado el vector u ∈ R2 tal que sus coordenadas en B son (3, −3) hallar sus coordenadas en B 0 .

3. Dado el vector v ∈ R2 tal que sus coordenadas en B 0 son (0, −5) hallar sus coordenadas en B.

Solución:
1. Tenemos que poner los vectores de B en función de los de B 0 . En primer lugar (1, 2) =
a(1, −3) + b(0, −1) = (a, −3a − b), de donde obtenemos el sistema de ecuaciones

1 = a
2 = −3a − b

en el que obtenemos directamente que a = 1, y por tanto b = −5. Así las coordenadas del vector
(1, 2) respecto de la base B 0 son (1, −5). Procedemos igual con el vector (−2, 1) para llegar a la
igualdad (2, −1) = c(1, −3) + d(0, −1) = (c, −3c − d), de donde obtenemos el sistema de ecuaciones

2 = c
−1 = −3c − d

en el que deducimos que c = 2 y por tanto d = −5. Así las coordenadas del vector (2, −1) respecto
de la base B 0 son (2, −5). Entonces la matriz cambio de base de B a B 0 es
à !
1 2
MB→B0 =
−5 −5

Concluimos que las ecuaciones cambio de base de B a B 0 son

x0 = x + 2y
0
y = −5x − 5y

2. Ahora es sencillo calcular uB0 como el producto


à ! à !
3 −3
uB0 = MB→B0 · =
−3 0

También se puede realizar la sustitución x = 3, y = −3 en las ecuaciones anteriores y obtener el


mismo resultado.
3. Para hallar vB basta con hacer la sustitución x0 = 0, y 0 = −5 en las ecuaciones anteriores y
resolver. Se obtiene entonces que vB = (2, −1).
Ejemplo: En R2 se consideran las dos bases B y B 0 para las cuales se conocen las ecuaciones
del cambio de base de B a B 0 , que son

x0 = 3x + y
y0 = −5y

21
Hallar la matriz la cambio de base de B a B 0 .
Solución: Ã !
3 1
MB→B0 =
0 −5
Propiedades:

1. La matriz MB→B0 es invertible y su inversa es MB0 →B .

2. Si C es la base canónica entonces las columnas de MB→C son los vectores de la base B.

3. MB1 →B3 = MB2 →B3 · MB1 →B2

4. Como caso particularmente útil del anterior destaquemos la situación en que B2 es la base
canónica C de Rn , pues en ese caso la fórmula queda así
−1
MB1 →B3 = (MB3 →C ) · MB1 →C

Ejemplos:

1. En R3 si denominamos por C a la base canónica y tenemos la base

B = {(1, 2, 3), (0, −1, 3), (0, 0, −4)}

entonces ⎛ ⎞
1 0 0
⎜ ⎟
MB→C = ⎝ 2 −1 0 ⎠
3 3 −4

2. En R2 si denominamos por C a la base canónica y disponemos de las bases B = {(1, 2), (0, −1)}
y B 0 = {(1, 0), (1, 1)} (que hacen el papel, en la fórmula dada en la última propiedad anterior,
de B1 y B3 , respectivamente) se tiene que

MB→B0 = (MB0 →C )−1 · MB→C

Como à ! à !
1 0 1 1
MB→C = MB0 →C =
2 −1 0 1
necesitamos hallar la inversa de la última matriz. Basta realizar un sencillo cálculo (por ejemplo
mediante Gauss-Jordan basta con añadirle a la primera −1 por la segunda) para obtener que
à !
−1 1 −1
(MB0 →C ) =
0 1
Entonces concluimos que
à ! à ! à !
1 −1 1 0 −1 1
MB→B0 = · =
0 1 2 −1 2 −1

22
5 Ecuaciones de los subespacios
Supongamos que estamos en el espacio vectorial Rn . Supongamos ahora que tenemos un subespacio
U de Rn con una base u1 , ..., uk (aunque también es posible tomar un SG) de U . Si tenemos un
vector v ∈ Rn , para que v pertenezca a U debe ocurrir que este vector sea CL de los vectores
u1 , ..., uk , es decir, deben existir escalares α1 , ..., αk tales que v = α1 u1 + ... + αk uk . Suponiendo
que v = (x1 , ....., xn ) y que ui = (a1i , ....., ani ) para cada i = 1, 2, ..., k, e igualando coordenada a
coordenada, tendremos un sistema de ecuaciones de la forma


⎪ x1 = a11 α1 + a12 α2 + ... + a1k αk

⎨ x2 = a21 α1 + a22 α2 + ... + a2k αk
(∗)

⎪ ...


xn = an1 α1 + an2 α2 + ... + ank αk
A éstas las llamaremos ecuaciones paramétricas de U. A los escalares α1 , ..., αk que aparecen
en ellas se les llamará parámetros (son los números mediante los cuales se obtiene cada una de
las incógnitas x1 , x2 , ..., xn como CL de ellos). Finalmente, si eliminamos de forma ”adecuada” los
parámetros de estas ecuaciones, nos aparecerán lo que llamaremos ecuaciones implícitas de U, lo
cual se puede hacer de modo similar al que empleábamos para escalonar un sistema de vectores, sólo
que aquí escalonando los parámetros en las ecuaciones. Quedaría un sistema de la forma


⎪ c11 x1 + c12 x2 + ... + c1n xn = b11 α1 + b12 α2 + ... + b1k αk




⎪ c21 x1 + c22 x2 + ... + c2n xn =


b22 α2 + ... + b2k αk

⎪ ...



⎨ c x + c x + ... + c x =
k1 1 k2 2 kn n bkk αk

⎪ d11 x1 + d12 x2 + ... + d1n xn = 0



⎪ d12 x1 + d22 x2 + ... + d2n xn = 0





⎪ ...


⎩ d x + d x + ... + d x = 0
s1 1 s2 2 sn n

donde las últimas s ecuaciones serían las ecuaciones implícitas




⎪ d11 x1 + d12 x2 + ... + d1n xn = 0


⎨ d x + d x + ... + d x = 0
12 1 22 2 2n n

⎪ ...


⎩ d x + d x + ... + d x = 0
s1 1 s2 2 sn n

(notar que k + s = n).


Éstas se caracterizan porque son de la forma CL de las coordenadas x1 , ....., xn igualadas a 0 (lo
que se conoce como ecuaciones lineales homogéneas). En ellas no aparece ningún parámetro.
Observaciones:

1. Es conveniente indicar que un mismo subespacio puede estar representado por diferentes bases,
y por lo tanto por diferentes ecuaciones paramétricas o diferentes ecuaciones implícitas.

23
2. Cuando pasemos base a implícitas o viceversa, puede venir bien la comprobación de si los
vectores de la base (iniciales u obtenidos después) verifican las ecuaciones implícitas.

3. Dado U ≤ K n , si llamamos A a la matriz de coeficientes del sistema de ecuaciones implícitas


de U, (es decir U = ker A) debe cumplirse que

dim U + r(A) = n

Ejemplo:Consideremos el siguiente subespacio de R3

U =< (1, 0, 3), (−1, 2, −2) >

Vamos a hallar las ecuaciones paramétricas e implícitas de U. Tenemos, pues, dado el subespacio
mediante un SG
{(1, 0, 3), (−1, 2, −2)}
el cual es una base (como puede fácilmente comprobarse). Cojamos un vector ”genérico” (x, y, z) ∈ R3
e impongamos la condición de que pertenece a U. Entonces deben existir escalares λ, μ tales que
(x, y, z) = λ(1, 0, 3) + μ(−1, 2, −2), y esto se traduce en el sistema de ecuaciones paramétricas de U


⎨ x=λ −μ
y= 2μ


z = 3λ − 2μ

Entonces obtendremos las ecuaciones implícitas eliminnando los parámetros λ y μ.


⎧ ⎧

⎨ x = λ − μ ⎪
⎨ x=λ −μ
E3 − 3E1 y= 2μ E2 ←→ E3 z − 3x = μ

⎩ ⎪

z − 3x = μ y= 2μ
(
x=λ −μ
E3 − 2E2
z − 3x = μ
Luego la (única, en este caso) ecuación implícita de U es 6x + y − 2z = 0.
Aunque no es obligatorio, es sencillo comprobar que los dos vectores que había en la base de U,
(1, 0, 3) y (−1, 2, −2), cumplen la ecuación.
Ejemplo: Consideremos el siguiente subespacio de R3

U =< (−2, 4, 1) >

El vector dado constituye una base de U. Obtenemos el sistema de ecuaciones paramétricas de U




⎨ x = −2λ
y = 4λ


z=λ

24
Utilizando la última ecuación podemos eliminar el parámetro λ de las demás (añadimos a la primera
2 veces la tercera y a la segunda, 4 veces). Entonces tenemos
(
x + 2z = 0
y − 4z = 0

Éstas son las dos ecuaciones implícitas de U.


Aunque no es obligatorio, es sencillo comprobar que el vector que había en la base de U , (−2, 4, 1),
cumple las dos ecuaciones implícitas.
Se pueden obtener las ecuaciones implícitas de un subespacio U directamente a partir de una
base suya sin tener que obtener las ecuaciones paramétricas. Veámoslo en el siguiente ejemplo:
Ejemplo: Consideremos el siguiente subespacio de R4

U =< (1, 0, 3, 2), (0, −1, 1, 0) >

Vamos a hallar las ecuaciones implícitas de U. Construimos la matriz


⎛ ¯ ⎞
1 0 ¯¯ x
⎜ 0 −1 ¯ y ⎟
⎜ ¯ ⎟
⎜ ¯ ⎟
⎝ 3 1 ¯¯ z ⎠
2 0 ¯ t

la cual vamos a escalonar (observemos que se ponen los vectores por columnas, estando al final la
columna de las incógnitas; todo esto aunque las operaciones las vayamos a hacer como siempre por
filas. En este caso no es que estemos mezclando operaciones por filas y columnas, es solamente que
estamos realizando matricialmente las operaciones con los coeficientes de las ecuaciones paramétricas,
en vez de operar con éstas directamente). En primer lugar le añadimos a la tercera fila −3 veces la
primera, y a la cuarta −2 veces la primera, resultando
⎛ ¯ ⎞
1 0 ¯¯ x
⎜ 0 −1 ¯ y ⎟
⎜ ¯ ⎟
⎜ ¯ ⎟
⎝ 0 1 ¯¯ z − 3x ⎠
0 0 ¯ t − 2x

Seguidamente le sumamos a la tercera fila la segunda y sale


⎛ ¯ ⎞
1 0 ¯¯ x
⎜ 0 −1 ¯ y ⎟
⎜ ¯ ⎟
⎜ ¯ ⎟
⎝ 0 0 ¯¯ z − 3x + y ⎠
0 0 ¯ t − 2x

De aquí deducimos que las ecuaciones implícitas de U son

z − 3x + y = 0
t − 2x =0

25
Hemos visto cómo obtener las ecuaciones paramétricas a partir de una base (o un SG) del subes-
pacio, y cómo llegar a las ecuaciones implícitas a partir de las paramétricas. Nos faltan los dos pasos
inversos. Comencemos pasando de paramétricas a base (o SG):
Básicamente consiste en invertir los pasos que se han hecho para obtener las ecuaciones para-
métricas partiendo de una base. A partir de un sistema de ecuaciones paramétricas como el siguiente


⎪ x1 = a11 α1 + a22 α2 + ... + a1k αk

⎨ x = a α + a α + ... + a α
2 21 1 22 2 2k k

⎪ ...


xn = an1 α1 + an2 α2 + ... + ank αk
podemos obtener la siguiente relación

(x1 , ....., xn ) = α1 (a11 , ....., an1 ) + α2 (a12 , ....., an2 ) + ... + αk (a1k , ....., ank )

de donde deducimos que un SG de U (no necesariamente una base, pero del cual sabemos cómo
extraerla) sería

{u1 = (a11 , ....., an1 ) , u2 = (a12 , ....., an2 ) , ..., uk = (a1k , ....., ank )}

es decir, serían los vectores {u1 , u2 , ..., uk }.


El paso de implícitas a paramétricas se basa en utilizar el método de Gauss para triangularizar el
sistema de ecuaciones. Recordemos que el método consiste en, operando de forma adecuada, obtener
un sistema escalonado (de un modo bastante similar al que empleamos con sistemas escalonados de
vectores). Este sistema tendrá una matriz de coeficientes escalonada. De hecho se puede obtener
una matriz escalonada con diagonal principal no nula (salvo las filas completamente nulas). Una vez
con esta disposición, a los coeficientes de la diagonal principal los llamaremos pivotes, los cuales
se corresponderán con determinadas incógnitas del sistema. Cada una de éstas aparecerá en primer
lugar en alguna de las ecuaciones. Entonces se eligen como parámetros precisamente las restantes
incógnitas, para seguidamente despejar el resto de incógnitas en función de los parámetros.
Ejemplos:

1. Hallar una base y las ecuaciones implícitas del subespacio de R3




⎨ x =α−β
U1 : y = 3α + 2β


z = 5α
Una base es
{(1, 3, 5), (−1, 2, 0)}
Las ecuaciones implícitas resultan de escalonar (en esta ocasión cambio el orden de los paráme-
tros):
x = −β + α x = −β + α
y = 2β + 3α E2 + 2E1 y + 2x = 5α
z = 5α z = 5α

26
x = −β + α
E3 − E2 y + 2x = 5α
z − y − 2x = 0
Luego ya tenemos la ecuación implícita de U1

{z − y − 2x = 0

2. Hallar una base y las ecuaciones implícitas del subespacio de R3




⎨ x = −3α
U2 : y=0


z=α

Una base es
{(−3, 0, 1)}
Las ecuaciones implícitas resultan de escalonar (en esta ocasión cambio el orden de las ecua-
ciones):
z=α
E1 ←→ E3 y=0
x = −3α

z=α
E3 + 3E1 y=0
x + 3z = 0
Luego ya tenemos las ecuaciones implícitas de U2
(
y=0
x + 3z = 0

3. Consideremos el siguiente subespacio de R4


(
x − y + 3t = 0
U3 :
2x − y − z + 5t = 0

dado en ecuaciones implícitas. Vamos a hallar las ecuaciones paramétricas y una base de U3 .
Utilizaremos el método de Gauss. Fijando la primera ecuación vamos a proceder a eliminar la
incógnita x del resto de ecuaciones, en este caso de la segunda. Basta con añadirle a la segunda
−2 veces por la primera. Entonces obtenemos el sistema
(
x −2y +3t = 0
y −z −t = 0

27
el
à cual está ya escalonado,
! (esto se observa porque la matriz de los coeficientes resultante
1 −2 0 3
está escalonada). En la primera ecuación la incógnita que figura en
0 1 −1 −1
primer lugar es x, en la segunda es y, luego elegimos como parámetros a las dos últimas
incógnitas z, t. Entonces obtenemos x − 2y = 3t, y = z + t. De la última obtenemos que
x = 2y − 3t = 2z − t. Así tendremos las ecuaciones paramétricas de U3
⎧ ⎧

⎪ x = 2z − t ⎪
⎪ x = 2α − β

⎨ ⎪

y =z+t y =α+β
o bien, si ponemos z = α, t = β,
⎪ ⎪
⎪ z=z





z=α
t=t t=β

El paso de paramétricas a una base es sencillo pues, agrupando en forma de vector tendremos

(x, y, z, t) = (2z, z, z, 0) + (−t, t, 0, t) = z(2, 1, 1, 0) + t(−1, 1, 0, 1)

Esto prueba que {(2, 1, 1, 0), (−1, 1, 0, 1)} es un SG de U3 .


Habiendo elegido el método de triangulación de Gauss para pasar de implícitas a paramétricas,
está asegurado que este SG será una base del subespacio. (En el caso en que hagamos el paso
de paramétricas a un SG de modo directo (sin partir de las implícitas) lo que obtenemos será
un SG, que no puede asegurarse que sea base. En tal caso basta con sacar una base a partir
de él.)

4. Consideremos el siguiente subespacio de R3

U4 : {2x − y + 3z = 0

dado en ecuaciones implícitas. Vamos a hallar las ecuaciones paramétricas y una base de U4 .
Al emplear en este caso el método de Gauss, como sólo hay una ecuación (una fila) el sistema
ya está escalonado. Por tanto sólo hay un pivote, que se dejará a la izquierda. Por ejemplo nos
interesa quedarnos con la incógnita y a la izquierda, dejando las demás como parámetros. Así
quedará ⎧ ⎧

⎨ x = x ⎪
⎨ x=α
y = 2x + 3z o bien, si ponemos x = α, z = β, y = 2α + 3β

⎩ ⎪

z=z z=β
El paso de paramétricas a una base es sencillo pues, agrupando en forma de vector tendremos

(x, y, z) = (α, 2α, 0) + (0, 3β, β) = α(1, 2, 0) + β(0, 3, 1)

Esto prueba que {(1, 2, 0), (0, 3, 1)} es un SG de U4 , el cual es una base como sucede con el
ejemplo anterior.

28
5. Consideremos el siguiente subespacio de R3


⎨ −x − y + z = 0
U5 : x + 2y + 3z = 0


x+y+z =0
dado en ecuaciones implícitas. Vamos a hallar las ecuaciones paramétricas y una base de U5 .
Al emplear en este caso el método de Gauss, sumamos la primera ecuación a las otras dos.
Obtenemos ⎧

⎨ −x − y + z = 0
U5 : y + 4z = 0


2z = 0
De la tercera ecuación concluimos que z = 0. Al sustituir esto en la segunda vemos que y = 0.
Finalmente deducimos de la primera que x = 0. Así quedará


⎨ x=0
y=0


z=0
Éstas serían las ecuaciones paramétricas (ojo: sin parámetros). Y no obtendríamos base, pues
no sale ningún parámetro. Todas estas peculiaridades se dan porque U5 = 0, el subespacio
nulo.

6. Consideremos el siguiente subespacio de R4


(
x − y + 3t = 0
U6 :
x − 2y + 5t = 0
dado en ecuaciones implícitas. Vamos a hallar las ecuaciones paramétricas y una base de U6 .
Utilizaremos el método de Gauss. Fijando la primera ecuación vamos a proceder a eliminar la
incógnita x del resto de ecuaciones, en este caso de la segunda. Basta con restarle a la segunda
la primera. Entonces obtenemos el sistema
(
x − y + 3t = 0
U6 :
−y + 2t = 0
el cual está ya escalonado. Dejamos x e y en la parte izquierda, las cuales quedarán en función
de los parámetros. Ahora obtenemos que
(
x − y = −3t
U6 :
−y = −2t
Obtenemos que y = 2t, para después sustituir en la ecuación superior y deducir que x = y−3t =
2t − 3t = −t. Así conseguimos las siguientes ecuaciones paramétricas de U6


⎪ x = −t

⎨ y = 2t

⎪ z=z


t=t

29
El paso de paramétricas a una base es sencillo pues, agrupando en forma de vector tendremos

(x, y, z, t) = (0, 0, z, 0) + (−t, 2t, 0, t) = z(0, 0, 1, 0) + t(−1, 2, 0, 1)

Esto prueba que {(0, 0, 1, 0), (−1, 2, 0, 1)} es un SG de U6 . Y al ser LI, constituye además una
base del subespacio.
Nota: Es importante destacar en este ejemplo que la variable z, a pesar de no aparecer en las
ecuaciones implícitas, no tiene valor nulo, sino el de un parámetro.

7. En el espacio vectorial P3 de los polinomios de grado menor o igual que 3, hallar una base del
subespacio
W = {p(x) : p(−1) = 0, p0 (−1) = 0}
formado por los polinomios que tiene al −1 como raíz de multiplicidad al menos 2.
Poniendo p(x) = a + bx + cx2 + dx3 , tendríamos que p0 (x) = b + 2cx + 3dx2 , y por tanto
p(−1) = a − b + c − d y p0 (−1) = b − 2c + 3d. Entonces lo que tiene que cumplirse es
(
a−b+c−d=0
b − 2c + 3d = 0

Este sistema de ecuaciones (considerando las incógnitas a, b, c, d) constituye las ecuaciones


implícitas del subespacio W . Como ya está escalonado el sistema tomamos como parámetros c
y d y obtenemos de la última que b = 2c − 3d y de la primera que a = b − c + d = c − 2d. Por
tanto las ecuaciones paramétricas de W son


⎪ a = c − 2d

⎨ b = 2c − 3d

⎪ c=c


d=d

Para obtener una base tomaremos un vector genérico p(x) = a + bx + cx2 + dx3 ∈ P3 e
impondremos que pertenece a W utilizando la condición anterior de las ecuaciones paramétricas

p(x) = a + bx + cx2 + dx3 =


= (c − 2d) + (2c − 3d)x + cx2 + dx3 =
= (c + 2cx + cx2 ) + (−2d − 3dx + dx3 ) =
= c(1 + 2x + x2 ) + d(−2 − 3x + x3 )

de donde deducimos que una base de W está formada por los dos siguientes polinomios (vectores
del espacio vectorial P3 ) {1 + 2x + x2 , −2 − 3x + x3 }.

30
6 Suma e intersección de subespacios
Supongamos que tenemos dos subespacios vectoriales U y W de un espacio vectorial V . Llamaremos
suma de U y W al conjunto de vectores

U + W = {u + w|u ∈ U, w ∈ W }

Llamaremos intersección de U y W a la intersección como conjuntos, es decir, al conjunto

U ∩ W = {v ∈ V |v ∈ U, v ∈ W }

La definición de suma y de intersección de dos subespacios puede extenderse a cualquier número de


éstos, siendo el resultado nuevamente un subespacio del espacio vectorial inicial.
Propiedad: Dados dos (o más) subespacios vectoriales U y W de un espacio vectorial V se
verifica que tanto la suma U + W como la intersección U ∩ W son también subespacios de V .
Veamos ahora la forma de calcular la suma y la intersección:
Propiedad: Si C es un SG de U y C 0 es un SG de W entonces C ∪ C 0 es un SG de U + W .
Observación: Aunque estos sistemas generadores sean bases respectivas de U y W , en general
no se da que la unión sea una base de U + W , porque es posible que sea un sistema ligado. De
hecho, cuando la unión de dos bases de U y W es una base de U + W ocurre una situación (que más
adelante analizaremos) en la que se dice que la suma de los subespacios es directa.
Propiedad: Las ecuaciones implícitas de U junto con las de W constituyen unas ecuaciones
implícitas de U ∩ W .
Ejemplos:

1. Consideramos los subespacios de R4 siguientes

U =< (1, 2, 3, −2) > W =< (0, 1, 3, −1), (1, 1, 0, 5) >

Entonces U +W =< (1, 2, 3, −2), (0, 1, 3, −1), (1, 1, 0, 5) >. Luego un SG (y una base de U +W )
es
{(1, 2, 3, −2), (0, 1, 3, −1), (1, 1, 0, 5)}
Por tanto unas ecuaciones paramétricas de U + W son

x = α+γ
y = 2α + β + γ
z = 3α + 3β
t = −2α − β + 5γ

que en modo paramétrico expresamos así:


⎛ ¯ ⎞
1 0 1 ¯ x
¯
⎜ 2 1 1 ¯ y ⎟
⎜ ¯ ⎟
⎜ ¯ ⎟
⎝ 3 3 0 ¯ z ⎠
¯
−2 −1 5 ¯ t

31
Escalonando se tiene
⎛ ¯ ⎞
1 0 1 ¯¯ x
F2 − 2F1 ⎜
⎜ 0 1 −1 ¯¯ y − 2x ⎟

F3 − 3F1 ⎜ ¯ ⎟
⎝ 0 3 −3 ¯¯ z − 3x ⎠
F4 + 2F1
0 −1 7 ¯ t + 2x
y ¯
⎛ ⎞
1 0 1 ¯¯ x
F3 − 3F2 ⎜ 0 1 −1 ¯¯ y − 2x ⎟
⎜ ⎟
⎜ ¯ ⎟
F4 + F2 ⎝ 0 0 0 ¯¯ z + 3x − 3y ⎠
0 0 6 ¯ t+y
luego el subespacio U + W tiene por ecuación implícita

3x − 3y + z = 0

2. Consideramos los subespacios de R4 siguientes


(
x −2y +3t = 0 n
U: W: 6x +2y −z +t = 0 .
y −z −t = 0

Entonces ⎧

⎨ x−2y +3t = 0
U ∩W : y −z −t = 0


6x +2y −z +t = 0
Si queremos obtener una base de U ∩ W debemos resolver el sistema anterior. Para ello
aplicamos las siguientes transformaciones elementales:


⎨ x −2y +3t = 0
F3 − 6F1 y −z −t =0


14y −z −17t = 0

y seguidamente ⎧

⎨ x −2y +3t = 0
F3 − 14F2 y −z −t = 0


13z −3t = 0
o, lo que es lo mismo, cambiando el orden de las dos últimas variables


⎨ x −2y +3t =0
F3 − 14F2 y −t −z = 0


−3t 13z = 0

32
para así despejar las siguientes ecuaciones paramétricas de U ∩ W
7z
x = −
3
16z
y =
3
z = z
13z
t =
3
de donde obtenemos que una base de U ∩ W es

{((−7, 16, 3, 13)}

Puede comprobarse fácilmente que este vector pertenece tanto a U como a W , pues verifica las
ecuaciones implícitas de ambos subespacios (es decir, las ecuaciones implícitas de la intersección
U ∩ W ).

3. En R4 consideramos lo siguientes subespacios vectoriales

U =< (0, 1, −3, 4) > W = {(x, y, z, t) : x − y = 0, 3x + y − z = 0} S =< (−1, −1, −4, 2) >

Hallar una base de la suma U + W + S. Para ello necesitamos una base (o SG) de cada uno
de los subespacios. Como de U y S ya tenemos, sólo nos falta de W . Para éste resolvemos las
ecuaciones después de escalonar: cambiamos el orden de las ecuaciones y el de las incógnitas
para poner z la primera, y la segunda e y la tercera (t quedaría igual), y obtenemos
(
−z +y +3x =0
W: .
−y +x =0

Entonces tomando como parámetros x, t se tienen como ecuaciones paramétricas de W

x = x
y = x
z = y + 3x = 4x
t = t

y por tanto una base de W es {(1, 1, 4, 0), (0, 0, 0, 1}. Finalmente obtenemos un SG para
U + W + S:
{(0, 1, −3, 4), (1, 1, 4, 0), (0, 0, 0, 1), (−1, −1, −4, 2)}
del cual escalonando podríamos sacar una base. Esto se haría por ejemplo así: elegimos el
orden de los vectores así ⎛ ⎞
−1 −1 −4 2
⎜ 0 1 −3 4 ⎟
⎜ ⎟
⎜ ⎟
⎝ 0 0 0 1 ⎠
1 1 4 0

33
en donde le sumamos al cuarto el primero para obtener
⎛ ⎞
−1 −1 −4 2
⎜ 0 1 −3 4 ⎟
⎜ ⎟
F4 + F1 ⎜ ⎟
⎝ 0 0 0 1 ⎠
0 0 0 2
y eliminamos el último por ser múltiplo del tercero. Obenemos como base de U + W + S la
formada por los vectores

{(−1, −1, −4, 2), (0, 1, −3, 4), (0, 0, 0, 1}

4. Consideramos los subespacios de R3 siguientes

U = < (1, 2, −1), (3, 1, 2) >


n
W : 3x −y +z = 0

Para hallar la intersección de ambos debemos obtener las ecuaciones implícitas de U (porque
de W ya las tenemos). Sale sólo una que es
n
U : x −y −z = 0

Entonces (
x −y −z =0
U ∩W :
3x −y +z =0
Para hallar una base podemos escalonar. En este caso si le añadimos a la segunda -3 veces la
primera obtenemos que (
x −y −z =0
U ∩W :
2y +4z =0
de donde y = −2z y por tanto x = −z. Por tanto una base de U ∩ W es

{(−1, −2, 1)}

Propiedad: Sean U y W subespacios vectoriales de un espacio vectorial de dimensión finita V.


Entonces se verifica la fórmula de las dimensiones:

dim(U + W ) + dim(U ∩ W ) = dim U + dim W

Supongamos que tenemos dos subespacios vectoriales U1 , U2 de un espacio vectorial V . Se dice


que la suma de ambos subespacios (es decir, U1 + U2 ) es una suma directa cuando U1 ∩ U2 = 0, es
L
decir, cuando sólo tienen en común el vector nulo. En tal caso pondremos la suma así U1 U2 .
Observación: La definición anterior se extiende a varios subespacios del siguiente modo: Una
suma de varios subespacios es suma directa cuando al unir bases de cada uno de ellos obtenemos
un sistema LI (y por tanto una base de la suma). En el caso de 2 subespacios (y sólo en éste) esta
definición equivale con la otra anterior.

34
1. La suma es directa si y sólo si la dimensión de la suma es la suma de las dimensiones.

2. Cuando la suma es directa se tiene que todo vector de dicha suma se pone de modo único como
suma de vectores de cada uno de los subespacios.

Ejemplo: Comprobar si la suma de los subespacios dados en los 3 ejemplos es suma directa.

1. En el primer ejemplo la suma de los subespacios sí es suma directa, pues se puede comprobar
que los 3 vectores obtenidos al unir las bases de ambos subespacios (uno de U y dos de W ) sí
son LI.

2. En el segundo ejemplo la suma no es suma directa.

3. En el último ejemplo la suma de los 3 subespacios U + W + S no era suma directa pues para
la base de la suma nos sobraba algún vector (concretamente 1) después de unir bases de cada
uno de los 3 subespacios.

7 Operaciones en coordenadas
Supongamos que tenemos una base B = {v1 , v2 , ..., vn } de un espacio vectorial V . Muchas de las
cosas que hemos visto anteriormente para sistemas de vectores (hallar una base a partir de un SG, el
rango de un sistema de vectores, etc.) pueden hacerse en coordenadas respecto de la base B, es decir,
no es del todo necesario tener los vectores con los que tengamos que operar, es suficiente con tener
sus coordenadas respecto de la base B. Por ejemplo, supongamos que para un sistema de vectores

w1 , w2 , ..., wk

del espacio vectorial se conocen sus coordenadas respecto de la base B. Éstas coordenadas

(w1 )B , (w2 )B , ..., (wk )B

son realmente vectores de Rn . Pues bien:

• Los vectores w1 , w2 , ..., wk son LD o LI si y sólo si lo son (w1 )B , (w2 )B , ..., (wk )B (como vectores
de Rn ).

• La dimensión del subespacio W de V que generan w1 , w2 , ..., wk coincide con la dimensión del
subespacio U de Rn generado por (w1 )B , (w2 )B , ..., (wk )B

• Para hallar una base del subespacio anterior W es suficiente con hallar una base del subespacio
U anterior y coger los vectores de V cuyas coordenadas respecto de la base B son precisamente
las de los vectores de la base de U.

35
Ejemplo: Dada una base B = {v1 , v2 , v3 } de un espacio vectorial V vamos a determinar si el
sistema
{v1 + v2 , v1 + v3 , v2 + v3 }
es una base de V .
Hallemos las coordenadas de estos vectores respecto de la base B; éstas son

(1, 1, 0), (1, 0, 1), (0, 1, 1)

De modo que es suficiente ver si estos últimos vectores son una base de R3 . Al ser 3 vectores basta
ver si son LI. Para ello haremos operaciones en la matriz
⎛ ⎞
1 1 0
⎜ ⎟
⎝ 1 0 1 ⎠
0 1 1

Le añadimos a la segunda fila la primera multiplicada por −1 y nos sale


⎛ ⎞
1 1 0
⎜ ⎟
F2 − F1 ⎝ 0 −1 1 ⎠
0 1 1

Ahora le añadimos a la tercera fila la segunda y sale


⎛ ⎞
1 1 0
⎜ ⎟
F3 + F2 ⎝ 0 −1 1 ⎠
0 0 2

Como el sistema ha sido escalonado con éxito, los vectores (1, 1, 0), (1, 0, 1) y (0, 1, 1) son LI y por
tanto una base de R3 . Entonces el sistema de vectores {v1 + v2 , v1 + v3 , v2 + v3 } es una base de V .

36

You might also like