Professional Documents
Culture Documents
1 Diagonalização de Matrizes 2 × 2
1.1 Motivação
Vamos considerar o problema de encontrar as funções que dão a evolução das po-
pulações de duas espécies, S1 e S2 , convivendo em um mesmo ecossistema no tempo
t > 0. Vamos denotar as populações das espécies S1 e S2 em um instante t por x1 (t) e
x2 (t), respectivamente.
Inicialmente vamos supor que a taxa de crescimento da população de uma espécie não
depende do que ocorre com a outra espécie e que esta taxa é proporcional a sua população
existente (ou equivalentemente que a taxa de crescimento relativa é constante). Ou seja,
vamos supor que
1
2 1 DIAGONALIZAÇÃO DE MATRIZES 2 × 2
Vamos supor, agora, que as duas populações interagem de forma que a taxa de cresci-
mento da população de uma espécie depende de forma linear não somente da sua população
existente, mas também da população existente da outra espécie. Ou seja, vamos supor
que
Por exemplo, se os indivı́duos de uma espécie competem com os da outra por alimento
(a, d > 0 e b, c < 0), ou os indivı́duos da espécie S1 são predadores dos da outra (a, b, d > 0
e c < 0). Neste caso a solução de uma equação depende da outra. Podemos escrever este
sistema na forma de uma equação diferencial matricial
em que · ¸ · ¸ · ¸
0 x01 (t) a b x1 (t)
X (t) = , A= e X(t) = .
x02 (t) c d x2 (t)
Vamos supor que existam matrizes P e D tais que
A = P DP −1 , (2)
· ¸
λ1 0
em que D = . Substituindo-se (2) em (1) obtemos
0 λ2
X 0 (t) = P DP −1 X(t).
Y 0 (t) = DY (t),
c1 e λ1 t
· ¸
X(t) = P Y (t) = P .
c2 e λ2 t
· ¸ · ¸
v 1 w1 v1
Se P = , ou seja, se as colunas da matriz P são os vetores V = e
· v 2 w2
¸ v2
w1
W = , então a solução do sistema pode ser escrita como
w2
· ¸ · ¸ · ¸
x1 (t) λ1 t v1 λ2 t w1
= c1 e + c2 e
x2 (t) v2 w2
ou
x1 (t) = c1 v1 eλ1 t + c2 w1 eλ2 t e x2 (t) = c1 v2 eλ1 t + c2 w2 eλ2 t
Vamos descobrir como podemos determinar matrizes P e D, quando elas existem, tais
que A = P DP −1 , ou multiplicando à esquerda por P −1 e à direita por P , D = P −1 AP ,
com D sendo uma matriz diagonal. Chamamos diagonalização ao processo de encontrar
as matrizes P e D.
é diagonalizável, pois
A = (I2 )−1 AI2 ,
· ¸
1 0
em que I2 = é a matriz identidade 2 × 2.
0 1
Vamos supor inicialmente que a matriz A seja diagonalizável. Então existe uma matriz
P tal que
P −1 AP = D , (5)
em que D é uma matriz diagonal.
Vamos procurar tirar conclusões sobre as matrizes P e D. Multiplicando à esquerda
por P ambos os membros da equação anterior, obtemos
AP = P D . (6)
Sejam · ¸ · ¸
λ1 0 v 1 w1 £ ¤
D= e P = = V W ,
0 λ2 v 2 w2
· ¸ · ¸
v1 w1
em que V = eW = são as colunas de P . Por um lado
v2 w2
AP = A [ V W ] = [ AV AW ]
e por outro lado · ¸· ¸
v 1 w1 λ1 0
PD = = [ λ 1 V λ2 W ]
v 2 w2 0 λ2
Assim, (6) pode ser reescrita como
£ ¤ £ ¤
AV AW = λ1 V λ2 W .
Logo,
AV = λ1 V e AW = λ2 W.
Ou seja, as colunas de P , V e W , e os elementos da diagonal de D, λ1 e λ2 , satisfazem a
equação
AX = λX,
em que λ e X são incógnitas. Isto motiva a seguinte definição.
Definição 2. Um número
· ¸ real λ é chamado autovalor de uma matriz A, se existe um
x
vetor não nulo X = tal que
y
AX = λX . (7)
Um vetor não nulo que satisfaça (7), é chamado de autovetor de A.
*
© *
© ©©
*X
X ©© AX = λX AX = λX ©© X q©
*©
©
© *©
©
© ©
AX = λX ©©O
©
q q© ¼©
©
O O
(b) Para cada autovalor λ, os autovetores associados a λ são os vetores não nulos da
solução do sistema
(A − λI2 )X = 0̄ . (10)
então
(A − λ1 I2 )X = 0̄
é · ¸· ¸ · ¸
−2 −1 x 0
=
−4 −2 y 0
ou ½
−2x − y = 0
−4x − 2y = 0
cuja solução geral é
W1 = {(α, −2α) | α ∈ R}.
que é o conjunto de todos os autovetores associados a λ1 = 3 acrescentado o vetor nulo.
Agora,
(A − λ2 I2 )X = 0̄
é · ¸· ¸ · ¸
2 −1 x 0
=
−4 2 y 0
cuja solução geral é
W2 = {(α, 2α) | α ∈ R},
que é o conjunto de todos os autovetores associados a λ2 = −1 acrescentado o vetor nulo.
6 6
y y
W2
4 4
2 2 W = (1, 2)
0 0
x x
−2 −2 V = (1, −2)
AW
−4 −4
W1
AV
−6 −6
−6 −4 −2 0 2 4 6 −6 −4 −2 0 2 4 6
1.3 Diagonalização
Vamos enunciar e demonstrar o resultado principal. Já vimos que se uma matriz A é
diagonalizável, então as colunas da matriz P , que faz a diagonalização, são autovetores
associados a autovalores, que por sua vez são elementos da matriz diagonal D. Como a
matriz P é invertı́vel, estes 2 autovetores são L.I. (um vetor não é múltiplo escalar do
outro).
D = P −1 AP,
Como AV = λ1 V e AW = λ2 W , então
· ¸· ¸
v 1 w1 λ1 0
AP = A [ V W ] = [ AV AW ] = [ λ1 V λ2 W ] = = PD . (12)
v 2 w2 0 λ2
então
(A − λ1 I2 )X = 0̄
é · ¸· ¸ · ¸
0 1 x 0
=
0 0 y 0
ou ½
y = 0
0 = 0
Proposição 4. Seja A uma matriz 2 × 2 com entradas que são números reais. Se um
vetor Z = V + iW ∈ C2 é um autovetor de A associado ao autovalor λ = α + iβ, então
Z = V − iW também é um autovetor de A, mas associado a λ = α − iβ. Além disso, se
β 6= 0 então Z e Z são L.I.
Teorema 5. Seja A uma matriz não diagonal 2 × 2 com entradas que são números reais
e que possui um único autovalor λ. Sejam W = (w1 , w2 ) um vetor que não é autovetor
de A (AW· 6= λW ¸ ) (Por exemplo, E1 = (1, 0) ou E2 = (0, 1) satisfaz esta
· condição)
¸
v1 v 1 w1
e V = = (A − λI2 )W . Então, as matrizes P = [ V W ] = e
· ¸v2 v 2 w2
λ 1
J= são tais que
0 λ
J = P −1 AP.
· ¸
a b
Demonstração. Vamos escrever A = . Neste caso, o polinômio caracterı́stico
c d
de A é p(t) = det(A − t I2 ) = (a − t)(d − t) − bc = t2 − (a + d)t + (ad − bc). Como estamos
supondo que A tem somente um autovalor, então
a+d
λ= .
2
Assim, para este valor λ e usando (13) obtemos que
· 2
a + bc − 2λa + λ2
¸ · ¸
2 2 2 ab + bd − 2λb 0 0
(A − λI2 ) = A − 2λA + λ I2 = = .
ac + dc − 2λc bc + d2 − 2λd + λ2 0 0
Seja W = (w1 , w2 ) um vetor que não é autovetor de A. Portanto, ele não pertence ao
espaço solução de (A − λI2 )X = 0̄. Seja V = (v1 , v2 ) = (A − λI2 )W . Então
(A − λI2 )V = (A − λI2 )2 W = 0̄
AV = λV.
· ¸ · ¸
v 1 w1 λ 1
Assim P = [ V W ] = eJ= são tais que
v 2 w2 0 λ
· ¸
λv1 v1 + λw1
AP = A[ V W ] = [ AV AW ] = [ λV V + λW ] = = P J. (14)
λv2 v2 + λw2
Como V é autovetor de A, se W fosse um múltiplo escalar de V , então W também seria
um autovetor de A. Mas isto não ocorre pela definição do vetor W . Assim a matriz P é
invertı́vel e multiplicando-se a equação (14) à esquerda por P −1 obtemos o resultado.
Exemplo 6. Considere a matriz
· ¸
−1 1
A=
−1 −3
1.6 Resumo
Para diagonalizar uma matriz 2 × 2 não diagonal siga os seguintes passos:
(a) Determine o polinômio caracterı́stico p(t) = det(A − t I2 ).
(b) Se p(t) tem duas raı́zes reais (distintas) λ1 6= λ2 , então determine um autovetor
V = (v1 , v2 ) associado a λ1 , isto é, uma solução não trivial de (A − λ1 I2 )X = 0̄
e um autovetor W = (w1 , w2 ) associado a λ2 , isto é, uma solução não trivial de
(A − λ2 I2 )X = 0̄. Então
· ¸ · ¸
v 1 w1 λ1 0
P =[V W ]= e D=
v 2 w2 0 λ2
(d) Se p(t) tem somente uma raiz real λ. Seja W = (w1 , w2 ) um vetor não nulo que não
seja autovetor de· A (AW
¸ 6= λW ). Por exemplo, W = E1 = (1, 0) ou W = E2 =
v1
(0, 1). Seja V = = (A − λI2 )W . Então
v2
· ¸ · ¸
v 1 w1 λ 1
P =[V W ]= e J=
v 2 w2 0 λ
x1 (t) = c1 eat
x2 (t) = c2 edt .
em que a, b, c, d ∈ R com b ou c não nulos. Neste caso a solução de uma equação depende
da outra. Podemos escrever este sistema na forma de uma equação diferencial matricial
X 0 (t) = P DP −1 X(t).
4
y
0
x
−1
−2
−3
−4
−4 −3 −2 −1 0 1 2 3 4
4
y
0
x
−1
−2
−3
−4
−4 −3 −2 −1 0 1 2 3 4
X 0 (t) = P DP −1 X(t).
P −1 X 0 (t) = DP −1 X(t).
Y 0 (t) = DY (t),
y1 (t) = C1 eλt
y2 (t) = C2 eλt .
C1 eλt
· ¸
X(t) = P Y (t) = P .
C2 eλt
· ¸
v1 + iw1 v1 − iw1
Como P = , então as colunas da matriz P são os vetores V + iW =
· ¸ v 2 + iw2 v2 − iw2
· ¸
v1 + iw1 v1 − iw1
e V − iW = . Assim a solução geral nos complexos é dada por
v2 + iw2 v2 − iw2
· ¸ · ¸
λt v1 + iw1 λt v1 − iw1
X(t) = C1 e + C2 e (20)
v2 + iw2 v2 − iw2
c1 c2
Escrevendo a constante complexa em termos de constantes reais na forma C1 = −i
2 2
e escrevendo λ = α + iβ, obtemos
· ¸ ½ · ¸¾ ½ · ¸¾
x1 (t) (α+iβ)t v1 + iw1 (α+iβ)t v1 + iw1
= Re(C1 ) Re e − Im(C1 ) Im e
x2 (t) v2 + iw2 v2 + iw2
½ · ¸¾ ½ · ¸¾
v1 + iw1 v1 + iw1
= c1 Re e(α+iβ)t + c2 Im e(α+iβ)t
v2 + iw2 v2 + iw2
µ · ¸ · ¸¶ µ · ¸ · ¸¶
αt v1 w1 αt w1 v1
= c1 e cos βt − sen βt + c2 e cos βt + sen βt
v2 w2 w2 v2
(0) (0)
Se são dadas as condições iniciais x1 (0) = x1 e x2 (0) = x2 , então para determinarmos
c1 e c2 substituimos t = 0 na solução, ou seja,
· ¸ · ¸ · ¸ " (0) #
x1 (0) v1 w1 x1
= c1 + c2 = (0) .
x2 (0) v2 w2 x2
y
3
0
x
−1
−2
−3
−3 −2 −1 0 1 2 3
é diagonalizável e as matrizes
· ¸ · ¸ · ¸
1 1 λ1 0 −1 + 2i 0
P =[ZZ]= e D= =
1+i 1−i 0 λ1 0 −1 − 2i
2.5 y
1.5
0.5
0
x
−0.5
−1
−1.5
−2
−2.5
−2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
é diagonalizável e as matrizes
· ¸ · ¸ · ¸
1−i 1+i λ1 0 i 0
P =[ZZ]= e D= =
1 1 0 λ1 0 −i
A = P JP −1 . (21)
X 0 (t) = P JP −1 X(t).
P −1 X 0 (t) = JP −1 X(t).
Y 0 (t) = JY (t),
(c1 + c2 t)eλt
· ¸
X(t) = P Y (t) = P .
c2 eλt
· ¸ · ¸
v 1 w1 v1
Se P = , ou seja, se as colunas da matriz P são os vetores V = e
· v 2 w2
¸ v2
w1
W = , então
w2
· ¸ · ¸ · ¸
x1 (t) λt v1 λt w1
= (c1 + c2 t)e + c2 e .
x2 (t) v2 w2
(0) (0)
Se são dadas as condições iniciais x1 (0) = x1 e x2 (0) = x2 , então para determinarmos
c1 e c2 substituimos t = 0 na solução, ou seja,
· ¸ · ¸ · ¸ " (0) #
x1 (0) v1 w1 x1
= c1 + c2 = (0) .
x2 (0) v2 w2 x2
y
4
0
x
−1
−2
−3
−4
−4 −3 −2 −1 0 1 2 3 4
Comandos do MATLAB:
>>fluxlin(A) desenha algumas trajetórias que são soluções do sistema de equações dife-
renciais X 0 (t) = AX(t).
P =[ 1, -1]
[ 1, 1]
D =[ 2, 0]
[ 0, 0]
1.2. À A=sym([1,-1;2,4]);
À [P,D]=eig(A)
P =[ -1, 1]
[ 1, -2]
D =[ 2, 0]
[ 0, 3]
1.3. À A=sym([3,-4;1,-1]);
À [P,J]=jordan(A)
P =[ 2, 1]
[ 1, 0]
J =[ 1, 1]
[ 0, 1]
1.4. À A=sym([1,-1;5,3]);
À [P,D]=eig(A)
P =[ -1/5+2/5*i, -1/5-2/5*i]
[ 1, 1]
D =[ 2+2*i, 0]
[ 0, 2-2*i]
1.5. À A=sym([4,-2;8,-4]);
À [P,J]=jordan(A)
P =[ 4, 1]
[ 8, 0]
J =[ 0, 1]
[ 0, 0]
1.6. À A=sym([-1,-4;1,-1]);
À [P,D]=eig(A)
P =[ 2*i, -2*i]
[ 1, 1]
D =[ -1+2*i, 0]
[ 0, -1-2*i]
À [P,D]=eig(A)
· ¸
P = √4 √4
2 − a2 − 16
" −a√+ a − 16 −a #
a+ a2 −16
2
0
D= √
a− a2 −16
0 2
Se |a|· < 4: ¸
4
√ 4
√
P = 2 −a − i 16 − a2
−a + i 16 − a
" √ #
a+i 16−a2
2
0
D= √
a−i 16−a2
0 2
Se a = 4:
À [P,J]=jordan(subs(A,a,4))
P =[ 2, 1]
[ -2, 0]
J =[ 2, 1]
[ 0, 2]
Se a = −4:
À [P,J]=jordan(subs(A,a,-4))
P =[ -2, 1]
[ -2, 0]
J =[ -2, 1]
[ 0, -2]
À [P,D]=eig(A)
· √ √ ¸
−1 + 1 − 2a −1 − 1 − 2a
P =
2 2
· √ ¸
−1 + 1 − 2a 0
√
D=
0 −1 − 1 − 2a
Se a ·
> 1/2: √ √ ¸
−1 + i 2a − 1 −1 − i 2a − 1
P =
2 2
· √ ¸
−1 + i 2a − 1 0
√
D=
0 −1 − i 2a − 1
Se a = 1/2:
À [P,J]=jordan(subs(A,a,1/2))
P =[ 1, 1]
[ -2, 0]
J =[ -1, 1]
[ 0, -1]
1.9. À [P,D]=eig(A)
· √ √ ¸
−a + a2 + 1 −a − a2 + 1
P =
1 1
· √ ¸
2
3a + a + 1 0
D= √
0 3 a − a2 + 1
1.10. Se a > 0:
À [P,D]=eig(A)
√1
− √1a
· ¸
a
P =
· 1 √1 ¸
1+ a 0√
D=
0 1− a
Se a ·
< 0:
i √i
¸
− √−a −a
P =
1 1
· √ ¸
1 + i −a 0√
D=
0 1 − i −a
Se a = 0:
À A=subs(A,a,0)
À [P,J]=jordan(A)
P =[ 1, 0]
[ 0, 1]
J =[ 1, 1]
[ 0, 1]
2.7. Se
· |a| >¸ 4: √ · ¸
x(t) 2
( a+ a2 −16 )t √ 4
= c1 e +
y(t) −a + a2 − 16
√ · ¸
2
( a− a2 −16 )t √ 4
c2 e .
−a − a2 − 16
Se
· |a| <¸ 4: µ · ¸ · ¸¶
√ √ 0
x(t) at 16−a 2 4 16−a 2
√
= c1 e 2 cos( 2 t) − sen( 2 t) +
y(t) −a 16 − a2
√ √
µ · ¸ · ¸¶
at 0 4
c2 e 2 cos( 16 − a2 t) √ + sen( 16 − a2 t)
16 − a2 −a
Se
· a = ¸±4: · ¸ · ¸
x(t) ±2t ±2 ±2t 1
= (c1 + c2 t)e + c2 e
y(t) −2 0
2.8. Se
· a < ¸1/2: · √ ¸
x(t) √
(−1+ 1−2a)t −1 + 1 − 2a
= c1 e +
y(t) 2
· √ ¸
√
(−1− 1−2a)t −1 − 1 − 2a
c2 e .
2
Se
· a > ¸1/2: · √
√ √
µ · ¸ ¸¶
x(t) −1 2a − 1
= c1 e−t cos( 2a − 1t) − sen( 2a − 1t) +
y(t) 2 0
· √
√ √
µ ¸ · ¸¶
2a − 1 −1
c2 e−t cos( 2a − 1t) + sen( 2a − 1t)
0 2
Se
· a = ¸1/2: · ¸ · ¸
x(t) −t 1 −t 1
= (c1 + c2 t)e + c2 e
y(t) −2 0
· ¸ √
· √ ¸ √
· √ ¸
x(t) (3a+ a2 +1)t −a + a2 + 1 (3a− a2 +1)t −a − a2 + 1
2.9. = c1 e + c2 e .
y(t) 1 1
2.10. Se
· a > ¸0: · 1 ¸
√1
· ¸
x(t) √ √ √ −
= c1 e(1+ a)t a
+ c2 e(1− a)t a
.
y(t) 1 1
Se
· a < ¸0:
√ √ − √1−a
µ · ¸ · ¸¶
x(t) t 0 t
= c1 e cos( −at) − e sen( −at) +
y(t) 1 0
√ − √1−a √
µ · ¸ · ¸¶
t t 0
c2 e cos( −at) + e sen( −at) .
0 1
Se
· a = ¸0: · ¸ · ¸
x(t) t 1 t 0
= (c1 + c2 t)e + c2 e
y(t) 0 1
4 y
0
x
−1
−2
−3
−4
−4 −3 −2 −1 0 1 2 3 4
y
4
0
x
−1
−2
−3
−4
−4 −3 −2 −1 0 1 2 3 4
0
x
−1
−2
−3
−3 −2 −1 0 1 2 3
3 y
0
x
−1
−2
−3
−3 −2 −1 0 1 2 3
y
8
0
x
−2
−4
−6
−8
−8 −6 −4 −2 0 2 4 6 8
3 y
0
x
−1
−2
−3
−3 −2 −1 0 1 2 3
4 y
0
x
−1
−2
−3
−4
−4 −3 −2 −1 0 1 2 3 4
y
4
0
x
−1
−2
−3
−4
−4 −3 −2 −1 0 1 2 3 4
Referências
[1] Howard Anton and Chris Rorres. Álgebra Linear com Aplicações. Bookman, São
Paulo, 8a. edição, 2000.
[3] Morris W. Hirsch and Stephen Smale. Differential Equations, Dynamical Systems and
Linear Algebra. Academic Press, Inc., New York, 1974.
[4] Bernard Kolman. Introdução à Álgebra Linear com Aplicações. Prentice Hall do
Brasil, Rio de Janeiro, 6a. edição, 1998.
[5] Erwin Kreiszig. Matemática Superior. Livros Técnicos e Cientı́ficos Editora S.A., Rio
de Janeiro, 2a. edição, 1985.
[6] Steven J. Leon. Álgebra Linear com Aplicações. Livros Técnicos e Cientı́ficos Editora
S.A., Rio de Janeiro, 5a. edição, 1998.
[8] Jorge Sotomayor. Lições de Equações Diferenciais Ordinárias. IMPA, Rio de Janeiro,
1979.