PROBLEMAS DE AUTOVALORES ˜ GENERALIZADOS E APLICAC ¸ OES
Hamilton F. Leckar Departamento de Matem´atica Aplicada-UFF Rua M´ario Santos Braga, s/n 24020-140 Niter´oi (RJ) E-mail:
[email protected] Fax: 55 21 717 8269 Rubens Sampaio Departamento de Engenharia Mecˆanica-PUC-Rio Rua Marquˆes de S˜ao Vicente, 225 22451-900 Rio de Janeiro RJ E-mail:
[email protected] Fax: 55 21 3527 1162
Rio de Janeiro - fevereiro de 2000
Conte´ udo 1
Problemas de autovalores generalizados 1.1 Introdu¸c˜ ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Motiva¸c˜ ao ao estudo de problemas de autovalores generalizados . . . . . . . . . . . 1.3 Mudan¸ca de vari´ aveis. Pares equivalentes de matrizes. . . . . . . . . . . . . . . . . .
3 3 7 8
2
Decomposi¸ c˜ oes de uma matriz 2.1 Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Decomposi¸c˜ ao QR e de Schur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Decomposi¸c˜ ao em valores singulares . . . . . . . . . . . . . . . . . . . . . . . . . . .
17 17 21 26
3 Decomposi¸ c˜ oes de um Par de Matrizes 31 3.1 Decomposi¸c˜ ao generalizada de Schur . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.2 Subespa¸cos invariantes ou deflacionadores . . . . . . . . . . . . . . . . . . . . . . . . 37 4 Decomposi¸ c˜ oes de pares sim´ etricos 4.1 Decomposi¸c˜ oes de pares de matrizes sim´etricas . . . . . . . . . . . 4.2 Diagonaliza¸c˜ ao de um par de matrizes sim´etricas . . . . . . . . . . 4.3 Diagonaliza¸c˜ ao de pares sim´etricos de matrizes reais . . . . . . . . 4.4 A decomposi¸c˜ ao sim´etrica . . . . . . . . . . . . . . . . . . . . . . . 4.4.1 Forma canˆ onica de Jordan. . . . . . . . . . . . . . . . . . . 4.4.2 Forma canˆ onica de Jordan real. . . . . . . . . . . . . . . . . 4.5 Decomposi¸c˜ ao M = P −1 N ou M = N1 P1−1 , com fatores sim´etricos 5 Aplica¸ c˜ oes 5.1 Decomposi¸c˜ ao de um par de matrizes quadradas singulares de 5.1.1 Determina¸c˜ ao da matriz de congruˆencia U . . . . . . . 5.2 Um sistema massa-mola-pˆendulo . . . . . . . . . . . . . . . . ·· 5.3 A equa¸c˜ ao diferencial M X + C X˙ + KX = 0. . . . . . . . . . Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
43 44 48 51 54 54 55 61
ordem . . . . . . . . . . . . . . . .
4 . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
65 65 67 69 70 73
Pref´ acio
Problemas auto-valores generalizados s˜ao problemas de valores e vetores pr´oprios do seguinte tipo: Achar um par (v, λ) satisfazendo A v = λ B v sendo v uma matriz coluna n˜ ao nula e λ um n´ umero complexo. A e B s˜ao matrizes retangulares arbitr´arias. Denominamos ao λ auto-valor generalizado e v auto-vetor generalizado relativo `a λ. Relacionamos em seguida, alguns problemas que podem ser equacionados como problemas de auto-valores generalizados, na ´ area de Mecˆanica. 1. C´ alculo estrutural Estudo de vibra¸c˜ oes livres de uma estrutura, com ou sem pr´e-tens˜ao, n˜ao amortecida e sem movimento de rota¸c˜ ao. Procura-se os menores auto-valores ou aqueles que est˜ao num determinado intervalo, para saber se uma for¸ca excitadora pode gerar ressonˆancia, ou n˜ao. Nesse caso A ´e a matriz de rigidez (K), eventualmente aumentada pela matriz de rigidez geom´etrica, notada Kg , se a estrutura tem pr´e-tens˜ao. B corresponde `a matriz de massa (M ). O problema de auto valores generalizados neste caso ´e (K + Kg ) v = ω 2 M v (ω ´e igual a 2πf, sendo f a frequˆencia pr´opria ). 2. Determina¸c˜ ao do modo de flambagem linear Neste caso a aproxima¸c˜ ao que fornece a flambagem linear ´e talque v ´e o modo de flambagem associado ` a carga cr´ıtica λ. O problema ´e: K v = −λKg v com K matriz de rigidez, Kg matriz de rigidez geom´etrica gerada pelo campo de pr´e-tens˜ ao devido ` a carregamentos. 3. C´ alculo das velocidades cr´ıticas de um sistema em rota¸c˜ ao Neste caso A ´e a matriz de rigidez (K), B ´e a matriz de rigidez `a rota¸c˜ao Kr . A velocidade cr´ıtica de rota¸c˜ ao procurada, λ, ´e solu¸c˜ao do problema: K v = −λ2 Kr v . 4. Problemas acoplados Problemas de comportamento dinˆamico de uma estrutura que interage com um meio externo ou interno (pode ser um fluido, um material piezo-el´etrico, etc). Estas Notas tem como objetivo descrever de forma sistem´atica este assunto, tanto no seu aspecto te´orico como computacional. Descrevemos os principais resultados e indicamos algumas das principais aplica¸c˜ oes, que poder´ a ser de utilidade para pessoas que trabalham com este tipo de problemas, como por exemplo, aqueles que se dedicam a vibra¸c˜oes e controle. 2
Cap´ıtulo 1
Problemas de autovalores generalizados 1.1
Introdu¸ c˜ ao
Sejam M e N dois espa¸cos vetoriais, M de dimens˜ao m e N de dimens˜ao n sobre o corpo IF , o qual representa o corpo R dos n´ umeros reais ou o corpo C dos n´ umeros complexos. Sejam A e B aplica¸c˜ oes lineares definidas em M com valores no espa¸co N . Autovalores e autovetores generalizados O conjunto dos autovalores generalizados do par (A, B), denotado por σ (A, B), ´e constitu´ıdo dos n´ umeros complexos λ para os quais existe u ∈ M, n˜ao nulo, satisfazendo Au = λBu .
(1.1)
Se existe λ ∈ σ (A, B), todo vetor u n˜ ao nulo de M satisfazendo Au = λBu ´e denominado autovetor generalizado do par (A, B) correspondente a λ. Mais simplesmente, (λ, u) ´e denominado par caracter´ıstico de (A, B). Qualquer λ ∈ σ (A, B) define um subespa¸co vetorial de M Sλ = {u ∈ M : Au = λBu} denominado auto-espa¸co ou espa¸co caracter´ıstico de (A, B), correspondente a λ. A fim de simplificar a exposi¸c˜ ao, usaremos a seguinte nomenclatura: O problema de autovalores generalizados para (A, B) (ou problema Au = λBu) consiste na determina¸c˜ao dos conjuntos σ(A, B) e (se n˜ao vazio), Sλ para cada λ ∈ σ(A, B). O problema cl´ assico de autovalores Au = λu ´e um problema de autovalores generalizados para (A, B), no caso particular em que M = N e B = IdM (matriz identidade de M). Neste caso, σ(A, IdM ) coincide com o bem conhecido espectro σ(A) do operador A. O n´ ucleo de A ´e o subespa¸co vetorial de M constitu´ıdo dos vetores u ∈ M tais que Au = 0; denot´a-lo-emos por Nuc(A) . Exemplo 1.1 1) Se existir um vetor u n˜ ao nulo em Nuc (A), ent˜ ao Au = 0Bu e portanto 0 ∈ σ(A, B). 2) Se existir u n˜ ao nulo em Nuc (A) ∩ Nuc (B), ent˜ ao Au = λBu = 0, para todo λ ∈ C; portanto σ(A, B) = C. 3
3) Sendo A = B, temos que Au = λBu ´e equivalente a Au = λAu que por sua vez ´e equivalente a (1 − λ)Au = 0. Se Nuc (A) = {0}, u ´nica possibilidade de solu¸c˜ ao ocorre se λ = 1. Neste caso, temos σ(A, A) = {1} e S1 = M. Se Nuc (A) 6= {0}, o problema ter´ a solu¸c˜ ao para λ qualquer, logo teremos σ(A, A) = C e (
Sλ =
M λ=1 Nuc (A) λ = 6 1.
4) Caso em que Nuc (A) = {0} e A(M) ∩ B(M) = {0}. Temos que u ´e solu¸c˜ ao de Au = λBu somente se Au = Bu = 0. Logo, a injetividade de A, implica u = 0. Portanto, este ´e um caso em que σ(A, B) = ∅. Nota¸ c˜ oes e nomenclatura b´ asica Neste trabalho estaremos identificando os espa¸cos vetoriais R n e C n respectivamente com os espa¸cos vetoriais R n×1 e C n×1 das matrizes colunas de n linhas sobre R ou C, e transforma¸c˜ oes lineares de IF m em IF n , s˜ ao identificadas, por meio das bases canˆonicas desses espa¸cos, a matrizes retangulares sobre IF , de n linhas e m colunas. O espa¸co das matrizes de n linhas e m colunas(de ordem n × m) sobre IF ´e denotado por IF n×m . Por exemplo, se A ´e uma transforma¸c˜ao linear de IF m em IF n , para cada u de IF m , o elemento Au de IF n ´e identificado ` a matriz coluna AX de IF n×1 , produto da matriz A de IF n×m representante de A, pela coluna x1 x2 X= (1.2) .. . xm
representante de u. Em particular, a equa¸c˜ ao (1.1) se re-escreve nestas nota¸c˜oes, como AX = λBX . Uma matriz A em IF m×n ´e representada como A = [Aij ] de m linhas e n colunas onde Aij representa o elemento da linha i e coluna j; i varia de 1 `a m enquanto que j varia de 1 `a n. Se A1 , . . . , An pertencem a IF m , [A1 , . . . , An ] denotar´a a matriz A ∈ IF m×n tendo Aj como sua j-´esima coluna. X, Y, Z, W denotam elementos de IF n , pensados como colunas, por exemplo (1.2); A, B, C, D, E, IF denotam matrizes retangulares, eventualmente quadradas; K, L, M, N, O, P, Q, R, S, T, U, V denotam matrizes quadradas; 0 denota matriz nula, de ordem conveniente, em cada caso. Defini¸ c˜ ao 1.1 i. A transposta de uma matriz A de IF m×n ´e a matrix AT = [ATji ] de IF n×m cujo elemento da linha j e coluna i ´e o elemento da linha i e coluna j de A, ou seja, ATji = Aij ; n×m cujo elemento da linha j ii. A adjunta de uma matriz A de C m×n ´e a matriz AH = [AH ji ] ∈ IF e coluna i ´e o complexo conjugado do elemento da linha i e coluna j de A, ou seja, AH ji = Aij .
4
Defini¸ c˜ ao 1.2 Uma matriz A de ordem m × n ´e denominada i. diagonal se m = n e Aij = 0, se i 6= j; ii. triangular superior se Aij = 0, se i > j; iii. estritamente triangular superior se Aij = 0, se i ≥ j; iv. quase triangular superior ou Hessenberg superior se Aij = 0, se i > j + 1. A matriz identidade de IF n×n ´e I = [E1 , . . . , En ], onde cada coluna Ei possui 1 na linha i e possui 0 nas demais linhas. Denotamos por Λ = diag(λ1 , . . . , λn ) a matriz diagonal de IF n×n cujos elementos da diagonal principal Λii s˜ ao os λi . Defini¸ c˜ ao 1.3 Uma matriz quadrada M de ordem n ´e denominada i. sim´ etrica se M T = M ; ii. auto-adjunta ou hermiteana se M H = M ; iii. unit´ aria se M H M = M M H = I; iv. ortogonal se Mij ´e real e se M T M = M M T = I; v. normal se M H M = M M H ; vi. sim´ etica n˜ ao negativa definida ou sim´ etrica positiva semi-definida se M ´e real sim´etrica e para todo X de IF n , X H M X ´e real n˜ ao negativo; vii. sim´ etrica positiva definida se ´e auto-adjunta e se para todo X n˜ ao nulo de IF n , X H M X > 0; viii. invers´ıvel ou n˜ ao-singular se existe N ∈ IF n×n satisfazendo M N = N M = I; N ´e u ´nica, denominada inversa de M e denotada por M −1 . ix. singular se M n˜ ao ´e invers´ıvel. Defini¸ c˜ ao 1.4 (Equivalˆ encia) Sejam A e B matrizes m × n. Dizemos que A e B s˜ ao i. equivalentes se existe uma matriz quadrada invers´ıvel P de ordem m, uma matriz quadrada invers´ıvel Q de ordem n tais que PH A Q = B . ii. unitariamente equivalentes se existem duas matrizes unit´ arias, U de ordem m e V de ordem n, tais que UH A V = B . Defini¸ c˜ ao 1.5 (Similaridade e congruˆ encia) Sejam M e N matrizes quadradas de ordem n. Dizemos que M e N s˜ ao 5
i. similares se existe uma matriz invers´ıvel P de ordem n para a qual P −1 M P = N ; ii. congruentes se existe uma matriz invers´ıvel P de ordem n para a qual PH M P = N ; iii. unitariamente similares se existe uma matriz unit´ aria U de ordem n para a qual UH M U = N . Observa¸ c˜ ao 1.1 Assim como similaridade e congruˆencia, as rela¸c˜ oes introduzidas na defini¸c˜ ao m×n (1.4), s˜ ao rela¸c˜ oes de equivalˆencia sobre IF : i) Se P ∈ IF m×m , Q ∈ IF n×n e P H AQ = B, ent˜ ao sendo P e Q invers´ıveis, temos (P −1 )H BQ−1 = A ; pois (P H )−1 = (P −1 )H . ii) Se P, R ∈ IF m×m , Q, S ∈ IF n×n s˜ ao invers´ıveis e se P H AQ = B, RH BS = C ent˜ ao, C = RH BS = RH (P H AQ)S = (P R)H A(RS) onde P R ∈ IF m×m , QS ∈ IF n×n s˜ ao invers´ıveis. iii) (Im )H AIn = A. Nos casos de similaridade e congruˆencia, as equivalˆencias decorrem de (P Q)−1 = Q−1 P −1 e (P Q)H = QH P H . A seguinte no¸c˜ ao de equivalˆencia de pares de matrizes, desempenhar´a um papel bastante importante, simplificador e classificador, no estudo de problemas de autovalores generalizados, como veremos no desenvolvimento deste trabalho. e B e B e matrizes dadas de IF m×n . Os Defini¸ c˜ ao 1.6 (Equivalˆ encia de pares) i. Sejam A, A, e B) e s˜ pares (A, B) e (A, ao ditos equivalentes se existem P ∈ IF m×m e Q ∈ IF n×n n˜ ao singulares tais que e P H AQ = Ae e P H BQ = B. e B) e dizem-se unitariamente equivalentes . ii. Se P e Q s˜ ao unit´ arias, (A, B) e (A, f, N e N e matrizes dadas Defini¸ c˜ ao 1.7 (Similaridade e congruˆ encia de pares) Sejam M, M n×n f e em IF . Os pares (M, N ) e (M , N ) s˜ ao ditos:
i. similares se existe uma matriz quadrada invers´ıvel P , de ordem n, tal que f, e P −1 N P = N e; P −1 M P = M
ii. congruentes se se existe uma matriz quadrada invers´ıvel P , de ordem n, tal que f, e P H N P = N e. P HMP = M
Defini¸ c˜ ao 1.8 Um par (M, N ) ´e dito: i. sim´ etrico se M T = M e N T = N ; ii. sim´ etrico positivo definido se (M, N ) ´e sim´etrico e N ´e positiva definida. Observamos que, em geral, um par sim´etrico positivo definido ´e referido simplesmente como par sim´etrico. 6
1.2
Motiva¸ c˜ ao ao estudo de problemas de autovalores generalizados
Nesta se¸c˜ao, veremos como surge um problema M X = λN X, quando o m´etodo de separa¸c˜ao de vari´aveis ´e usado para resolver a equa¸c˜ ao diferencial N X˙ + M X = 0 e como uma mudan¸ca de vari´aveis na equa¸c˜ ao diferencial, nos leva a considerar problemas de autovalores para pares equivalentes mais simples do que o par (M, N ). A equa¸ c˜ ao diferencial N X˙ + M X = 0. Dadas M, N ∈ IF n×n , uma solu¸c˜ ao particular da equa¸c˜ao N X˙ + M X = 0
(1.3)
´e uma fun¸c˜ao vetorial continuamente diferenci´avel X : J → IF n onde J ´e um intervalo aberto n˜ ao vazio, satisfazendo para todo t ∈ J, N
dX(t) + M X(t) = 0 . dt
Mais precisamente, uma fun¸c˜ ao vetorial X : J → IF n a cada t ∈ J associa um vetor X(t) ∈ IF n que por sua vez corresponde a uma aplica¸c˜ ao de {1, 2, . . . , n} em IF , isto ´e, X(t) : {1, 2, . . . , n} → IF que ´e definida para cada i ∈ {1, 2, . . . , n} por X(t)(i) = Xi (t) = X(t, i) . Assim, uma fun¸c˜ ao vetorial X : J → IF n pode ser vista como uma fun¸c˜ao de duas vari´aveis (t, i) ∈ J × {1, 2, . . . , n} com valores em IF n . Podemos ent˜ ao reescrever a equa¸c˜ ao dada na forma de um sistema N
dX(t) (i) + M X(t)(i) = 0 , (1 ≤ i ≤ n) . dt
O m´etodo de separa¸c˜ ao de vari´ aveis consiste na pesquisa de solu¸c˜oes particulares desta equa¸c˜ ao, na forma X = α(t)Y (i) = α(t)Yi com α : J → IF , Y : {1, 2, . . . , n} → IF , tal que para todo (t, i) , com t ∈ J e i ∈ {1, 2, . . . n}, X(t, i) = α(t)Yi , ou equivalentemente, X(t) = α(t)Y , Y ∈ IF n . Substituindo na equa¸c˜ ao X = αY e observando que (N temos
dX(t) d[(N X)i ] )(i) = dt dt
dα (N Y )i + α(M Y )i = 0 dt
ou equivalentemente, dα N Y + αM Y = 0 . dt Da´ı, se existir λ ∈ C e Y ∈ IF n satisfazendo M Y = λN Y 7
(1.4)
(1.5)
ent˜ao, de (1.4), a fun¸c˜ ao X = αY ´e a solu¸c˜ao particular da equa¸c˜ao (1.3) se, e somente se, dα + λα = 0 ou N Y = 0 . dt Como
dα + λα = 0 se, e somente se, α = α0 e−λt , (α0 ∈ IF ), a solu¸c˜ao particular neste caso ser´ a dt X(t) = α0 e−λt Y .
Se N Y = 0, ent˜ ao a equa¸c˜ ao (1.4) se reduz a αM Y = 0 e portanto, com α(t) = 0 para todo t ∈ J, temos a solu¸c˜ ao particular de (1.3) X(t) = 0 , para todo t ∈ J . Se al´em de N Y = 0, tamb´em M Y = 0, a fun¸c˜ao X(t) = α(t)Y ´e solu¸c˜ao de (1.3) para qualquer α : J → IF continuamente diferenci´ avel. Em resumo, para que uma fun¸ca˜o X(t) = α(t)Y seja solu¸c˜ao particular da equa¸c˜ao (1.3), ´e suficiente que exista λ ∈ C e Y ∈ IF n tal que M Y = λN Y. A equa¸ c˜ ao diferencial N X (k) + M X = 0, (k > 1). Neste caso, com o tratamento an´alogo ao que foi dado ao caso k = 1, podemos encontrar solu¸c˜oes particulares desta equa¸c˜ ao na forma X(t) = α(t)Y , se existe um par caracter´ıstico (λ, Y ) do problema de autovalores generalizados para (M, N ) e α(t) ´e uma solu¸c˜ao da equa¸c˜ao diferencial dk α + λα = 0 . dtk
1.3
Mudan¸ ca de vari´ aveis. Pares equivalentes de matrizes.
Seja U uma matriz invers´ıvel de ordem n. Fazendo a substitui¸c˜ao Y = U −1 X, a equa¸c˜ao N
dX(t) dY (t) + M X(t) = 0 se torna N U + M U Y (t) = 0 . dt dt
Pr´e-multiplicando esta u ´ltima equa¸c˜ao por V H , com V invers´ıvel, temos equivalentemente a equa¸c˜ao dY (t) + (V H M U )Y (t) = 0 . (V H N U ) dt Assim, estamos diante de um problema de autovalores generalizados para o par (V H M U, V H N U ) o qual ´e equivalente ao par (M, N ). Admitindo que existe um par caracter´ıstico (λ, W ) para o problema (V H M U )W = λ(V H N U )W, ent˜ao (λ, U W ) ´e um par caracter´ıstico para o problema M X = λN X 8
Equa¸ c˜ ao caracter´ıstica de um par (M, N ) Sendo M e N matrizes quadradas de ordem n, existe um autovalor generalizado λ ∈ C para (M, N ), se e somente se, M −λN ´e singular. De outro modo, λ ∈ σ(M, N ) se, e somente se, det[M −λN ] = 0. A equa¸c˜ ao caracter´ıstica de (M, N ) ´e definida como det[M − λN ] = 0 .
(1.6)
O primeiro membro da equa¸c˜ ao det[M − λN ] = 0 pode ser desenvolvido como um polinˆomio p(λ), o qual ´e denominado polinˆ omio caracter´ıstico de (M, N ). f, N e ). Ent˜ Lema 1.1 Consideremos dois pares equivalentes (M, N ) e (M ao,
1. existe c ∈ IF , n˜ ao nulo, tal que f − λN e] ; det[M − λN ] = c det[M f, N e ). 2. σ(M, N ) = σ(M
Observa¸ c˜ ao 1.2 O lema 1.1 nos fornece uma forma mais imediata de obtermos σ(M, N ) no caso f, N e) ´ em que (M e um par de matrizes triangulares de ordem n, equivalente ` a (M, N ). De fato, temos f, N e) σ(M, N ) = σ(M f − λN e ]} = {λ ∈ C : det[M f11 − λN e11 ) . . . (M fnn − λN enn ) = 0} ; = {λ ∈ C : (M
donde se segue que f, N e) = { i) σ(M
g M ii g N ii
g g g :N ındice i de 1 ` a n; ii 6= 0}, se |Mii | + |Nii | > 0 para todo ´
g g f, N e ) = C, se para algum ´ındice i, tivermos M ii) σ(M ii = Nii = 0.
Como pode ser observado na tabela 1.1, a equa¸c˜ao caracter´ıstica de um par (M, N ) pode ser imposs´ıvel ou mesmo uma equa¸c˜ ao polinˆomial em λ de grau estritamente menor do que n.
(M, N ) equivalente a um par (Θ, Ω) de matrizes diagonais. Tomemos um par (M, N ) equivalente `a um par diagonal, isto ´e, um par de matrizes diagonais (Θ, Ω). Neste caso, as solu¸c˜ oes (λ, X) do problema M X = λN X s˜ao facilmente determinadas. Com efeito: Sejam Θ = diag(Θ1 , . . . , Θn ), Ω = diag(Ω1 , . . . , Ωn ) e X = [x1 , . . . , xn ]T . Ent˜ao, ΘX = λΩX se, e somente se,
(Θ1 − λΩ1 )x1
=0 .. .
(Θn − λΩn )xn = 0 .
Definamos os seguintes conjuntos de ´ındices ζ = {i : 1 ≤ i ≤ n, Ωi = 0} , ξ = {i : 1 ≤ i ≤ n, Ωi 6= 0} e η = {j ∈ ζ : Θj = 0} . 9
(1.7)
(M, N ) "
"
"
"
"
1 2 0 3
# "
1 0 0 1
# "
2 0 0 3
# "
1 0 0 0
# "
0 1 1 0
,
,
,
, # "
,
0 1 0 0
#!
0 0 0 1
#!
1 2 0 3
#!
0 1 0 0
#!
1 0 0 −1
det[M − λN ] = 0
σ(M, N )
3=0
∅
1−λ=0
{1}
λ2 − 3λ + 2 = 0
{1, 2}
0=0
C
−λ2 − 1 = 0
{−i, i} ⊂ C .
#!
Tabela 1.1: Polinˆ omio caracter´ıstico de alguns pares de matrizes quadradas. i) Se η 6= ∅, ent˜ ao σ(Θ, Ω) = C. Logo σ(A, B) = C e Sλ (A, B) possui elementos x1 .. X = . com xj 6= 0 se xn
j ∈ η.
Θk : k ∈ ξ} e Sλk possui elementos X com a Ωk coordenada xk 6= 0. Com efeito: Sendo η = ∅, ent˜ao Θi 6= 0 para todo i de 1 `a n. Ent˜ ao, i para todo i, Θi − λΩi = 0 se, e somente se, Ωi 6= 0 e λ = Θ . Equivalentemente, se i ∈ ξ e Ωi Θi λ = Ωi . Neste caso, λ 6= λk (k ∈ ξ) implica Θi − λΩi 6= 0 para todo i. Assim, a u ´nica solu¸c˜ ao de (1.7) ´e X = 0, portanto λ ∈ / σ(Θ, Ω).
ii) Se η = ∅, ent˜ ao σ(Θ, Ω) = σ(A, B) = {λk =
Com uma an´ alise semelhante, podemos mostrar que se (M, N ) ´e equivalente `a um par de matrizes triangulares (E, G), de mesma ordem, ent˜ao σ(E, G) = σ(M, N ) = C se para algum i = 1, 2, . . . , n, Ekk Eii = Gii = 0 ; e do contr´ ario, σ(E, G) = { : Gkk 6= 0} . Gkk Finalizamos esta se¸c˜ ao fazendo o coment´ario de que o exerc´ıcio 2 , p´agina 280 de [11] ´e falso. De fato, o u ´ltimo item da tabela 1.1 serve de contra-exemplo. Nos cap´ıtulos 3 e 4, ser˜ ao descritos teoremas que mostram equivalˆencia de determinadas classes de pares (M, N ) com pares triangulares ou diagonais. An´ alise de pares (M, N ) com N ou M n˜ ao singular Come¸camos tomando N n˜ ao singular. Neste caso, N X˙ + M X = N (X˙ + N −1 M X) d(N X) = N X˙ + (M N −1 )N X = + (M N −1 )(N X) . dt 10
Da´ı, uma fun¸c˜ ao X(t) ´e solu¸c˜ ao de N X˙ + M X = 0 se, e somente se, a mesma tamb´em ´e solu¸c˜ ao −1 ˙ da equa¸c˜ao X + N M X = 0, ou ainda com a mudan¸ca de vari´avel Y = N X, se e somente se, Y ´e solu¸c˜ao da equa¸c˜ ao Y˙ + (M N −1 )Y = 0. Em resumo, temos N X˙ + M X = 0 ⇔ X˙ + N −1 M X = 0 ⇔ Y˙ + (M N −1 )Y = 0 , (Y = N X) . Assim, os problemas de autovalores respectivos, M Z = λN Z, N −1 M Z = λZ e M N −1 Z = λZ s˜ao equivalentes, ou seja, os pares seguintes s˜ao equivalentes: (M, N ), (N −1 M, I) e , (M N −1 , I) . Consequentemente, temos as seguintes igualdades: σ(M, N ) = σ(N −1 M, I) = σ(N −1 M ) = σ(M N −1 , I) = σ(M N −1 ) e Sλ (M, N ) = Sλ (N −1 M, I) = N Sλ (M N −1 , I), para cada λ ∈ σ(M, N ) . A discuss˜ao acima pode ser resumida no seguinte Lema 1.2 Seja (M, N ) um par de matrizes quadradas em IF n×n sendo N invers´ıvel. Ent˜ ao, os seguintes pares (M, N ) , (N −1 M, I) e , (M N −1 , I) 1. s˜ ao equivalentes, 2. possuem o mesmo espectro σ(M, N ), o qual ´e n˜ ao vazio, e para cada λ de σ(M, N ), temos Sλ (M, N ) = Sλ (N −1 M, I) = N Sλ (M N −1 , I) . Consideremos agora que M seja n˜ ao singular. Neste caso temos os pares equivalentes: (M, N ) , (I, M −1 N ) e (I, N M −1 ) . Temos tamb´em nesse caso σ(M, N ) = {λ−1 : 0 6= λ ∈ σ(M −1 N )} = {λ−1 : 0 6= λ ∈ σ(N M −1 )} . Na verdade, λ = 0 ∈ / σ(M, N ) pois M X = 0 ⇔ X = 0. Se (λ, X) ´e auto-par de (M, N ) com λ 6= 0, ent˜ao M X = λN X ⇔ λ−1 X = M −1 N X ⇔ M X = λN M −1 (M X) ⇔ λ−1 (M X) = (N M −1 )(M X). Al´em disso, se λ ∈ σ(M, N ), ent˜ ao Sλ (M, N ) = Sλ−1 (M −1 N ) = M Sλ−1 (N M −1 ) . Temos ent˜ ao o seguinte, Lema 1.3 Sejam (M, N ) pares de matrizes de IF n×n , onde M ´e n˜ ao singular. Ent˜ ao: 1. os pares (M, N ) , (I, M −1 N ) e (I, N M −1 ) s˜ ao equivalentes, 11
2. σ(M, N ) = {λ = µ−1 : µ ∈ σ(M −1 N ) = σ(N M −1 )} . Al´em disso, se σ(M, N ) ´e n˜ ao vazio, ent˜ ao, para cada λ ∈ σ(M, N ) Sλ (M, N ) = Sλ−1 (M −1 N ) = M Sλ−1 (N M −1 ) . Lema 1.4 Sejam (M, N ) pares de matrizes quadradas de IF n×n onde N ´e n˜ ao singular. Ent˜ ao, s˜ ao equivalentes: 1. (M, N ) ´e equivalente a um par (Λ1 , Λ2 ) de matrizes diagonais; 2. M N −1 ´e similar a uma matriz diagonal Λ. Nota 1.1 a) Uma matriz M ∈ IF n×n similar a uma diagonal ´e denominada simples ou diagonaliz´ avel. Deste modo, o lema implica que: Um par (M, N ) com N n˜ ao singular ´e equivalente a um par diagonal se, e somente −1 se, M N ´e diagonaliz´ avel. b) Existe P n˜ ao singular tal que P −1 M N −1 P ´e uma matriz diagonal Λ se, e somente se, (N −1 P )−1 (N −1 M )(N −1 P ) = Λ . Ent˜ ao, M N −1 ´e diagonaliz´ avel se, e somente se, N −1 M ´e diagonaliz´ avel . Prova: (do lema 1.4) Suponhamos (M, N ) equivalente a (Λ1 , Λ2 ). Da´ı, existem U, V ∈ IF n×n tais que V H M U = Λ1 e V H N U = Λ2 , com U e V n˜ao singulares. Ent˜ao, V H M = Λ1 U −1 e N −1 = U Λ2 −1 V H , donde V H M N −1 = (Λ1 U −1 )(U Λ2 −1 V H ) = Λ1 Λ2 −1 V H e portanto, V H M N −1 (V H )−1 = Λ1 Λ2 −1 . Mais explicitamente, seja Λ := Λ1 Λ2 −1 com Λ2 −1 = diag(γ1 −1 , . . . , γn −1 ). Ent˜ao, com T := −H V = (V H )−1 , temos T −1 (M N −1 )T = Λ, mostrando que M N −1 ´e similar a Λ. Reciprocamente, se M N −1 ´e similar a uma diagonal Λ, existe T ∈ IF n×n n˜ao singular tal que −1 T (M N −1 )T = Λ. Escrevendo-se V = T −H e U = N −1 T , temos V H N U = T −1 N N −1 T = I e V H M U = T −1 M N −1 T = Λ, mostrando que (M, N ) ´e equivalente a (Λ, I), o que completa a demonstra¸c˜ ao do lema.
Observa¸ c˜ ao 1.3 i) Do lema 1.4 temos: Se Λ1 = diag(δ1 , . . . , δn ) e Λ2 = diag(γ1 , . . . , γn ), ent˜ ao
Λ = diag
δ1 δn ,..., . γ1 γn
ii) O lema ainda ´e v´ alido para N −1 M em lugar de M N −1 e analogamente, para M −1 N e N M −1 no caso em que M ´e n˜ ao singular. 12
Lema 1.5 Seja T ∈ IF m×n triangular superior. 1. Se S ∈ IF n×p ´e triangular superior, ent˜ ao T S ´e triangular superior; 2. Se S ∈ IF n×p ´e quase triangular superior, ent˜ ao T S ´e quase triangular superior. Prova: Sejam S = [Sij ]n×p e T = [Tij ]m×n . Provemos a primeira afirma¸c˜ ao: Por defini¸c˜ao de produto de matrizes, temos (T S)ij =
n X
Tik Skj =
k=1
i−1 X
Tik Skj +
k=1
n X
Tik Skj .
k=i
i−1 A hip´otese Tik = 0 se i > k, implica que k=1 Tik Skj = 0 e consequentemente, (T S)ij = Pn T S . k=i ik kj Sendo i > j, vemos que para todo k = i, . . . , n, necessariamente k > j, e por hip´otese, Skj = 0. Consequentemente, (T S)ij = 0 se i > j, ou seja T S ´e triangular superior. P Para provar a segunda parte, observamos que (T S)ij = nk=i Tik Skj , como no caso anterior, onde usamos o fato de T ser triangular superior. A hip´otese sobre S de ser quase triangular superior equivale a condi¸c˜ ao Suv = 0, para u > v + 1. Ent˜ao, se i > j + 1, temos que todo k = i, . . . , n satisfaz k > j + 1, da´ı Skj = 0 e portanto (T S)ij = 0, se i > j + 1. Isto prova que T S ´e quase triangular superior.
P
Coment´ ario 1.1 Tamb´em ´e valido o seguinte resultado: Se T ´e uma matriz quase triangular superior e S ´e triangular superior, ent˜ ao T S ´e quase triangular superior. Este resultado pode ser provado com pequenas modifica¸c˜ oes na demonstra¸c˜ ao de 2. do lema 1.5 . Lema 1.6 Seja T uma matriz quadrada de ordem n, n˜ ao singular e triangular superior. Ent˜ ao, T −1 ´e tamb´em triangular superior. Prova: Seja M = [Mij ] quadrada de ordem n, tal que T M = I. Ent˜ao, T M1 =
1 0 .. . 0
, . . . , T Mn =
0 0 .. . 1
.
δ1j .. Sendo T = [Tij ], temos T Mj = Ej , onde Ej = . . Assim, δnj
T11 M1j
+ T12 M2j T22 M2j
+ . . . + T1n Mnj + . . . + T2n Mnj
= δ1j = δ2j .. .
Tnn Mnj
= δnj
Como T ´e n˜ ao singular, temos Tkk 6= 0, para todo k = 1, . . . , n. 13
.
Se i > j, do sub-sistema Tii Mij
+
Tii+1 Mi+1j Ti+1i+1 Mi+1j
+ . . . + Tin Mnj + . . . + Ti+1n Mnj
Tnn Mnj
= 0 = 0 .. . = 0
temos Mnj = 0 decorrente de Tnn 6= 0. Portanto, Mn−1j = . . . = Mi+1j = Mij = 0 . Assim, M = T −1 ´e triangular superior.
Proposi¸ c˜ ao 1.1 Sejam M, N matrizes quadradas de ordem n, sendo N n˜ ao singular. 1. (M, N ) ´e equivalente a um par de matrizes triangulares superior se, e somente se, N −1 M ´e similar a uma matriz triangular superior; 2. (M, N ) ´e equivalente a um par (T, S), T quase triangular superior, S triangular superior se, e somente se, N −1 M ´e similar a uma matriz quase triangular superior. Prova: Segue-se dos Lemas 1.2, 1.4 e 1.6.
Exemplo 1.2
1) (M, N ) n˜ ao equivalente a um par diagonal: "
M=
0 1 0 0
#
"
1 2 0 3
, N=
#
.
Temos neste caso,
M N −1
0 = 0
# " 1 α 3 ; σ(M, N ) = {0} e S0 = { 0 : α ∈ IF }. 0
2) (M, N ) equivalente a um par diagonal: "
M=
0 1 0 0
#
"
1 2 1 3
, N=
#
.
Neste caso, "
α σ(M, N ) = {−1, 0}, S0 = { 0 e
"
S−1
α ={ β
#
: α ∈ IF }
#
: α + 3β = 0}.
Por exemplo, "
M
1 0
#
"
= 0N
1 0
#
"
e M 14
3 −1
#
"
= (−1)N
3 −1
#
;
ou seja, "
M ou
"
N
−1
#
1 3 0 −1
"
=N #
1 3 0 −1
M
#"
1 3 0 −1
"
=
1 3 0 −1
#
0 0 0 −1
#"
0 0 0 −1
#
e da´ı, "
#−1
1 3 0 −1
"
(N
−1
M)
1 3 0 −1
#
"
=
0 0 0 −1
#
1 3 0 −1
#
.
Tomando-se como na prova do lema 1.4 "
V
T
=
1 3 0 −1
N
temos " T
V MU =
#!−1
e U=
#−1
1 3 0 −1
"
"
N
−1
M
1 3 0 −1
#
"
=
,
0 0 0 −1
#
.
Temos tamb´em, V T N U = I. Nota 1.2 Para o item 2) do exemplo 1.2, vemos que a equa¸c˜ ao diferencial N X˙ + M X = 0 possui a seguinte solu¸c˜ ao geral: "
X(t) =
α 0
#
"
3 −1
+ βet
#
"
, ou seja, X(t) =
α + 3βet −αet
onde α, β s˜ ao constantes arbitr´ arias. Exemplo 1.3
1) M singular e N n˜ ao singular: Sejam as matrizes "
M=
1 2 0 3
#
"
e N=
0 1 0 0
#
.
Neste caso,
0
N M −1 =
0 Sendo
σ(I, N M −1 )
=
{λ−1
1 3 e σ(N M −1 ) = {0}.
0
: 0 6= λ ∈ σ(N M −1 )}, temos σ(M, N ) = ∅.
2) (M, N ) equivalente a um par de matrizes diagonais: Sejam "
M=
1 2 0 3
#
"
e N=
1 1 0 0
#
.
Ent˜ ao, 2 " # " # 1 − 3 1 1 1 1 −1 M N = = . 0 0 1 0 0 0 3
15
#
,
Obtemos por um c´ alculo direto σ(M −1 N ) = {0, 1}, σ(M, N ) = {1} e tamb´em, "
S0 (M "
Tomando U =
−1
α N) = { −α
temos V
: α ∈ R} e S1 (M
#
1 1 , temos U −1 (M −1 N )U = 0 −1 "
HMU
"
#
=I eV
HNU
=
−1
"
α N) = { 0
#
: α ∈ R} .
#
1 0 . Assim, com V H = (M U )−1 0 0
#
1 0 . 0 0
Nota 1.3 A equa¸c˜ ao diferencial N X˙ + M X = 0 (M e N do item 1) do exemplo acima) n˜ ao possui solu¸c˜ ao n˜ ao trivial da forma X = αY .
16
Cap´ıtulo 2
Decomposi¸ c˜ oes de uma matriz 2.1
Preliminares
Autovalores complexos de uma matriz real Toda matriz M ∈ C n×n possui n autovalores complexos λ1 , . . . , λn . Esses autovalores s˜ao ra´ızes da equa¸c˜ao polinomial de grau n det(M − λI) = 0 ( equa¸c˜ ao caracter´ısticadeM )
(2.1)
e portanto, n˜ao s˜ ao distintos em geral. Sendo λ autovalor de M , existe X n˜ao nulo em C n satisfazendo a equa¸c˜ao M X = λX, o qual denomina-se autovetor de M , associado ` a λ. Conv´em observar que, mesmo possuindo todos os seus elementos reais, uma matriz pode n˜ ao ter nenhum autovalor real. Tome por exemplo a matriz "
M=
0 1 −1 0
#
.
Temos neste caso, σ(M ) = {i, −i}, isto ´e, det(M − λI) = 0 se, e somente se, λ = i ou λ = −i. Observe que do fato de serem reais os elementos de uma matriz M , sua equa¸c˜ao caracter´ıstica possui coeficientes reais. Assim, a cada autovalor complexo λ de M , corresponde outro autovalor de M , o qual ´e λ, complexo conjugado de λ. Da´ı, sendo X = Y + iZ com Y e Z elementos de R n , um autovetor de M associado ao autovalor complexo λ, temos que X = Y − iZ ´e autovetor de M correspondente a λ. Lema 2.1 Seja M uma matriz quadrada real de ordem n. Suponha que λ = γ + iµ com γ e µ reais(µ 6= 0) ´e uma autovalor de M e que X = Y + iZ com Y e Z elementos de R n ´e um autovetor de M correspondente a λ. Ent˜ ao, 1. X e X s˜ ao linearmente independentes sobre o corpo C; 2. Y e Z s˜ ao linearmente independentes sobre o corpo R. Prova: Tomando o conjugado em M X = λX obtemos M X = λX. Da´ı, se a, b s˜ao complexos tais que aX + bX = 0, podemos pr´e-multiplicar ambos os membros desta igualdade por M , obtendo a igualdade aλX + bλX = 0. Por outro lado, sendo λ n˜ ao nulo, vem 0 = λ(aX + bX) = aλX + bλX . Subtraindo da´ı, a equa¸c˜ao aλX + bλX = 0, temos b(λ − λ) = 0, e portanto devemos ter b = 0. Ent˜ao, aX + bX = 0 17
se reduz a aX = 0, donde a ´e tamb´em nulo, do fato de X ser n˜ao nulo. Isto prova a primeira afirma¸c˜ao. Se para algum real t, tivermos Y = tZ, ent˜ao X = (t + i)Z, X = (t − i)Z e portanto (t + i)−1 X − (t − i)−1 X = 0, o que ´e um absurdo, contradizendo o item anterior, tendo em vista que X e X s˜ao linearmente independentes. Se por acaso tivermos Z = tY , para algum t real, tomando-se X = (1 + ti)Y e X = (1 − ti)Y , teremos (1 + ti)−1 X − (1 − ti)−1 X = 0. Isto tamb´em contradiz o item anterior. Consequentemente Y e Z s˜ ao linearmente independentes sobre os reais, provando assim, a segunda afirma¸c˜ ao.
Observa¸ c˜ ao 2.1 Sendo X = Y + iZ e X = Y − iZ, podemos escrever 1 2 [Y Z] = [XX] 1
2
−
i 2
.
i 2
Nas condi¸c˜ oes do lema 2.1, cada uma das trˆes matrizes ´e invers´ıvel. Produto interno canˆ onico e norma em IF n Defini¸ c˜ ao 2.1 O produto interno de dois elementos X e Y de IF n ´e definido como sendo o escalar X H Y de IF dado por X H Y :=
n X
xi yi .
i=1
Este produto possui as seguintes propriedades. (P1) linearidade no primeiro argumento: (cX + Y )H Z = cX H Z + Y H Z, onde c ∈ IF , X, Y e Z s˜ ao quaisquer de IF n . (P2) anti-simetria: X H Y = Y H X, para X e Y quaisquer de IF n . (P3) positividade: X H X ≥ 0 e X H X = 0 ⇔ X = 0 para qualquer X de IF n . Este ´e o produto interno canˆ onico de IF n . Desigualdade de Cauchy-Schwartz Para X e Y quaisquer de IF n : √ √ |X H Y | ≤ X H X Y H Y ( desigualdade de Cauchy-Schwartz .) 18
Defini¸ c˜ ao 2.2 A norma de um elemento X de IF n ´e definida como sendo o real n˜ ao negativo ||X|| dado por 2
H
||X|| := X X =
n X
xi xi .
i=1
Esta aplica¸c˜ao possui as seguintes propriedades fundamentais: (N1) ||X|| ≥ 0; ||X|| = 0 ⇔ X = 0, para qualquer X de IF n ; (N2) ||cX|| = |c|||X||, para c qualquer de IF e qualquer X de IF n ; (N3) ||X + Y || ≤ ||X|| + ||Y || para quaisquer X e Y de IF n . A aplica¸c˜ao ||·|| ´e a norma euclideana em IF n . Ortogonalidade Um elemento X ´e ortogonal ao elemento Y em IF n se XHY = 0 . Da propriedade (P 2) do produto interno em IF n , temos que se X ´e ortogonal a Y , ent˜ao Y ´e ortogonal a X. Em outros termos, podemos dizer que os elementos X e Y s˜ao ortogonais. Um elemento X de IF n ´e dito unit´ ario se ||X|| = 1. Um conjunto {X1 , X2 , . . . , Xk } de elementos de IF n ´e dito ortogonal se s˜ao ortogonais quaisquer dois elementos Xi e Xj do mesmo. Um conjunto {X1 , X2 , . . . , Xk } de elementos de IF n ´e dito ortonormal se o mesmo ´e ortogonal e cada um de seus elementos ´e unit´ ario. Uma consequˆencia destas no¸c˜ oes ´e a seguinte: Seja U = [X1 , X2 , . . . , Xk ] uma matriz de ordem n × k onde suas k colunas constituem um conjunto {X1 , X2 , . . . , Xk } ortonormal de IF n . Ent˜ao, U H U ´e igual a matriz identidade de ordem k . Em particular , se k = n, um conjunto {X1 , X2 , . . . , Xn } constitui uma base ortonormal de IF n se, e somente se, [X1 , X2 , . . . , Xn ]H [X1 , X2 , . . . , Xn ] = I, isto ´e, se [X1 , X2 , . . . , Xn ] ´e unit´aria. O complemento ortogonal de um subconjunto S qualquer de IF n , ´e o subespa¸co vetorial S ⊥ de IF n dado por S ⊥ = {Y ∈ IF n : Y ´e ortogonal a cada X de S} . Exerc´ıcio 2.1 Mostre que um vetor X de IF n e o produto U X de uma matriz unit´ aria U por X possuem a mesma norma: ||U X|| = ||X||. Norma espectral de uma matriz Defini¸ c˜ ao 2.3 A norma espectral de uma matriz A de ordem m × n ´e definida como sendo ||A X|| . X6=0 ||X||
||A||2 = sup
19
Norma de Frobenius de uma matriz O tra¸co de uma matriz M , de ordem m × n, ´e definido como sendo o escalar tr(M ) =
n∧m X
Mii .
i=1
onde n ∧ m representa o menor dos naturais m ou n. Definamos sobre IF m×n × IF m×n , o produto hN, M i = tr(M H N ) =
n X m X
Mij Nij .
j=1 i=1
para quaisquer duas matrizes M, N , de ordem m × n, sobre IF . Propriedades Para quaisquer matrizes M, N e P , de ordem m × n, sobre IF , temos (P1) hM, N i = hN, M i; hM + λP, N i = hM, N i + λ hP, N i ; (P2) hM, M i =
Pn
i,j=1 Mij Mij
≥ 0 ; hM, M i = 0, se e somente se, M = 0.
Consideremos para toda matriz quadrada M , de ordem n sobre IF , a seguinte fun¸c˜ao ||M || =
q
hM, M i =
q
tr(M H M ) =
q
v uX u n H tr(M M ) = t |Mij |2 . i,j=1
Propriedades Para qualquer matriz quadrada M , de ordem n, sobre IF , e qualquer escalar λ de IF , temos (N1) ||M || ≥ 0 ;
||M || = 0 se, e somente se, M = 0;
(N2) ||λM || = |λ|||M ||. Defini¸ c˜ ao 2.4 ||M || ´e denominada norma de Frobenius de M . Observamos que, se X = [x1 , x2 , . . . , xn ]T , pertence a IF n , temos X H X = hdiag(x1 , x2 , . . . , xn ), diag(x1 , x2 , . . . , xn )i = ||X||2 . Ent˜ao, ||diag(·)|| definida sobre IF n , coincide com a norma usual sobre IF n . Lema 2.2 Para M e N matrizes quadradas de ordem n sobre IF , vale ||M N || ≤ ||M ||||N || . Prova : Temos por defini¸c˜ ao, ||M N ||2 = |(M N )i,j | = |
Pn
2 i,j=1 |(M N )i,j |
. Mas,
Pn
k=1 Mik Nkj |
≤
Pn
≤
p Pn
k=1 |Mik ||Nkj |
(
q P n
2 k=1 |Mik | ) (
20
k=1 |Nkj |
2) .
Isto decorre de fato, da desigualdade de Cauchy-Schwartz. Para [a1 , . . . , an ]T e [b1 , . . . , bn ]T pertencentes a IF n , arbitr´arios, temos n X
ak bk ≤ |
n X
v v u n u n u X u X 2 t ak bk | ≤ ( |ak | )t( |bk |2 )
k=1
k=1
k=1
k=1
onde tomamos ak = |Mik | e bk = |Nkj |. Assim, P P P ||M N ||2 ≤ ni,j=1 (( nk=1 |Mik |2 )( nk=1 |Nkj |2 )) =
Pn
j=1 (
Pn
2 Pn (Pn 2 k=1 |Nkj | ) i=1 k=1 |Mik | )
= ||M ||2 ||N ||2 . A afirma¸c˜ao contida no lema 2.2 ´e tamb´em v´alida se M ´e retangular de ordem m × n e N de ordem n × k. A demonstra¸c˜ ao ´e obtida daquela feita para o caso m = n = k, com as devidas adapta¸c˜oes e ´e deixada como exerc´ıcio.
2.2
Decomposi¸ c˜ ao QR e de Schur
Teorema 2.1 (Gram-Schmidt) Seja M uma matriz quadrada n˜ ao singular, de ordem n sobre IF . Ent˜ ao, existe uma matriz unit´ aria U de ordem n, tal que o produto U H M ´e triangular superior. Mais explicitamente, existe uma matriz triangular superior T de ordem n tal que M = U T . Prova: Seja M = [M1 , M2 , . . . , MN ]. Sejam Tij e Ui , para i ≤ j, 1 ≤ j ≤ n, constru´ıdos do modo seguinte: M1 = T11 U1 M2
= T12 U1
+ T22 U2 (2.2)
.. . Mn = T1n U1 + T2n U2 . . . Tnn Un com Ui H Uj = δij ; para todos os i, j, 1 ≤ i, j ≤ n .. Esta constru¸c˜ ao ´e tal que U1 = q
U2 =
M1 H
q
, T11 =
M1 H M1 = ||M1 ||;
M1 M1
M2 − (U1 H M2 )U1 , T22 = ||M2 − (U1 H M2 )U1 ||, T12 = U1 H M2 ||M2 − (U1 H M2 )U1 || 21
(2.3)
e assim prosseguindo, Mk+1 − ki=1 (Ui H Mk+1 )Ui = P ||Mk+1 − ki=1 (Ui H Mk+1 )Ui || P
Uk+1 Tk+1
k+1
= ||Mk+1 − Ti
k+1
Pk
i=1 (Ui
H
Mk+1 )Ui ||
= Ui H Mk+1
para todos os ´ındices i variando de 1 at´e k, sendo 1 ≤ k ≤ n − 1. A verifica¸c˜ ao das rela¸c˜ oes (2.2) e (2.3) pode ser feita por substitui¸c˜ao direta. Segue-se de (2.3) que U H U = I e de (2.2) que M = U T onde T = [Tij ] com Tij = 0, se i > j.
Teorema 2.2 (Decomposi¸ c˜ ao de Schur) Dada uma matriz quadrada de ordem n sobre C, denotemos por D = diag(λ1 , λ2 , . . . , λn ) uma matriz diagonal contendo os autovalores de M , numa ordena¸c˜ ao fixada previamente. Ent˜ ao, existe uma matriz unit´ aria Q, de ordem n e uma matriz estritamente triangular superior T sobre C, tais que QH M Q = D + T . Prova: (Indu¸c˜ ao sobre n) O teorema ´e v´alido para n = 1 com Q = [1], D = M e T = [0]. Admitamos que para toda matriz quadrada de ordem k ≤ n − 1, o resultado seja v´alido. Tomemos ent˜ ao M de ordem n e seja (λ1 , λ2 , . . . , λn ) uma ordena¸c˜ao de seus autovalores. Seja X1 um autovetor unit´ ario de M associado ao autovalor λ1 , isto ´e, M X1 = λ1 X1 , com ||X1 || = 1. Completamos {X1 } a uma base de C n considerando {Y2 , . . . , Yn } uma base do complemento ortogonal em C n , de X1 (e tamb´em de M X1 ). Usando o processo de ortonormaliza¸c˜ao de GramSchmidt, teorema 2.1, obtemos uma matriz uni´aria U de ordem n. Escrevendo U = [X1 , Y2 , . . . , Yn ], temos: X1 H H λ1 H W Y 2 . UHMU = .. [M X1 , M Y2 , . . . , M Yn ] = .. . N 0 Yn H onde W pertence a C n−1 e N ´e uma matriz quadrada de ordem n − 1 sobre C. ´ claro que os autovalores de N s˜ E ao λ2 , . . . , λn , gra¸c˜a `a seguinte identidade do determinante de uma matriz em blocos: "
det
K B 0 L
#!
= det(K)det(L)
onde K e L s˜ ao matrizes quadradas de ordem l e n − l respectivamente. Escolhendo a ordena¸c˜ ao (λ2 , . . . , λn ) para os autovalores de N , a hip´otese de indu¸c˜ao nos garante e e uma matriz estritamente triangular superior Te, de ordem a existˆencia de uma matriz unit´ aria U n − 1, tais que eHNU e = diag(λ2 , . . . , λn ) + Te . U
22
Seja Q = U
1
0
e 0 U
. Temos da´ı,
QH M Q =
1
0
=
eH 0 U
1
λ1 .. . 0
0
λ1 .. = . 0
λ1 .. = . 0
=
1
H U MU
eH 0 U
WH
1
eHN U
0
e 0 U
WH N 0
e 0 U
1
0
e 0 U
WH
eHNU e U
λ1 0 . . . 0 0 λ2 . . . 0 .. .. . . . . .. . . 0 0 . . . λn
+
λ1 .. .
WH
0
N1
.
Nota 2.1 No caso em que M ´e real e todos os seus autovalores λ1 , λ2 , . . . , λn s˜ ao reais, isto ´e, σ(M ) ⊂ R, podemos mostrar que existe Q ortogonal de ordem n(Q ´e real e QT Q = I) e uma matriz T estritamente triangular superior tal que QT M Q = diag(λ1 , λ2 , . . . , λn ) + T . Teorema 2.3 (Decomposi¸ c˜ ao de Schur de matrizes reais) Para cada matriz quadrada M , de ordem n, cujas entradas s˜ ao todas reais, existe uma matriz ortogonal Q de ordem n sobre R, tal que R11 R12 . . . R1m T Q MQ =
0
R22 . . .
.. .
.. .
0
0
R2m .. .
. . . Rmm
onde Rkk ´e real de ordem 1, ou ´e real de ordem 2 possuindo autovalores complexos conjugados. Em particular, QT M Q ´e quase triangular superior. ao sobre o n´ umero k = k(M ), onde 2k ´e o n´ umero de autovalores complexos Prova: Usamos indu¸c˜ de M . 23
Se k = 0, o resultado ´e descrito na nota 2.1. Neste caso, os Rii s˜ao todos de ordem 1, para 1 ≤ i ≤ n = m. n Supomos ent˜ ao o teorema v´ alido para k = k0 , 1 ≤ k0 < . 2 Seja ent˜ ao dada M para a qual tenhamos k = k0 + 1 e sejam λ = γ + iµ com γ e µ reais(µ 6= 0) autovalor de M e X = Y + iZ com Y e Z em R n (Z n˜ao nulo), autovetor de M correspondente a λ. Ent˜ao, M X = M Y + iM Z = (γ + iµ)(Y + iZ) = (γY − µZ) + i(γZ + µY ) = λX. Da´ı, se S ´e o subespa¸co de R n gerado por {Y, Z}, temos M Y = γY − µZ e M Z = γZ + µY
(2.4)
e assim M S ⊂ S. Al´em disso, M S e S s˜ ao bi-dimensionais. De fato: Temos do lema 2.1, que {Y, Z} ´e linearmente independente. Ent˜ao, sendo a, b reais tais que aM Y + bM Z = 0 , das express˜ oes (2.4) para M Y e M Z, temos a(γY − µZ) + b(γZ + µY ) = 0 , ou seja, (aγ + bµ)Y + (−aµ + bγ)Z = 0 . Decorre da´ı que (a, b) deve satisfazer o sistema (
γa + µb = 0 −µa+ + γb = 0
o qual possui (0, 0) como u ´nica solu¸ca˜o, j´a que γ 2 + µ2 ≥ µ2 > 0. Da´ı, existe uma matriz ortogonal U de ordem n, tal que
T11 T12
UT MU =
0
T22
com T11 de ordem 2 sobre R, com espectro σ(T11 ) = {λ, λ} e T22 de ordem n − 2 sobre R. De fato: Seja {X1 , X2 } ortonormal obtido pelo teorema 2.1, tais que Y = R11 X1 e Z = R12 X1 + R22 X2 onde X1T X1 = X2T X2 = 1 e X1T X2 = 0.
Ent˜ao, {X1 , X2 } ´e base ortonormal de S e [Y Z] = [X1 X2 ]
R11 R12
0
R22
.
Seja U uma matriz ortogonal de ordem n, da forma [Y, Z, W3 , . . . , Wn ]. 24
Neste caso, [Y Z] = U
R11 R12 0 R22 0 0 .. .. . . 0 0 "
Substituindo este [Y Z] na equa¸c˜ ao M [Y Z] = [Y Z]
.
n×2
#
γ µ −µ γ
, a qual equivale a
M Y = γY − µZ, M Z = µY + γZ , temos =
MU
R11 R12 0 R22 0 0 .. .. . . 0 0
=U
=U
R11 R12 0 R22 0 0 .. .. . . 0 0
" # γ µ −µ γ
γR11 − µR12 µR11 + γR12 −µR22
γR22
0
0
.. .
.. .
0
0
.
Escrevemos
UT MU =
T11 T12
T21 T22
com T11 de ordem 2 e T22 de ordem n − 2. Efetuando o produto
T11 T21
T12 T22
0 0 .. . 0
e R11 e R22 R 21 0 = 0 .. . . ..
R11 R12
0 25
0
e 12 R
e 22 R 0 .. .
0
teremos
R11 R12
T21
e
0
T11
R22
= 0 (implicando que T21 = 0, posto que R11 R22 6= 0)
R11 R12
0
R22
R11 R12
=
0
γ
R22
µ
−µ γ
e 12 e 11 R R
=
e 22 e 21 R R
Assim,
σ(T11 ) = {λ, λ} = σ(
γ
µ
−µ γ
).
Sendo σ(M ) = σ(T11 ) ∪ σ(T22 ) ent˜ao, T22 satisfaz a hip´otese de indu¸c˜ao: k(T22 ) = k0 , portanto e de ordem n − 1 satisfazendo U eT MU e = S, com S quase triangular existe uma matriz ortogonal U superior em blocos diagonais reais, de ordem 1, ou ent˜ao, blocos diagonais reais de ordem 2, possuindo autovalores complexos conjugados. Ent˜ao, a matriz e) Q = U diag(I2 , U
satisfaz as exigˆencias do teorema. Com efeito: e T )U T M U diag(I2 , U e) QT M Q = diag(I2 , U
T11 T12
eT ) diag(I2 , U
0
T11
T12
0
e T T22 U
=
T11
=
2.3
e T12 U
0
T22
e T T22 U e U
e) = diag(I2 , U
I2 0
=
0 e U
e T11 T12 U
0
S
.
Decomposi¸ c˜ ao em valores singulares
Neste cap´ıtulo, estudamos uma decomposi¸c˜ao para uma matriz retangular, a qual possui grande importˆancia em ´ algebra linear aplicada, denominada decomposi¸c˜ ao em valores singulares. Tomemos uma matriz retangular A, de ordem m × n, e denotemos por m ∧ n, o menor dos inteiros m e n. A grosso modo, podemos descrever a decomposi¸c˜ao em valores singulares de A, da seguinte maneira: 26
Existem matrizes unit´ arias U e V de ordems n e m respectivamente, tais que A se escreve na forma AU = V Σ
(2.5)
onde Σ ´e uma matriz retangular de ordem m × n, possuindo diagonal constitu´ıda por reais n˜ ao negativos σ1 , σ2 , . . . , σm∧n e 0 nas suas demais entradas. Mais explicitamente, escrevamos U = [u1 , u2 , . . . , un ], atrav´es de suas colunas ui ∈ C n e analogamente, V = [v1 , v2 , . . . , vm ], com vi ∈ C m . Neste caso, a equa¸c˜ao (2.5) para m ∧ n = n, se escreve como A u1 = σ1 v1 A u2 = σ2 v2 (2.6)
.. . A um∧n = σm∧n vm∧n
Se m ∧ n = m, a equa¸c˜ ao (2.5) equivale as equa¸c˜oes (2.6) juntamente com as equa¸c˜oes seguintes
A um+1 = 0 A um+2 = 0 (2.7)
.. . A un = 0 ou seja, s˜ao nulas todas as colunas em (2.5), da m + 1 `a n − ´esima. A t´ıtulo de ilustra¸c˜ ao, notamos que se m ∧ n = m, a matriz Σ tem a forma seguinte: [diag(σ1 , σ2 , . . . , σm ), 0m×{n−m} ] =
27
σ1 0
0
...
σ2 . . .
.. .
.. .
0
0
0
0 ... 0
0
0 ... 0
.. .
.. .
.. .
. . . σm 0 . . . 0
(2.8)
No caso em que m ∧ n = n, a matriz Σ tem a forma: diag(σ1 , σ2 , . . . , σn ) = 0{m−n}×n
σ1 0
0
...
σ2 . . .
0 0
.. .
.. .
.. .
0
0
. . . σn
0
0
...
.. .
.. .
0
0
0 .. .
...
(2.9)
0
Os reais n˜ ao negativos σ1 , σ2 , . . . , σm∧n s˜ao denominados valores singulares de A, os vetores u1 , u2 , . . . , un s˜ ao denominados vetores singulares ` a direita de A, enquanto que v1 , v2 , . . . , vm denominam-se vetores singulares ` a esquerda de A. Observa¸ c˜ ao 2.2 A partir de (2.5), podemos deduzir imediatamente as seguintes propriedades: i) O posto da matriz A, rk(A)(dimens˜ ao da imagem de A), ´e igual ao n´ umero de valores singulares σi estritamente positivos de A. ii) Se denotamos, contando multiplicidade, os autovalores n˜ ao nulos de AH A, em ordem decrescente, por λ1 , λ2 , . . . , λr > 0, temos de (2.5), U H AH = ΣH V H
AU = V Σ, e da´ı,
U H AH A U = ΣH V H V Σ = ΣH Σ
(2.10)
e A AH = A U U H AH = V Σ ΣH V H , ou seja, V H A AH V = Σ ΣH .
(2.11)
Assim, de (2.10) e (2.11), temos que os autovalores n˜ ao nulos de AH A e A AH s˜ ao os mesmos, e na verdade coincidem com os quadrados dos valores singulares de A: λ1 = σ1 2 , λ2 = σ2 2 , . . . , λr = σr 2 > 0 . ´ claro que necessitamos compreender mais de perto a natureza desses elementos, associados ` E a decomposi¸c˜ ao em valores singulares de A. Por exemplo, os valores singulares s˜ao entes intr´ınsecos de A? O mesmo ocorre com os vetores singulares ? Com este objetivo, passamos em seguida ao enunciado e a uma demonstra¸c˜ao do nosso resultado principal: 28
Teorema 2.4 (Decomposi¸ c˜ ao em valores singulares) Seja A uma matriz retangular de ordem m × n com coeficientes reais, dada arbitrariamente. Ent˜ ao, existem matrizes U de ordem n e V de ordem m ortogonais e existem n´ umeros reais σ1 ≥ σ2 ≥ . . . ≥ σm∧n ≥ 0, tais que V T AU = Σ
(2.12)
onde Σ ´e a matriz de ordem m × n definida por Σij = σi
i=j
Σ =0 ij
i 6= j .
ao sobre a ordem de A) Seja σ1 := ||A||2 = sup||X||=1 ||A X|| . Prova: (Indu¸c˜ Como a esfera unit´ aria de R n , S = {X ∈ R n : ||X|| = 1} ´e compacta, segue do teorema de Weierstrass que existe um vetor unit´ ario u1 ∈ R n satisfazendo ||A||2 = ||A u1 ||. Em particular, σ1 > 0 se A 6= 0. Observamos que σ1 corresponde ao comprimento do maior semi-eixo do elips´oide generalizado E = {A X ∈ R m : ||X|| = 1}. Obviamente estamos supondo A 6= 0. Caso contr´ario, a decomposi¸c˜ao em valores singulares de A pode ser obtida, simplesmente com Σ = 0, U de ordem n e V de ordem m, ortogonais quaisquer. Assim, a primeira equa¸c˜ ao em (2.6), pode ser imediatamente satisfeita se definimos o vetor 1 unit´ario v1 por v1 = A u1 . σ1 Para obtermos o passo de indu¸c˜ ao, precisamos mostrar que o complemento ortogonal de R · n {u1 } = {αu1 : α ∈ R} em R , possui como imagem por A em R m , um subespa¸co ortogonal a R · {v1 } = {βv1 : β ∈ R}. Tomemos w2 ∈ R n unit´ ario ortogonal a u1 e mostremos que A w2 ´e ortogonal a v1 . Para isto, seja w = σ1 u1 + (A w2 · v1 )w2 . Ent˜ao, A w = σ1 2 v1 + (A w2 · v1 ) A w2 . Temos ||w||2 = σ1 2 + (A w2 · v1 )2 ||w2 ||2 = σ1 2 + (A w2 · v1 )2 , pois w2 foi tomado unit´ario. Por outro lado, ||Aw||2 = σ1 4 + 2 σ1 2 (A w2 · v1 )2 + (A w2 · v1 )2 ||A w2 ||2 ≥ σ1 4 + 2 σ1 2 (A w2 · v1 )2 + (A w2 · v1 )4 = (σ1 2 + (A w2 · v1 )2 )2 visto que |A w2 · v1 | ≤ ||Aw2 || (desigualdade de Cauchy-Schwarz). Da defini¸c˜ ao de σ1 temos σ1 2 ≥
||A w||2 ≥ σ1 2 + (A w2 · v1 )2 ||w||2
(2.13)
e portanto, temos A w2 · v1 = 0 , ou seja, A w2 ´e ortogonal a v1 . O mesmo ´e satisfeito se w2 n˜ ao ´e unit´ario. A partir desse resultado, podemos proceder indutivamente, para obter a decomposi¸c˜ao em valores singulares de A, determinando o segundo valor singular σ2 de A. Aplicamos o racioc´ınio anterior `a restri¸c˜ ao de A, ao complemento ortogonal de u1 em R n , cuja imagem est´a contida no complemento ortogonal de v1 em R m . 29
Notamos da´ı que σ2 ≤ σ1 , e assim sucessivamente. As matrizes U e V s˜ao tomadas, por exemplo, como sendo U = [u1 , u2 , . . . , un ] e V = [v1 , v2 , . . . , vm ], onde se m ∧ n = m, ent˜ao um+1 , . . . , un s˜ ao quaisquer tais que U ´e ortogonal, e se m ∧ n = n, ent˜ao vn+1 , . . . , vm s˜ao quaisquer tais que V ´e ortogonal. Os σi s˜ ao todos univocamente determinados por A, enquanto que o mesmo n˜ao ocorre com as matrizes U e V . Podemos ent˜ ao, dar como encerrada a prova do teorema. Nota 2.2 A demonstra¸c˜ ao aqui desenvolvida procura salientar o conte´ udo geom´etrico contido nas demonstra¸c˜ oes dadas em [4] e [10], por exemplo. O enunciado do teorema 2.4 pode ser modificado no caso complexo substituindo as palavras reais por complexas , ortogonais por unit´arias e tomando adjuntas em lugar de transpostas, com demonstra¸c˜ ao an´ aloga. 1. σ1 = ||A||2 (norma espectral de A);
Corol´ ario 2.1 2.
m∧n X
!1 2
σi 2
= ||A|| (norma de Frobenius de A).
i=1
30
Cap´ıtulo 3
Decomposi¸ c˜ oes de um Par de Matrizes Alguns resultados topol´ ogicos no espa¸ co da matrizes quadradas Denotemos por πij , para cada par de ´ındices i, j variando de 1 a n, a aplica¸c˜ao que associa a cada matriz M de ordem n, seu elemento Mij de IF . Temos que πij ´e linear, logo, cont´ınua sobre IF n×n , pois IF n×n tem dimens˜ ao finita n2 . Da´ı, os subespa¸cos Nuc(πij ) = {m ∈ IF n×n : Mij = 0} de IF n×n s˜ao fechados, para cada i, j (1 ≤ i, j ≤ n). Temos o seguinte Lema 3.1 Os subespa¸cos vetoriais de IF n×n S = {M : πij (M ) = 0, i > j} da matrizes triangulares superior e, Q = {M : πij (M ) = 0, i > j + 1} das matrizes quase triangulares superior, s˜ ao fechados. Consequentemente, o limite de qualquer sequˆencia de matrizes de S (de Q) convergente em IF n×n ´e um elemento de S (de Q). √ Como a norma da matriz identidade I de IF n×n vale ||I|| = n, o conjunto U da matrizes unit´arias U de IF n×n (U H U = I, o qual ´e um subgrupo do grupo das matrizes invers´ıveis de IF n×n ) ´e limitado em IF n×n . Lembramos que sobre qualquer espa¸co de dimens˜ao finita, todas as normas s˜ao equivalentes. Al´em disso, da continuidade da aplica¸c˜ ao de IF n×n em si mesmo, que a cada M associa M H M , temos que U ´e fechado. Mostremos que a aplica¸c˜ ao M → M H M ´e cont´ınua. Em primeiro lugar, temos que ´e cont´ınua a aplica¸c˜ao linear M → M H . A multiplica¸c˜ ao de IF n×n × IF n×n em IF n×n , (M, N ) 7→ M N tamb´em ´e cont´ınua, pois ´e uma aplica¸c˜ao bilinear. De fato, podemos escrever para (M0 , N0 ) e (M, N ) a seguinte igualdade M N − M0 N0 = M0 (N − N0 ) + (M − M0 )N . 31
Aplicando o lema 2.2, temos ||M N − M0 N0 || ≤ ||M0 ||||N − N0 || + ||M − M0 ||||N || . Ent˜ao, se ||M − M0 || → 0 e se ||N − N0 || → 0, teremos ||M N − M0 N0 || → 0, provando assim a continuidade do produto. Como composta do produto com o par de aplica¸c˜oes cont´ınuas ((·)H , I), temos que a aplica¸c˜ ao M 7→ M H M ´e cont´ınua. Portanto o subgrupo das matrizes unit´arias U ´e fechado em IF n×n . Estes fatos acarretam o seguinte Lema 3.2 O subgrupo das matrizes unit´ arias U = {M ∈ IF n×n : M H M = I} ´e compacto. O fato seguinte ´e tamb´em muito importante nesta teoria Lema 3.3 Toda matriz N de IF n×n ´e limite de uma sequˆencia de matrizes invers´ıveis de IF n×n , seja N invers´ıvel ou n˜ ao. Prova: Provaremos que existe uma sequˆencia (Nk )k≥1 de matrizes invers´ıveis, tais que limk→∞ Nk = N. Equivalentemente, que limk→∞ ||Nk − N || = 0. a) Se N ´e invers´ıvel, al´em da sequˆencia constante Nk = N , podemos tomar o seguinte exemplo: Seja Nk =
k N , para k ≥ 1. Temos k+1 ||N − Nk ||2 =
n X i,j=1
(Nij −
k k 2 ||N ||2 Nij )2 = (1 − ) ||N ||2 = . k+1 k+1 (k + 1)2
Da´ı, se k → ∞, temos ||Nk − N || → 0. b) Consideremos N singular e seja p o seu posto. Denotemos suas colunas por ηj , para 1 ≤ j ≤ n e suponhamos esta enumera¸c˜ ao escolhida de modo que as p primeiras colunas η1 , . . . , ηp sejam linearmente independentes. Neste caso, para todo l = p + 1, . . . , n, existem escalares clj , 1 ≤ j ≤ p para os quais, podemos escrever p ηl =
X
clj ηj .
j=1
Sejam η˜p+1 , . . . , η˜n elementos de IF n , de modo que {η1 , . . . , ηp , η˜p+1 , . . . , η˜n } ´e base de IF n . Isto consiste de completar o conjunto linearmente independente {η1 , . . . , ηp } a uma base de IF n , o que ´e um resultado b´asico de ´algebra linear. Consideremos ent˜ ao, as matrizes Nk , definidas da maneira seguinte: 1 1 Nk = [η1 , . . . , ηp , ηp+1 + (˜ ηp+1 − ηp+1 ), . . . , ηn + (˜ ηn − ηn )] . k k Podemos, da pr´ opria constru¸c˜ ao, mostrar que todas as matrizes Nk s˜ao invers´ıveis, 1 ≤ k ≤ n. 32
De fato: Fixemos k, 1 ≤ k ≤ n. Sejam c1 , . . . , cp , ep+1 , . . . , en escalares arbitr´arios e suponhamos que p n X X 1 ηj − ηj )) = 0 . ci ηi + ej (ηj + (˜ k i=1 j=p+1 Reescrevemos esta u ´ltima equa¸c˜ ao na forma seguinte: p X
ci ηi +
i=1
n n 1 X 1 X ej η˜j + (1 − ) ej ηj = 0 . k j=p+1 k j=p+1
Substituindo na terceira parcela da Eq. (3.1), ηj =
Pn
i=1 cji ηi ,
(3.1)
temos
p X
n n 1 X 1 X (ci + (1 − ) ej cji )ηi + ej η˜j = 0 . k j=p+1 k j=p+1 i=1
Sendo por constru¸c˜ ao, {η1 , . . . , ηp , η˜p+1 , . . . , η˜n } base de IF n , temos ej = 0,
j = p + 1, . . . , p
n 1 X ej cji = 0, c + (1 − ) i k
i = 1, . . . , p
j=p+1
o que tamb´em implica ci = 0 para 1 ≤ i ≤ p. Da´ı, do fato de as colunas de Nk , serem linearmente independentes, temos que as matrizes Nk s˜ao invers´ıveis. Al´em disso, p
z }| { 1
1 Nk − N = [0, . . . , 0, (˜ ηp+1 − ηp+1 ), . . . , (˜ ηn − ηn )] k k donde ||Nk − N ||2 =
n X 12
k j=p+1
||˜ ηj − ηj ||2 .
Finalmente, vem da´ı ||Nk − N ||2 =
n X 12
k j=p+1
||˜ ηj − ηj ||2 → 0 ;
quando k → ∞, o que prova o lema. Nota 3.1 Se ηi1 , . . . , ηip s˜ ao as colunas linearmente independentes de N , podemos escolher n − p colunas linearmente independentes η˜j1 , . . . , η˜jn−p , tais que ηi1 , . . . , ηip ; η˜j1 , . . . , η˜jn−p constitua uma base de IF n onde {i1 , . . . , ip , j1 , . . . , jn−p } = {1, . . . , n} e podemos definir a matriz Nk como Nk = [γ1 , . . . , γn ] onde para todo i, 1 ≤ i ≤ n, γ i = η is ,
se is = i para algum s = 1, . . . , p ;
γ =η , i is
se i = js0 para algum s0 = 1, . . . , n − p . 33
Observa¸ c˜ ao 3.1 A fun¸c˜ ao determinante, det, como uma fun¸c˜ ao escalar sobre IF n×n , ´e cont´ınua. n O subconjunto Iso(IF ) das matrizes invers´ıveis de ordem n sobre IF , que se identifica ao grupo linear de IF n , dos isomorfismos lineares de IF n , ´e constitu´ıdo das matrizes quadradas de determinante n˜ ao nulo. Isto ´e, Iso(IF n ) = det−1 (IF − {0}) . ´e imagem inversa de um subconjunto aberto de IF , portanto Iso(IF n ) ´e aberto em IF n×n . Recordamos a no¸c˜ ao de fecho ou aderˆencia de um subconjunto S de IF n×n . O fecho de S ´e o subconjunto S de IF n×n com a seguinte caracter´ıstica: Um elemento X de IF n×n pertence a S se e somente se, dado arbitrariamente um real ε > 0, existe ao menos um elemento Y em S com ||X − Y || < ε. Diz-se que um subconjunto S ´e denso em IF n×n se S = IF n×n . Com essas observa¸c˜ oes, podemos enunciar o lema 3.3 da maneira seguinte. Lema 3.4 Iso(IF n ) = IF n×n . Equivalentemente, podemos dizer que Iso(IF n ) ´e denso em IF n×n . Note que os Lemas 3.3 e 3.4 s˜ ao equivalentes.
3.1
Decomposi¸ c˜ ao generalizada de Schur
A decomposi¸c˜ ao dada no pr´ oximo teorema nos permite associar a um par qualquer de matrizes quadradas com elementos em C, um par de matrizes quadradas triangulares superior. Teorema 3.1 (Decomposi¸ c˜ ao generalizada de Schur) Sejam M e N matrizes quadradas de ordem n com elementos complexos. Existem matrizes unit´ arias Q e Z de ordem n e matrizes T = [Tij ] e S = [Sij ] triangulares superior, tais que QH M Z = T e
QH N Z = S .
Al´em disso, 1. Se Tij = Sij = 0 para algum ´ındice i, 1 ≤ i ≤ n, ent˜ ao σ(M, N ) = C. 2. Se Sij 6= 0 para todo ´ındice i, 1 ≤ i ≤ n, ent˜ ao σ(M, N ) = {
Tij : 1 ≤ i ≤ n} . Sij
Prova: Consideremos uma sequˆencia de matrizes complexas (Nk )k≥1 invers´ıveis, convergindo para N e seja para cada k ≥ 1, Qk H M Nk −1 Zk = Rk a decomposi¸c˜ ao de Schur de M Nk −1 , onde Qk ´e unit´aria e Rk ´e triangular superior. 34
Usando a decomposi¸c˜ ao de Gram-Schmidt, podemos escrever Zk H (Nk −1 Qk ) = Sk −1 onde Zk ´e unit´ aria e Sk −1 ´e triangular superior. Do lema 1.6, Sk ´e triangular superior. Ent˜ao, Qk H Nk Zk = Sk e Zk = Nk −1 Qk Sk e portanto, Qk H M Zk = Qk H M Nk −1 Qk Sk = Rk Sk ´e triangular superior. Por outro lado, do lema 3.2, o subconjunto U das matrizes complexas unit´arias de ordem n ´e compacto, portanto ´e tamb´em compacto o subconjunto produto U × U de C n×n × C n×n . Da´ı, a sequˆencia (Qk , Zk )k≥1 possui uma subsequˆencia (Qkj , Zkj )j≥1 , a qual converge para um par (Q, Z) de matrizes unit´ arias. Argumentando a partir da continuidade do produto de matrizes e da aplica¸c˜ao M → M H , podemos garantir as seguintes passagens ao limite: lim Qkj H M Zkj = QH M Z
j→∞
lim Qkj H N Zkj = QH N Z .
e
j→∞
Observando-se ainda que (Qkj H M Zkj )j≥1 e (Qkj H N Zkj )j≥1 s˜ao sequˆencias de matrizes triangulares superior, ent˜ ao QH M Z = T e QH N Z = S s˜ao triangulares superior, devido ao lema 3.1, isto ´e, as matrizes triangulares superior constituem um subespa¸co vetorial fechado de IF n×n . Temos ent˜ ao, det(T − λS) = det(QH (M − λN )Z) = det(QH )det(M − λN )det(Z) = ± det(M − λN ) . Como T e S triangulares superior, temos λ ∈ σ(M, N ) ⇔ (T11 − λS11 ) . . . (Tnn − λSnn ) = 0 . Se Tii = Sii = 0, para algum i = 1, . . . , n, temos que λ ∈ σ(M, N ) se, e somente se, λ ∈ C; isto ´e, σ(M, N ) = C. Se |Tii | + |Sii | > 0, para todo i, ent˜ ao, se Sii 6= 0 para algum i, Tii ∈ σ(M, N ) ; Sii se ocorrer Sii = 0 para todo i, ent˜ ao, necessariamente, σ(M, N ) = ∅. Reciprocamente, dado λ ∈ σ(M, N ), ent˜ao det(T − λS) = (T11 − λS11 ) . . . (Tnn − λSnn ) = 0 , o que acarreta a existˆencia de um ´ındice i entre 1 e n para o qual Tii − λSii = 0. Para este i, Tii devemos ter Sii 6= 0 e λ = . Sii 35
De fato: Se Sii = 0, da hip´ otese |Tii | + |Sii | > 0, ter´ıamos Tii 6= 0 e Tii − λSii = Tii 6= 0, o que seria contradit´ orio. Assim, neste caso
σ(M, N ) =
Tii : Sii 6= 0, i = 1, . . . , n . Sii
Teorema 3.2 (Caso real) Sejam M e N matrizes quadradas reais M e N de ordem n. Existem duas matrizes quadradas ortogonais Q e Z, de ordem n, tais que QT M Z ´e quase triangular superior e QT N Z ´e triangular superior. Prova: Consideremos uma sequˆencia (Nk )k≥1 de matrizes quadradas reais invers´ıveis convergindo para N . Seja para k ≥ 1, Qk uma matriz ortogonal de ordem n e Rk uma matriz quadrada real quase triangular superior, de tipo n, tais que Qk T (M Nk −1 )Qk = Rk
(3.2)
dada pela decomposi¸c˜ ao de Schur no caso real, teorema 2.3. Usando a decomposi¸c˜ ao de Gram-Schmidt, teorema 2.1, tomamos para cada k ≥ 1, uma matriz ortogonal Zk de tipo n e uma matriz real triangular superior invers´ıveis Sk , tais que Zk T (Nk −1 Qk ) = Sk −1 .
(3.3)
Assim, existem sequˆencias de matrizes ortogonais (Qk )k≥1 e (Zk )k≥1 tais que a) Qk T Nk Zk = Sk ´e triangular superior, de (3.3). b) Qk T M Zk = Rk Sk ´e quase triangular superior, do lema 1.5. Pelo lema 3.2, temos que o subgrupo O de R n×n das matrizes ortogonais ´e compacto. Da´ı, as sequˆencias (Qk )k≥1 e (Zk )k≥1 possuem subsequˆencias convergentes em O. Sejam (Qkj )j≥1 uma subsequˆencia de (Qk )k≥1 convergindo para Q ∈ O e (Zkj )j≥1 uma subsequˆencia de (Zk )k≥1 convergindo para Z ∈ O. Usando o fato de que toda subsequˆencia de (Nk )k≥1 converge para N e da continuidade do produto de matrizes e da aplica¸c˜ ao M → M T , temos (Qkj T M Zkj )j≥1 converge para QT M Z; (Qkj T Nkj Zkj )j≥1 converge para QT N Z. Do lema 3.1, os subespa¸cos de R n×n , das matrizes triangulares superior e das matrizes triangulares superior s˜ao fechados. Como para cada j, Qkj T M Zkj ´e quase triangular superior e Qkj T Nkj Zkj ´e triangular superior, temos que QT M Z ´e quase triangular superior e QT N Z ´e triangular superior, como quer´ıamos demonstrar.
36
3.2
Subespa¸ cos invariantes ou deflacionadores
Esta se¸c˜ao come¸ca com a seguinte observa¸c˜ao Observa¸ c˜ ao 3.2 i) Consideremos a decomposi¸c˜ ao generalizada de Schur para o par (M, N ). Podemos escrever QH M Z = T e QH N Z = S com Q = [q1 , . . . , qn ] e Z = [z1 , . . . , zn ] unit´ arias, T = [Tij ] e S = [Sij ] complexas de tipo n e triangulares superior. Reescrevendo estas equa¸c˜ oes na forma M Z = QT
e
N Z = QS ,
obtemos a seguinte descri¸c˜ ao
e
M z1
= T11 q1
Mz k
= T1k q1 + . . . + Tkk qk
N z1
= S11 q1
Nz k
= S1k q1 + . . . + Skk qk
1 ≤ k ≤ n,
1 ≤ k ≤ n,
considerando-se que T e S s˜ ao triangulares superior. Se Sk , Wk s˜ ao os subespa¸cos de C n gerados respectivamente por {z1 , . . . , zk } e {q1 , . . . , qk }, ent˜ ao M Sk + N Sk ⊂ Wk , 1 ≤ k ≤ n. Assim, em particular dim(M Sk + N Sk ) ≤ dim(Sk ) . ii) Se λ ∈ σ(M, N ), ent˜ ao M Sλ + N Sλ tem dimens˜ ao inferior ou igual a dimens˜ ao de Sλ . De fato: Se λ = 0, Sλ = Nuc(M ) = {X ∈ C n : M X = 0} e da´ı, M Sλ + N Sλ = N Sλ donde o resultado. Se λ 6= 0 e se Z ∈ M Sλ + N Sλ , existem X, Y ∈ Sλ tais que Z = M X + N Y. De Y ∈ Sλ , segue-se que M Y = λN Y donde Z = M X + λ−1 M Y ∈ M Sλ . Como X ∈ Sλ , tem-se que M X = λN X, logo Z = λN X +N Y ∈ N Sλ e portanto M Sλ +N Sλ ⊂ M Sλ ∩ N Sλ . Lema 3.5 Sejam M e N matrizes quadradas complexas de tipo n e seja S um subespa¸co vetorial de C n . Ent˜ ao, 1. se M invers´ıvel, ent˜ ao dim(M S + N S) ≤ dim(S) ´e equivalente a M −1 N S ⊂ S. 2. se N invers´ıvel, ent˜ ao dim(M S + N S) ≤ dim(S) ´e equivalente a N −1 M S ⊂ S. 37
Prova: a) N −1 M S ⊂ S ⇒ dim(M S + N S) ≤ dim(S). De fato: N −1 M S ⊂ S ⇔ M S ⊂ N S ⇔ M S + N S = N S. Da´ı, dim(M S + N S) = dim(N S) = dim(S). b) dim(M S + N S) ≤ dim(S) ⇔ N −1 M S ⊂ S. Suponhamos dim(M S + N S) ≤ dim(S). Temos M S = N (N −1 M S) e ent˜ao, M S + N S = N (N −1 M S + S) . Da´ı, dim(M S + N S) = dim(N −1 M S + S). Neste caso, dim(N −1 M S + S) ≤ dim(S) e isto implica que N −1 M S ⊂ S.
Defini¸ c˜ ao 3.1 (Subespa¸ co deflacionador) Um subespa¸co S de C n ´e dito subespa¸ co deflacionador ou invariante para um par (M, N ) de matrizes quadradas complexas, se dim(M S + N S) ≤ dim(S).
Lema 3.6 Todo par (M, N ) de matrizes quadradas complexas, possui um subespa¸co deflacionador S= 6 {0}. Prova: Se N = 0, qualquer subespa¸co S = 6 {0} ´e deflacionador para (M, N ). Se N 6= 0, ent˜ ao σ(M, N ) 6= ∅. De fato, se M ´e singular, ent˜ ao 0 ∈ σ(M, N ). Se M ´e n˜ao singular, ent˜ao M −1 N 6= 0 e portanto existe µ n˜ao nulo em σ(M, N ). Neste caso, λ = µ−1 pertence a σ(M, N ). Portanto S = Sλ ´e um subespa¸co deflacionador para (M, N ), conforme ii) da observa¸c˜ao 3.2.
Nota 3.2 Seja S um subespa¸co deflacionador para um par (M, N ) de matrizes quadradas complexas de tipo n. Suponhamos que dim(S) = k. Seja W um subespa¸co de C n de dimens˜ ao k contendo M S + N S. Sejam Φ = {s1 , . . . , sk , αk+1 , . . . , αn } e Ψ = {w1 , . . . , wk , βk+1 , . . . , βn } duas bases de C n onde {s1 , . . . , sk } e {w1 , . . . , wk } s˜ ao respectivamente, bases de S e de W. Sejam TM e TN aplica¸c˜ oes lineares de C n em C n , de matrizes M e N respectivamente, na base canˆ onica de C n . Ψ ao respectivaEnt˜ ao, as matrizes representantes de TM e TN nas bases Φ e Ψ, [TM ]Ψ Φ e [TN ]Φ s˜ mente, da forma ˜ 11 M ˜ 12 ˜11 N ˜12 M N e ˜ 22 ˜22 0 M 0 N ˜ 11 e N ˜11 s˜ onde M ao, respectivamente, as matrizes das restri¸c˜ oes ` a S, das aplica¸c˜ oes TM e TN com valores em W, relativamente as bases {s1 , . . . , sk } de S e {w1 , . . . , wk } de W. −1 Ψ −1 Da´ı, como [TM ]Ψ obvias, temos que Φ = Ψ M Φ e [TN ]Φ = Ψ N Φ, sendo Φ e Ψ, matrizes ´ ˜ 11 , N ˜11 ) ⊂ σ(M, N ) . σ(M 38
Esta nota, juntamente com a observa¸c˜ ao 3.2 e o lema 3.5, nos mostra que a no¸c˜ao de subespa¸cos deflacionadores para (M, N ), corresponde `a no¸c˜ao de subespa¸co invariante usual para um operador linear sobre C n . Usaremos frequentemente, neste texto, a denomina¸c˜ao subespa¸co invariante para (M, N ) em lugar de subespa¸co deflacionador para (M, N ). O seguinte teorema ´e uma vers˜ ao mais precisa da nota 3.2:
Teorema 3.3 Sejam M e N matrizes quadradas complexas de tipo n. A cada subespa¸co invariante S para (M, N ) com dim(S) = l, corresponde duas matrizes unit´ arias U e V , tais que
UHMV =
M11 M12
0
M22
e
N11 N12
UHNV =
0
N22
sendo M11 e N11 matrizes quadradas de tipo l. Al´em"disso, e uma parte de σ(M, N ) e, se λ ∈ σ(M11 , N11 ) e z ∈ Sλ (M11 , N11 ), # σ(M11 , N11 ) ´ z ent˜ ao V pertence a Sλ (M, N ) . 0
Prova: Partindo de uma base ortonormal {v1 , . . . , vl } de S, seja V1 a matriz V1 = [v1 , . . . , vl ]. Seja S ⊥ o complemento ortogonal de S em C n e, {vl+1 , . . . , vn } uma base ortonormal de S ⊥ . Seja V2 a matriz [vl+1 , . . . , vn ]. Ent˜ ao, {v1 , . . . , vn } ´e uma base ortonormal de C n , isto ´e, V = [V1 , V2 ] ´e uma matriz unit´aria de tipo n. A hip´otese dim(M S + N S) ≤ l implica que dim{(M S + N S)⊥ } ≥ n − l. Portanto, podemos tomar um conjunto ortonomal de vetores {ul+1 , . . . , un } em (M S + N S)⊥ e o extendemos `a uma base ortonormal {u1 , . . . , ul , ul+1 , . . . , un } de C n . Temos assim, uma matriz unit´ aria U = [U1 , U2 ], onde U1 = [u1 , . . . , ul ] e U2 = [ul+1 , . . . , un ]. Da´ı, UHMV
= U H [M V1 , M V2 ]
=
U1 H
U2 H
[M V1 , M V2 ] =
U1 H M V1 U1 H M V2 U2 H M V1 U2 H M V2
Um c´alculo an´ alogo mostra que
UHNV =
U1 H N V1 U1 H N V2
U2 H N V1 U2 H N V2 39
.
.
Mas, U2 H M V1 = U2 H [M v1 , . . . , M vl ]
=
ul+1 H .. . un H
[M v1 , . . . , M vl ]
= [ul+i H M vj ]
i = 1, . . . , n − l j = 1, . . . , l
.
Observando que para todo i = 1, . . . , n − l, ul+i ∈ (M S + N S)⊥ e que para todo j = 1, . . . , l, M vj ∈ M S + N S, temos ul+i H M vj = 0, para todos os ´ındices i, j. Com um procedimento an´ alogo, vemos tamb´em que U2 H N V1 = 0, do fato de N vj ∈ M S + N S. Temos ent˜ ao,
M11 − λN11 M12 − λN12
det(M − λN ) = det(U H V )det
M22 − λN22
0
= ±det(M11 − λN11 )det(M22 − λN22 ) , onde Mij = Ui H M Vj e Nij = Ui H N Vj , para todos os ´ındices i, j. Assim, σ(M, N ) = σ(M11 , N11 ) ∪ σ(M22 , N22 ) . Se λ ∈ σ(M11 , N11 ) e se Y ∈ Sλ (M11 , N11 ), isto ´e, M11 Y = λN11 Y , temos
(M − λN )V
Y
0
=
U U H (M − λN )V
Y
0
M11 − λN11 M12 − λN12
= U
0
(M11 − λN11 )Y
= U
donde V
Y
0
0
M22 − λN22
Y 0
=0,
∈ Sλ (M, N ).
Outra demonstra¸c˜ ao da decomposi¸c˜ao generalizada de Schur, com o seguinte enunciado: 40
Teorema 3.4 (Decomposi¸ c˜ ao generalizada de Schur) 1. Sejam M e N matrizes quadradas complexas de ordem n. Existem matrizes unit´ arias Q e Z e matrizes complexas T = [Tij ] e S = [Sij ] triangulares superior, tais que QH M Z = T e QH N Z = S. 2. Fixada uma ordena¸c˜ ao ((t11 , s11 ), . . . , (tnn , snn )) do conjunto {(T11 , S11 ), . . . , (Tnn , Snn )} , as matrizes Q e Z podem ser escolhidas de modo que as diagonais de QH M Z e QH N Z sejam respectivamente (t11 , . . . , tnn ) e (s11 , . . . , snn ). Prova: a) Fa¸camos por indu¸c˜ ao sobre n. Para n = 1, tomamos Q = Z = [1] , T = M e S = N . Suponhamos a conclus˜ ao do teorema v´alida para um natural n > 1 e sejam dadas M, N de ordem n + 1. Consideremos S = C{Y1 } um subespa¸co invariante para (M, N ), onde ||Y1 || = 1 (se N ´e singular, tomamos Y1 satisfazendo N Y1 = 0 e ||Y1 || = 1; se N ´e n˜ao singular, existe λ em σ(M, N ), da´ı, tomamos Y1 em Sλ (M, N ), com ||Y1 || = 1). ˜ e Z˜ da forma Q ˜ = [W1 , V2 ] e Z˜ = [Y1 , Z2 ] unit´arias de ordem n + 1, Do teorema 3.3, existem Q onde as matrizes V2 e Z2 s˜ ao de ordens (n + 1) × n e W1 ´e um elemento de C n , tais que
˜ H M Z˜ = Q
T11 T˜12 T˜22
0
˜ H N Z˜ = Q
e
S11 S˜12 S˜22
0
onde T11 e S11 s˜ ao escalares, T˜22 e S˜22 s˜ ao matrizes quadradas de ordem n. ˆ e Zˆ tais que Q ˆ H T˜22 Zˆ = T22 e Ent˜ao, pela hip´ otese de indu¸c˜ ao, existem matrizes unit´arias Q H ˆ S˜22 Zˆ = S22 s˜ Q ao triangulares superior. Tomando-se ent˜ao
˜ Q=Q
1
0
ˆ 0 Q
Z = Z˜
e
1
0
0 Zˆ
temos que QH M Z = T e QH N Z = S onde T e S s˜ao triangulares superior. Mais explicitamente,
QH M Z =
1
0
=
ˆH 0 Q 1
0
=
ˆH 0 Q 1
0
ˆH 0 Q
˜H ˜ Q MZ
0
0
0 Zˆ
T11 T˜12 T˜22
T11 T˜12 Zˆ
0 41
1
T˜22 Zˆ
1
0
0 Zˆ
T11
=
T˜12 Zˆ
ˆ H T˜22 Zˆ Q
0
=
T11 T12
0
T22
ˆ onde escrevemos T12 := T˜12 Z. Analogamente, temos
QH N Z =
S11 S12
0
S22
,
S12 := S˜12 Zˆ .
onde
b) Tomemos uma ordena¸c˜ ao, ((t11 , s11 ), . . . , (tnn , snn )) de {(T11 , S11 ), . . . , (Tnn , Snn )} . Como no item a) da prova, tomamos Y1 talque s11 M Y1 = t11 N Y1 . No caso em que s11 = 0, Y1 ´e tal que N Y1 = 0 ; no caso em que s11 6= 0, Y1 ´e tal que M Y1 =
t11 N Y1 , conforme a observa¸c˜ ao 3.3 seguinte. Por indu¸c˜ao, existem Q e Z unit´arias, de ordem n, s11 tais que as diagonais de QH M Z e QH N Z s˜ao, respectivamente, (t11 , . . . , tnn ) e (s11 , . . . , snn ). Observa¸ c˜ ao 3.3 Sendo QH M Z = T , QH N Z = S, t11 = Tkk e s11 = Skk , para algum k = 1, . . . , n com Skk 6= 0, o sistema (s11 T − t11 S)X = 0 ´e da forma P11 x1
+ ... +
P1k xk
+ . . . + Pnn xn = 0 .. .
(skk Tkk − tkk Skk )xk + . . . + Pkn xn = 0 .. . Pnn xn = 0
onde Pij = s11 Tij − t11 Sij possui solu¸ca ˜o n˜ ao trivial, digamos X1 . Assim, (s11 QH M Z − t11 QH N Z)X1 = 0 , ou seja, QH (s11 M − t11 N )(ZX1 ) = 0 e da´ı, (s11 M − t11 N )Y1 = 0 , onde Zx1 := Y1 6= 0 , o que justifica a escolha feita na prova do teorema 3.4.
42
Cap´ıtulo 4
Decomposi¸ c˜ oes de pares sim´ etricos Congruˆ encia e matrizes hermiteanas e matrizes definidas Dizemos que duas matrizes quadradas M e N s˜ao congruentes se podemos escrever uma delas (digamos N ) na forma P H M P , onde P ´e uma matriz invers´ıvel. O seguinte lema afirma que a rela¸c˜ ao de congruˆencia de matrizes quadradas preserva a propriedade hermiteana e a propriedade de ser definida positiva dessas matrizes. Isto ´e, se duas matrizes s˜ao congruentes, ent˜ ao uma delas ´e hermiteana (resp: definida positiva) se, e somente se, a outra ´e tamb´em hermiteana (resp: definida positiva). Lema 4.1 Sejam M e N matrizes quadradas de ordem n. Se M e N s˜ ao congruentes, ent˜ ao 1. M H = M se, e somente se, N H = N . 2. M ´e definida positiva, isto ´e, X H M X > 0, para todo X n˜ ao nulo de IF n se, e somente se, X H N X > 0, para todo X n˜ ao nulo de IF n . Prova: a) Suponhamos RH M R = N. Temos N H = (RH M R)H = RH M H (RH )H = RH M H R . Ent˜ao, N H = N ⇔ RH M H R = RH M R e da´ı, N H = N ⇔ M H = M. b) Suponhamos N = RH M R definida positiva. Como M = R−H N R−1 , se X ´e um elemento n˜ao nulo de C n , temos a seguinte desigualdade X H M X = X H R−H N R−1 X = (R−1 X)H N (R−1 X) > 0 , mostrando que M ´e definida positiva. Reciprocamente, se M ´e definida positiva, de N = RH M R, temos tamb´em que N ´e definida positiva. Nota 4.1 Na literatura corrente, um par de matrizes quadradas (M, N ) ´e denominado sim´ etrico se as matrizes M e N s˜ ao sim´etricas e, al´em disso, N ´e definida positiva. Veja a defini¸c˜ ao 4.1 adiante. 43
Exemplo 4.1 O par (M, N ) dado a seguir, ´e constitu´ıdo de matrizes quadradas reais sim´etricas, no qual N ´e n˜ ao singular. Al´em disso, n˜ ao possui autovalores reais. −1 −1 Consequentemente, M N e M N n˜ ao s˜ ao sim´etricas e al´em disso, M N −1 e M N −1 n˜ ao s˜ ao ao ´e equivalente a um par de matrizes diagonais reais. diagonaliz´ aveis sobre R, isto ´e, (M, N ) n˜ Sejam
M =
1
0
0 −1
e
0 1
N =
1 0
.
Temos que N ´e invers´ıvel e sim´etrica, por´em, n˜ ao ´e positiva definida. Al´em disso, σ(M, N ) = {λ : det(M − λN ) = −(λ2 + 1) = 0} = {−i, i} . Sejam X1 , X2 elementos de C 2 tais que M X2 = −iN X2 .
M X1 = iN X1 e Com a nota¸ca ˜o: U = [X1 , X2 ], temos
MU = NU
i
0
ou
0 −i
(N U )−1 M U =
i
0
0 −i
.
Vemos ent˜ ao que
U −1 (N −1 M )U =
i
0
0 −i
e portanto, N −1 M ´e diagonaliz´ avel sobre C, mas n˜ ao ´e diagonaliz´ avel sobre R.
4.1
Decomposi¸ c˜ oes de pares de matrizes sim´ etricas
Suponhamos que M e N s˜ ao matrizes quadradas complexas, de ordem n, auto-adjuntas e que N ´e definida positiva. Ent˜ ao, N −1 M ´e diagonaliz´avel e, (M, N ) ´e congruente a um par (D, I), onde D ´e uma matriz diagonal. Compare este resultado com o corol´ario 4.2 adiante. Este resultado ´e provado a partir da seguinte Proposi¸ c˜ ao 4.1 Consideremos M e N matrizes quadradas complexas de ordem n. Seja S um subespa¸co vetorial de C n de dimens˜ ao l (1 < l < n), invariante para (M, N ). Seja {X1 , . . . , Xl } uma base de S e C a matriz de ordem n × l correspondente, isto ´e, C := [X1 , . . . , Xl ]. Ent˜ ao, se C H M C ou C H N C ´e n˜ ao singular, existe uma matriz quadrada n˜ ao singular U , da forma U = [C, D], tal que
UHMU =
M11 M12
0
M22
e
44
UHNU =
N11 N12
0
N22
onde M11 e N11 s˜ ao matrizes quadradas de ordem l. Prova : Suponhamos, por exemplo, que C H M C ´e n˜ao singular. Sabemos que dim(M S + N S) ≤ l. Das hip´oteses feitas sobre M , vem: dim(M S) = l . P De fato: Se W ´e um elemento de S, existe Y em C l com W = CY ( isto ´e, W = li=1 zi Xi ). Da´ı, M W = 0 implica M X1 Y = 0 e ent˜ao X1H M X1 Y = 0, acarretando que Y = 0. Ent˜ao, N S ⊂ M S + N S = M S, logo (M S)⊥ ⊂ (N S)⊥ . Tomemos a matriz D, de ordem n × (n − l), dada por D = [Xl+1 , . . . , Xn ], onde {Xl+1 , . . . , Xn } ´e uma base de (M S)⊥ . Ent˜ ao, de (M S)⊥ = {X ∈ C n : X H M Xi = 0, 1 ≤ i ≤ l}, temos H Xl+j M Xi = 0, i = 1, . . . , l; j = 1, . . . , n − l. H N W = 0, para todo W de S, e em particular, X H N X = 0, i = 1, . . . , l, De N S ⊂ M S vem Xl+j i l+j j = 1, . . . , n − l.
Em resumo, DH M C = DH N C = 0 e para completar a prova da proposi¸c˜ ao, basta mostrarmos que a matriz U = [C, D] ´e n˜ao singular. Ora, isto pode visto da seguinte maneira: Escrevendo um elemento qualquer X de C n na forma de coluna
X=
Y
W
l , Y em C e
W em C n−l .
Assim, podemos escrever U X como: U X = CY + DW ∈ M S + (M S)⊥ = C n . Ent˜ao, U X = 0, implica CY = −DW ∈ M S ∩ (M S)⊥ . Consequentemente, (CY )H (CY ) = (DW )H (DW ) = 0. Logo, CY = 0 e DW = 0. Seque-se ent˜ ao, de as colunas de C e D serem linearmente independentes, que Y = 0 e W = 0. Finalmente, temos que U ´e n˜ ao singular e ,
UHMU =
CH
DH
M [C, D] =
CH M C
CH M D
DH M C
DH M D
=
M11 M12 0
M22
.
Analogamente,
N11 N12
UHNU =
0
N22
s˜ao da forma procurada.
Coment´ ario 4.1 Se C H N C ´e n˜ ao singular, a prova ´e obtida permutando-se os pap´eis de M e N .
45
˜ = [X˜1 , . . . , X ˜l ] Lema 4.2 Seja S um subespa¸co de dimens˜ ao l de C n e consideremos as matrizes U e U = [X1 , . . . , Xl ], cujas colunas constituem bases de S. ˜ = UV . Ent˜ ao, existe uma u ´nica matriz complexa V de ordem l, n˜ ao singular tal que U ´nica pois {X1 , . . . , Xl } Prova : Seja V = [Z1 , . . . , Zl ] tal que X˜j = U Zj . Tal matriz V existe e ´e u ´e base de S, e para todo j, os Xj s˜ ao elementos de S. −1 ˜ ˜ Assim, U = U V com U = U V sendo que V −1 existe pela mesma raz˜ao que V existe. Voltando a Proposi¸c˜ ao 4.1, se a matriz N ´e tal que C H N C ´e n˜ao singular, se C˜ ´e outra escolha de base para S, ent˜ ao C˜ H N C˜ = (CZ)H N (CZ) = Z H (C H N C)Z ´e tamb´em n˜ ao singular.
Lema 4.3 Seja N uma matriz quadrada de ordem n sobre C, definida positiva e seja S um subespa¸co de C n , de dimens˜ ao l. Se C = [X1 , . . . , Xl ] ´e uma matriz de ordem n×l, onde {X1 , . . . , Xl } ´e base de S, temos que C H N C ´e n˜ ao singular. Prova : Seja C uma tal matriz de ordem n × l e seja X um elemento de C l . Se C H N CX = 0, ent˜ ao X H C H N CX = 0 . Da´ı, (CX)H N (CX) = 0 e como N ´e definida positiva, segue-se que CX = 0. Como as colunas de C s˜ao linearmente independentes, temos que X = 0. Ent˜ ao, C H N CX possui n´ ucleo trival, portanto, ´e n˜ao singular.
Corol´ ario 4.1 Sejam M e N matrizes quadradas de ordem n sobre C, onde N ´e hermiteana e definida positiva. Se S´e um subespa¸co dimens˜ ao l, invariante para (M, N ), ent˜ ao existe uma matriz n˜ ao singular P , tal que
M1 M 2
P HMP =
0
M3
H e P NP =
Idl 0
0 N3
.
Prova : Seja C como na proposi¸c˜ ao 4.1. Como N ´e hermiteana definida positiva, temos do lema H 4.1 que C N C ´e tamb´em hermiteana definida positiva . Ent˜ao, C H N C possui uma ra´ız quadrada Q de ordem l hermiteana definida positiva (veja nota 4.2). ˜ de ordem n × (n − l) Refazendo a prova da proposi¸c˜ ao 4.1 com C˜ = CQ−1 , temos que existe D tal que ˜ H N C˜ = D ˜ H M C˜ = 0 D ˜ D], ˜ temos e se P˜ = [C, P˜ H N P˜ =
˜11 N ˜12 N 0
˜33 N
H e P˜ M P˜ =
46
˜ 11 M ˜ 12 M 0
˜ 33 M
.
Mas, ˜11 = C˜ H N C˜ N = (CQ−1 )H N (CQ−1 ) = Q−H (C H N C)Q−1 (de
Q−H
=
Q−1 ) = Q−1 Q2 Q−1 = Il .
˜ H = 0. Note tamb´em que, se M ´e hermiteana, temos M2 = 0. Como N ´e hermiteana, N 12 Nota 4.2 Uma matriz hermiteana N ´e diagonaliz´ avel. Isto ´e, existe uma matriz unit´ aria U e uma matriz diagonal D, tais que UHNU = D . Se N ´e definida positiva, os autovalores {λ1 , . . . , λn } s˜ ao reais positivos. Da´ı, D = diag(λ1 , . . . , λn ) 1 1 1 1 2 2 2 e consequentemente, D = diag(λ1 , . . . , λn ) e definindo, R = U H D 2 U , temos R = U DU H = N. 1 1 Al´em disso, RH = U H D 2 U = R e R ´e definida positiva pois ´e congruente a D 2 , que ´e definida positiva. Teorema 4.1 Sejam M e N matrizes quadradas de ordem n sobre C, onde N ´e hermiteana e definida positiva. S˜ ao v´ alidas as seguintes afirma¸c˜ oes: 1. Existe uma matriz invers´ıvel P e uma matriz T = [Tij ], triangular superior de ordem n sobre C, tais que P HMP = T e P HNP = I . Se M ´e hermiteana, a matriz T ´e diagonal. 2. Dada uma ordena¸c˜ ao (t1 , . . . , tn ) de {T11 , . . . , Tnn }, P pode ser tomada tal que P H M P = diag(t1 , . . . , tn ) + S, onde S ´e estritamente triangular superior. Prova : Por indu¸c˜ ao sobre n, levando em considera¸c˜ao o corol´ario 4.1 e argumentos an´alogos `aqueles usados na prova do teorema 3.4.
Nota 4.3 Se al´em das condi¸c˜ oes do teorema 4.1, tivermos M hermiteana, ent˜ ao P H M P = diag(λ1 , . . . , λn ) = D e
P HNP = I .
Ent˜ ao, 1. σ(M, N ) = {λ1 , . . . , λn } . 2. P H = (N P )−1 e (N P )−1 M P = D. Portanto, M P = (N P )D . Se P = [P1 , . . . , Pn ], ent˜ ao M Pj = λj Pj , j = 1, . . . n. Portanto P ´e constitu´ıdo de autovetores de (M, N ), os quais s˜ ao N − ortogonais, ou seja, PiH N Pj = δij ( outra forma de se ler P H N P = I) . 47
Corol´ ario 4.2 Sejam M e N matrizes quadradas reais sim´etricas de ordem n com N definida positiva ((M, N ) ´e um par sim´etrico, positivo definido). Ent˜ ao, existe uma matriz N − ortogonal T Q (isto ´e, Q N Q = I), tal que QT M Q = diag(λ1 , . . . , λn ). Em particular, σ(M, N ) = {λ1 , . . . , λn } . ´ suficiente provar que Prova : E a) Existe um subespa¸co invariante para (M, N ); b) Usar o fato de que a ra´ız quadrada de uma matriz real sim´etrica definida positiva ´e tamb´em sim´etrica e definida positiva; c) Usar resultados anteriores. Mas, existem λ em C e X n˜ ao nulo em C n , tais que, M X = λN X. Da´ı, X H M X = λX H N X. Passando-se ` as adjuntas, vem X H M X = λX H N X, donde segue-se que λX H N X = λX H N X. De H X N X > 0, vem λ = λ, portanto λ ´e real. Ent˜ao, o sistema (M − λN )Y = 0 tem solu¸c˜ ao n˜ ao trivial X de C n . Assim, um subespa¸co S de C n existe. O item b) ´e verdadeiro, conforme foi visto na nota 4.2.
4.2
Diagonaliza¸ c˜ ao de um par de matrizes sim´ etricas
Esta se¸c˜ao descreve resultados a respeito da diagonaliza¸c˜ao de um par (M, N ) onde as matrizes s˜ ao quadradas reais sim´etricas de ordem n. Equivalentemente, da diagonaliza¸c˜ao simultˆanea de duas formas quadr´ aticas reais. Descreve resultados existentes sobre feixes sim´etricos de matrizes, ou de formas bilineares sim´etricas.
Equivalˆ encia entre (M, N ) e (γM + σN, −σM + γN ) Sejam γ e σ reais satisfazendo γ 2 + σ 2 > 0 . Sejam as fun¸c˜oes ϕ(γ,σ) : R\{− σγ } −→ R
se σ 6= 0
ϕ(γ,σ) : R −→ R
se σ = 0
dadas por ϕ(γ,σ) (t) =
γt − σ . σt + γ
Em particular, ϕ(γ,σ) (t) = t, se σ = 0. Lema 4.4 Correspondente a um par (γ, σ) de reais quaisquer, temos: 1. ϕ(γ,σ) ´e indefinidamente diferenci´ avel. 2. Se γ 2 + σ 2 > 0 , ent˜ ao ϕ(γ,σ) ´e estritamente crescente em seu dom´ınio. 48
1 3. Se σ 6= 0, temos ϕ(γ,σ) (t) = − , se γ = 0 e σ 6= 0. t limγ ϕ(γ,σ) (t) = −∞, e limγ
t→(− σ )−
t→(− σ )+
ϕ(γ,σ) (t) = +∞.
Em particular, ϕ(γ,σ) ( σγ ) = 0, para todo par (γ, σ) de reais, com γ 6= 0. Prova : Os itens 1. e 3. s˜ ao f´ aceis de demonstrar. dϕ(γ,σ) γ 2 + σ2 Por outro lado, temos > 0 , para todo t do dom´ınio de ϕ(γ,σ) , o que (t) = dt (σt + γ)2 prova o item 2. De |γt − σ| |ϕ(γ,σ) (t)| = |σt + γ| e de γ 2 + σ2 limγ |γt − σ| = , limγ |σt + γ| = 0 |σ| t→− σ t→− σ temos lim
γ − t→(− σ )
|ϕ(γ,σ) (t)| = +∞ .
Sendo ϕ(γ,σ) estritamente crescente, devemos ter lim
γ + t→(− σ )
ϕ(γ,σ) (t) = −∞ e
lim
γ − t→(− σ )
ϕ(γ,σ) (t) = +∞ ,
e o item 4. est´ a provado. γ Nota 4.4 Se σ 6= 0, existe a inversa ϕ−1 (γ,σ) : R\{ σ } → R, dada por
ϕ−1 (γ,σ) (q) =
γq + σ = ϕ(γ,−σ) (q) . −σq + γ
Prova : Consideremos as seguintes equivalˆencias: ϕ−1 (γ,σ) (q) = t ⇔ q =
γt − σ σt + γ
⇔ σqt + qγ = γt − σ ⇔ γt − σqt = qγ + σ ⇔t=
γq + σ . γ − σq
Temos portanto,
γq + σ . −σq + γ Definamos a fun¸c˜ ao Φ(γ,σ) (M, N ) = (γM + σN, −σM + γN ) entre pares de matrizes quadradas reais de ordem n, sendo γ, σ ∈ R. ϕ−1 (γ,σ) (q) =
Temos em particular, Φ(γ,0) (M, N ) = γ(M, N ) e Φ(0,σ) (M, N ) = σ(M, N ).
49
Proposi¸ c˜ ao 4.2 Sejam dadas duas matrizes quadradas reais M e N de ordem n, temos, para todo par (γ, δ): 1. O par (M, N ) ´e sim´etrico se, e somente se, Φ(γ,δ) (M, N ) ´e sim´etrico; 2. Se γ 2 + δ 2 > 0, ent˜ ao γ ϕ−1 (σ(M, N )) = σ Φ (M, N ) \{− } , (γ,δ) (γ,δ) δ
ou seja,
γ λ ∈ σ(M, N ) ⇔ ϕ−1 (λ) ∈ σ Φ (M, N ) \{− } . (γ,δ) (γ,δ) δ Equivalentemente, se λ 6= − γδ , ent˜ ao λ ∈ σ(Φ(γ,δ) (M, N )) se, e somente se, ϕ(γ,δ) (λ) ∈ σ(M, N ) .
ao decorre diretamente da defini¸c˜ao de Φ(γ,δ) (M, N ) . Prova : O primeira afirma¸c˜ Prova da segunda afirma¸c˜ ao: Seja λ ∈ σ(Φ(γ,δ) (M, N )), λ 6= − γδ . Neste caso, existe um elemento n˜ao nulo, X de R n , tal que (γM + δN ) − λ(−δM + γN ) = 0 ⇔ (δλ + γ)M X − (γλ − δ)N X = 0 ⇔ MX −
γλ − δ =0 δλ + γ
⇔ ϕ(γ,δ) (λ) ∈ σ(M, N ) . Temos, reciprocamente, que se µ ∈ σ(M, N ), ent˜ao µ = ϕ(γ,δ) (λ) , para algum λ 6= − γδ e existe X 6= 0 em R n com M X − µN X = 0. Temos ent˜ao, M X − ϕ(γ,δ) (λ)N X = 0 ⇔ MX =
γλ − δ δλ + γ
⇔ (γM + δN )X − λ(−δM + γN )X = 0 ⇔ (γM + δN )X − ϕ(γ,δ) −1 (µ)(−δM + γN )X = 0 .
Observa¸ c˜ ao 4.1 Dados um par (M, N ) de matrizes quadradas reais de ordem n e um par (γ, δ) de reais com δ 6= 0, o quociente − γδ ´e um autovalor de Φ(γ,δ) (M, N ) ? Notemos que − γδ ∈ σ(Φ(γ,δ) (M, N )) se, e somente se, existe um X n˜ ao nulo em R n tal que γ (γM + δN )X + δ (−δM + γN )X = 0 . Mas, isto ocorre se, e somente se, (γM − γM )X + (δ +
γ2 δ )N X
=0
γ 2 + δ2 NX = 0 ⇔ NX = 0 . δ Assim, vemos que a resposta ´e negativa apenas no caso em que N ´e n˜ ao singular. ⇔
50
Proposi¸ c˜ ao 4.3 Seja (M, N ) um par de matrizes quadradas reais de ordem n. Ent˜ ao, podemos afirmar que: Um elemento X n˜ ao nulo de R n ´e um autovetor do par Φ(γ,δ) (M, N ), associado a λ, se e somente se, X ´e um autovetor do par (M, N ), associado ao autovalor ϕ(γ,δ) (λ) de σ(M, N ). Proposi¸ c˜ ao 4.4 Seja (M, N ) um par de matrizes quadradas reais de ordem n, com N n˜ ao singular. Ent˜ ao, para qualquer par de reais (γ, δ) com γ 2 + δ 2 > 0 , temos a seguinte caracteriza¸c˜ ao do espectro de (M, N ): σ(M, N ) = ϕ(γ,δ) σ(Φ(γ,δ) (M, N )) = ϕ(γ,δ) (σ(γM + δN, −δM + γN )) .
4.3
Diagonaliza¸ c˜ ao de pares sim´ etricos de matrizes reais
Defini¸ c˜ ao 4.1 i. Um par (M, N ) de matrizes quadradas reais ´e dito sim´ etrico semi-definido positivo se (M, N ) ´e um par de matrizes sim´etricas e se N ´e semi-definida positiva. Mais explicitamente, N ´e semi-definida positiva se M T = M , N T = N e X T N X ≥ 0 , para todo X n˜ ao nulo em R n . ii. Um par (M, N ) ´e dito sim´ etrico positivo definido ou simplesmente sim´ etrico se M e N s˜ ao sim´etricas e se N ´e definida positiva. Teorema 4.2 Suponhamos que a dimens˜ ao considerada ´e n ≥ 3 . Consideremos um par sim´etrico (M, N ) de matrizes reais e definamos o seguinte coeficiente µ(M, N ) associado ao par (M, N ): 1
µ(M, N ) := inf {(X T M X)2 + (X T N X)2 } 2 ≥ 0 . ||X||=1
Se µ(M, N ) > 0 , ent˜ ao existe um par (γ, δ) de reais com γ 2 + δ 2 > 0, tal que γM + δN ´e definida positiva Prova : Conforme [15, Teorema I]. Coment´ ario 4.2 a) O teorema 4.2 n˜ ao ´e verdadeiro se n = 2, conforme o exemplo 4.1 e o teorema 4.4. b) Este teorema ´e dado em [6, Exerc´ıcio da p´ agina 280]. Teorema 4.3 Consideremos um par (M, N ) sim´etrico n˜ ao negativo definido, de matrizes quadradas reais de ordem n. Suponhamos que Nuc(N ) ⊂ Nuc(M ). Ent˜ ao, existe uma matriz real Q, n˜ ao singular, de ordem n, tal que QT M Q e
QT N Q s˜ ao ambas diagonais . 51
Note que a condi¸c˜ ao de inclus˜ ao ´e automaticamente satisfeita se N ´e definida positiva. Prova : Usando a decomposi¸c˜ ao de Schur de N , podemos obter uma matriz P1 , ortogonal de ordem n, tal que P1T N P1 = diag(D, 0n−k ) onde D = diag(d1 , . . . , dk ), com di > 0( i = 1, . . . , k). 1 1 Definimos Q1 = P1T diag(D− 2 , In−k ). De QT1 = diag(D− 2 , In−k )P1 , temos 1
1
QT1 N Q1 = diag(D− 2 , In−k )P1T N P1 diag(D− 2 , In−k ) = diag(Ik , 0n−k ) . Como Nuc(N ) ⊂ Nuc(M ), M1 = QT1 M Q1 ´e da forma
M11 0 0
0
onde M11 ´e uma matriz sim´etrica de ordem k. Seja U uma matriz ortogonal de ordem k, tal que U T M11 U = diag(a1 , . . . , ak ) ( decomposi¸c˜ao de Schur de M11 ). Ent˜ao, Q = Q1 diag(U, In−k ) ´e tal que QT M Q = diag(U T , In−k )QT1 M Q1 diag(U, In−k )
= diag(U T , In−k )
M11 0
0
0
diag(U, In−k )
= diag(U T M11 U, 0n−k ) n−k
z }| {
= diag(a1 , . . . , ak , 0, . . . , 0) = DM . e
QT N Q = diag(U T , In−k )QT1 N Q1 diag(U, In−k ) = diag(U T , In−k )diag(Ik , 0n−k )dig(U, In−k ) = diag(Ik , 0n−k ) .
Teorema 4.4 Seja (M, N ) um par de matrizes quadradas reais sim´etricas de ordem n e seja (γ, δ) um par de reais com δ 6= 0 . Se Φ(γ,δ) (M, N ) = (γM + δN, −δM + γN ) ´e n˜ ao negativo definido, al´em disso Nuc(−δM + γN ) = Nuc(M ) ∩ Nuc(N ) , ent˜ ao , existe uma matriz quadrada real Q, n˜ ao singular de ordem n, tal que QT M Q e QT N Q s˜ ao diagonais. 52
Prova : Seja Q1 uma matriz ortogonal de ordem n, talque QT1 (−δM + γN )Q1 = diag(D, 0n−k ) , onde D = diag(d1 , . . . , dk ) (di > 0, i = 1, . . . , k), dadas pela decomposi¸c˜ao de Schur de (−δM +γN ) . 1
Seja P1 = diag(D− 2 , In−k ). Se M1 := P1T M P1 e N1 := P1T N P1 , temos −δM1 + γN1 = P1T (−δM + γN )P1 1
1
= diag(D− 2 , In−k )QT1 (−δM + γN )Q1 diag(D− 2 , In−k ) 1
D
0
0
0n−k
= diag(D− 2 , In−k )
(4.1)
1 diag(D − 2 , In−k )
= diag(Ik , 0n−k ) . Mas, de Nuc(−δM + γN ) = Nuc(M ) ∩ Nuc(N ), temos para M1 e N1 a seguinte forma de blocos
M1 =
M11 0
0
0
N11 0
e N1 =
0
0
onde de (4.1), −δM11 + γN11 = Ik . Sendo U T N11 U = diag(b1 , . . . , bk ) a decomposi¸c˜ao de Schur de N11 , temos com Q = diag(U, In−k ), que QT N Q = diag(U T , In−k )P1T N P1 diag(U, In−k )
= diag(U T , In−k )
N11 0
0
0
diag(U, In−k )
n−k
z }| {
= diag(b1 , . . . , bk , 0, . . . , 0) = DN . 1 e de M = − (−δM + γN ), vem δ 1 QT M Q = − (QT (−δM + γN )Q − γQT N Q) δ (de(4.1)) 1 = − (diag(U T , In−k )diag(Ik , 0n−k )diag(U, In−k ) − γDN ) δ 1 = − (diag(Ik , 0n−k ) − γDN ) = DM . δ
53
4.4
A decomposi¸ c˜ ao sim´ etrica
Dada uma matriz quadrada real M , o problema M X = λX poder´a, eventualmente, ser tratado com vantagens na forma: N X = λP X , P e Q reais sim´etricas, com M = P −1 N.
4.4.1
Forma canˆ onica de Jordan.
Defini¸ c˜ ao 4.2 i. Um bloco de Jordan Jk (λ) ´e uma matriz triangular superior da forma
λ 1 ... 0 . 0 λ .. 1 . .. .. . . .. . . . . 0 0 ... λ
Jk (λ) =
(4.2)
ii. Uma matriz de Jordan ´e uma matriz diagonal em blocos de Jordan, J =
Jn1 (λ1 ) . . .
0
.. .
.. .
..
0
. . . Jnk (λk )
.
(4.3)
onde n1 + . . . + nk = n, os ni bem como os λi , n˜ ao necessariamente distintos.
Observa¸ c˜ ao 4.2 Se k = n e ni = 1, para todo i = 1, . . . , k, ent˜ ao J ´e uma matriz diagonal. Se ni > 1, para algum ´ındice i = 1, . . . , k, ent˜ ao J n˜ ao ´e diagonal e al´em disso, J n˜ ao ´e diagonaliz´ avel. De fato: Se SJS −1 = Λ(diagonal), ent˜ao existe uma matriz quadrada complexa Sni , de ordem ni , talque Sni −1 Jni (λ)Sni = diag(λ1 , . . . , λi ) = Λi . Ent˜ao, Jni − λi I = Sni Λi Sni −1 − λi I = Sni (Λi − λi I)Sni −1 = 0 o que ´e falso se ni > 1, pela defini¸c˜ ao de Jni (λi ). Teorema 4.5 (Forma canˆ onica de Jordan) Seja M uma matriz quadrada complexa de ordem n arbitr´ aria. Existe uma matriz n˜ ao singular S de ordem n, tal que M = SJS −1 54
onde
Jn1 (λ1 ) . . .
J =
0
.. .
.. .
..
0
. . . Jnk (λk )
.
(4.4)
n1 + . . . + nk = n, os λi , i = 1, . . . , k, s˜ ao os autovalores, n˜ ao necessariamente distintos, de M . A matriz J ´e u ´nica, a menos da ordem dos blocos de Jordan na diagonal. Se M ´e uma matriz quadrada real de ordem n e os autovalores de M s˜ao reais, ent˜ao a matriz de similaridade S pode ser constru´ıda real de ordem n.
4.4.2
Forma canˆ onica de Jordan real.
Consideremos uma matriz quadrada real, M . Sejam λ1 , . . . , λn os autovalores de M (podendo ser complexos e n˜ ao necessariamente distintos). Assim σ(M ) = {λ1 , . . . , λn }. Observa¸ c˜ ao 4.3 i) Se um complexo λ ´e autovalor de M , ent˜ ao seu conjugado λ ´e tamb´em autovalor de M . ii) De M − λI = M − λI, temos que possuem o mesmo posto, as seguintes matrizes (M − λI)k ,
(M − λI)k e
(M − λI)k ,
onde a barra denota a conjuga¸ca ˜o complexa. Este resultado se segue por exemplo de det(M ) = det(M ) . Assim, para cada bloco de Jordan de ordem ni correspondente a um autovalor n˜ao real λ, que ocorre em M , existe um bloco conjugado de igual tamanho tamb´em ocorrendo em M . Por outro lado, uma matriz complexa diagonal em blocos
Jk (λ) 0
0 Jk (λ)
(4.5)
´e similar a matriz em blocos
D(λ) I2 0 D(λ)
..
. D(λ)
0 "
com D(λ) =
λ 0 0 λ
0
I2 D(λ)
(4.6)
#
que por sua vez ´e similar a matriz em blocos
C(a, b) I2 0 C(a, b)
0 ..
. C(a, b)
0 55
I2 C(a, b)
(4.7)
"
onde C(a, b) representa a matriz
a b −b a
#
onde λ = a + ib.
Similaridade entre as matrizes (4.5) e (4.6) Denotamos por Eij , as matrizes obtidas de In , por permuta¸c˜ao entre si, da linha i com a linha j, 1 ≤ i < j ≤ n . Assim, a matriz N obtida de uma matriz M , permutando-se entre si, as linhas i e j, pode ser representada pelo produto N = Eij M . Por outro lado, permutando-se as colunas i e j da matriz identidade I, obtemos a mesma matriz 2 =I. Eij . Temos Eij Se C ´a matriz obtida de M , permutando-se entre si, suas colunas i e j, respectivamente, temos C = M Eij . Em resumo, a matriz N
N
z }| {
z }| {
−1 C = Eij M Eij = Eij M Eij ,
obtida de M , permutando-se primeiramente as linha i e j de M e, em seguida, permutando-se as colunas i e j de M (ou vice-versa), ´e similar a M . Dada a matriz em blocos (4.6): "
Jk (λ) 0 0 Jk (λ)
#
com cada bloco de ordem k, obtemos a matriz em blocos (4.6):
D(λ) I2 0 D(λ)
0 ..
. D(λ)
0
I2 D(λ)
por similaridade S, onde S ´e um produto S = Ei1 j1 . . . Eik jk , onde as Eis js s˜ao obtidas de I, permutando-se suas linhas ou colunas i e j, convenientemente. Exemplo 4.2 Com a matriz
λ 1 0 J3 (λ) = 0 λ 1 0 0 λ consideremos "
M=
J3 (λ) 0 0 J3 (λ)
#
=
56
λ 0 0 0 0 0
1 λ 0 0 0 0
0 1 λ 0 0 0
0 0 0 λ 0 0
0 0 0 1 λ 0
0 0 0 0 1 λ
.
Temos E34 M =
E34 M E34 =
E23 E34 M E34 =
E23 E34 M E34 E23 =
E23 E34 M E34 E23 E45 =
λ 0 0 0 0 0
1 λ 0 0 0 0
0 1 0 λ 0 0
0 0 λ 0 0 0
0 0 1 0 λ 0
0 0 0 0 1 λ
λ 0 0 0 0 0
1 λ 0 0 0 0
0 0 λ 0 0 0
0 1 0 λ 0 0
0 0 1 0 λ 0
0 0 0 0 1 λ
λ 0 0 0 0 0
1 0 λ 0 0 0
0 λ 0 0 0 0
0 0 1 λ 0 0
0 1 0 0 λ 0
0 0 0 0 1 λ
λ 0 0 0 0 0
0 λ 0 0 0 0
1 0 λ 0 0 0
0 0 1 λ 0 0
0 1 0 0 λ 0
0 0 0 0 1 λ
λ 0 0 0 0 0
0 λ 0 0 0 0
1 0 λ 0 0 0
0 1 0 0 λ 0
0 0 1 λ 0 0
0 0 0 0 1 λ
E45 E23 E34 M E34 E23 E45
=
λ 0 0 0 0 0
0 λ 0 0 0 0
1 0 λ 0 0 0
0 1 0 λ 0 0
0 0 1 0 λ 0
0 0 0 1 0 λ
D(λ) I2 0 D(λ) I2 . = 0 0 0 D(λ) 57
Similaridade entre as matrizes (4.6) e (4.7) Se λ se escreve como λ = a + ib, onde a e b s˜ao reais, temos que "
RD(λ)R
−1
#
a b −b a
=
onde "
−i −i 1 −1
R=
#
"
e R
−1
=
i/2 1/2 i/2 −1/2
#
.
Note que "
" 4×4
D(λ) I2 0 D(λ)
"
RD(λ) R 0 RD(λ)
"
RD(λ)R−1 RR−1 0 RD(λ)R−1
"
C(a, b) I2 0 C(a, b)
=
=
=
#
R 0 0 R
#"
#
" 4×4
R−1 0 0 R−1
R−1 0 0 R−1
# 4×4
#
#
#
.
Mais explicitamente, temos
=
−i −i 0 0 1 −1 0 0 0 0 −i −i 0 0 1 −1 a −b 0 0
b 1 a 0 0 a 0 −b
0 1 b a
λ 0 0 0
0 λ 0 0
1 0 λ 0
0 1 0 λ
i/2 1/2 0 0 i/2 −1/2 0 0 0 0 i/2 1/2 0 0 i/2 −1/2
.
Assim, dada a matriz em blocos (4.6):
D(λ)
I2 D(λ)
0 ..
. I2 D(λ)
0 58
,
tomando-se a matriz P = diag(R, . . . , R) em k blocos R de ordem 2, temos
R ..
D(λ)
0 R
.
0
I2 D(λ) ..
. I2 D(λ)
0
C(a, b) I2 0 C(a, b)
0 ..
=
0
. C(a, b)
0
I2 C(a, b)
R−1 0
0 ..
. R−1
que ´e a matriz de (4.7). Denotemos por a matriz em blocos (4.7) por Ck (a, b). Em resumo, temos que s˜ ao similares, as matrizes "
Ck (a, b) e
Jk (λ) 0 0 Jk (λ)
#
.
Com as adapta¸c˜ oes necess´ arias, partindo do exposto acima, temos o seguinte teorema: Teorema 4.6 (Forma canˆ onica de Jordan real) Cada matriz quadrada real M ´e similar a uma matriz diagonal em blocos
Cn1 (a1 , b1 )
0 ..
. Cnp (ap , bp ) Jnq (λq ) ..
.
0
(4.8)
Jnr (λr )
onde λk = ak + ibk , ak e bk s˜ ao reais com os bk n˜ ao nulos, k = 1, . . . , p; {λ1 , . . . , λp , λq , . . . , λr } s˜ ao os autovalores de M , com λq , . . . , λr reais; Cnk (ak , bk ) s˜ ao blocos reais, da forma (4.6), correspondentes a um par de blocos conjugados, como em (4.5): " # Jnk (λ) 0 0 Jnk (λ) os quais participam da forma canˆ onica de Jordan de M . Jnk (λk ) s˜ ao os blocos reais que participam da forma canˆ onica de Jordan (4.3), relativos aos λk reais, k = q, . . . , r.
59
Observa¸ c˜ ao 4.4 A transforma¸c˜ ao de similaridade pode ser escolhida real, embora este resultado n˜ ao seja aparente na dedu¸ca ˜o que foi feita, a partir da forma canˆ onica de Jordan complexa, ou seja: Se a matriz M ´e real, existe S real tal que SM S −1 ´e a forma canˆ onica de Jordan real de M , dada pelo teorema 4.6. Isto pode ser mostrado, por exemplo, baseando-se no teorema de decomposi¸c˜ ao de Schur, no caso real. Note tamb´em que (4.8) ´e Hessenberg superior (quase triangular superior).
Lema 4.5 Seja M uma matriz quadrada real de ordem 2. Suponhamos que os autovalores de M s˜ ao complexos (e portanto conjugados) λ = a + ib, λ = a − ib, com b 6= 0. Ent˜ ao, M ´e similar sobre os reais a matriz " # a b . −b a Prova : Consideremos dois elementos X e X de C n escritos como elementos de R n + iR n na forma X = Y + iZ e X = Y − iZ, os quais s˜ao autovetores de M , relativos a λ e λ, respectivamente. Assim, M X = λX e M X = λ X . (" 2
Denotamos por Tc o operador linear de C , representado por M na base
1 0
# "
,
0 1
#)
canˆ onica
de C 2 . A matriz de Tc na base {X, X} (conforme lema 2.1), ´e "
[Tc ]{X,X} =
λ 0 0 λ
#
"
λ 0 0 λ
com
#
= [X, X]−1 M [X, X] .
Da´ı, "
[X, X]
λ 0 0 λ
#
= M [X, X] .
(4.9)
(X + X) (X − X) eZ= , temos que {Y, Z} ´e uma base de R 2 . 2 2 Se T ´e o operador linear de R 2 , representado por M na base canˆonica de R 2 , temos
Do lema 2.1, se Y =
[T ]{Y,Z} = [Y, Z]−1 M [Y, Z] . "
Para concluir que M ´e R-similar a
a b −b a
#
, ´e suficiente mostrar que "
[T ]{Y,Z} =
a b −b a
De fato: Podemos escrever
"
[X, X] = [Y, Z] 60
#
1 1 i −i
.
#
(4.10)
e
"
[Y, Z] = [X, X]
1/2 −i/2 1/2 i/2
#
.
(4.11)
Ent˜ao, de (4.9)-(4.11), vem [Y, Z]−1 M [Y, Z] "
#
=
=
[Y, Z]−1 ([X, X]
=
([Y, Z]−1 [X, X])
λ 0 0 λ
"
1 1 i −i
#"
"
λ λ iλ −iλ
"
λ/2 + λ/2 −iλ/2 + iλ/2 iλ/2 − iλ/2 iλ(−i/2) − iλ(i/2)
"
a b −b a
"
=
=
=
=
#"
λ 0 0 λ
#"
# "
1/2 −i/2 1/2 i/2
#
#"
1/2 −i/2 1/2 i/2
#
λ 0 ) 0 λ
"
4.5
1/2 −i/2 1/2 i/2
[Y, Z]−1 (M [X, X])
1/2 −i/2 1/2 i/2
1/2 −i/2 1/2 i/2
#
#
#
#
.
Decomposi¸ c˜ ao M = P −1 N ou M = N1 P1−1 , com fatores sim´ etricos
Defini¸ c˜ ao 4.3 Seja U = [Uij ] uma matriz quadrada de ordem n sobre R, onde (
Uij =
1 0
se i + j − 1 = n se i + j − 1 6= n
1 ≤ i, j ≤ n
ou seja, δ1i .. U = [En , En−1 , . . . , E1 ] (Ei = . , i = 1, . . . , n) δni 0 0 ... 0 1 . 0 0 ... 1 0 . . .. .. = . . .. .. 0 1 ... 0 0 1 0 ... 0 0
61
(4.12)
Tem-se da´ı, que U 2 = I e portanto U = U −1 = U T . Lema 4.6 Consideremos uma matriz quadrada complexa M de ordem n. Ent˜ ao: 1. M T = U M U . 2. Se N = U M =
N1 N2 .. . Nn
, onde N i denota a i-´ esima linha de N , temos
N i = M n−i+1 (N i = M i ⇔ n ´e ´ımpar e i =
n+1 ). 2
3. Se P = M U = [P1 , P2 , . . . , Pn ], onde Pj denota a j-´esima coluna de P , ent˜ ao Pj = Mn−j+1 .
Defini¸ c˜ ao 4.4 Seja M uma matriz quadrada complexa de ordem n. Ent˜ ao: i. Chamamos diagonal secund´ aria de M os elementos Mij para os quais i + j − 1 = n, 1 ≤ i, j ≤ n; ii. Dizemos que M ´e sim´ etrica em rela¸ c˜ ao ` a sua diagonal secund´ aria se Mij = Mi+k (1 < i + j < n e k = n + 1 − (i + j) = n + 1 − i − j).
j+k
Equivalentemente, Mij = Mn+1−j
n+1−i
(1 < i + j < n) .
Lema 4.7 Seja M uma matriz quadrada complexa de ordem n. N = U M ´e sim´etrica se, e somente se, M ´e sim´etrica em rela¸c˜ ao a sua diagonal secund´ aria.
Lema 4.8 Sejam M e S duas matrizes quadradas complexas de ordem n. Suponhamos que S ´e n˜ ao singular de ordem n tal que M = S −1 JS, onde J ´e a forma canˆ onica de Jordan de M . Se M ´e real, seja S tomada tal que J ´e a forma canˆ onica de Jordan real de M . Temos que todo bloco de Jordan de J ´e sim´etrico em rela¸c˜ ao a sua diagonal secund´ aria.
Teorema 4.7 Seja M uma matriz quadrada real de ordem n. Existem duas matrizes quadradas ´ poss´ıvel escolher N e P sim´etricas reais sim´etricas N e P , P n˜ ao singular com M = N P −1 . E −1 tais que M = P N . Prova : Seja S uma matriz quadrada real n˜ao singular tal que M = SJS −1 , onde J ´e a forma canˆonica de Jordan real de M . f1 = JU , onde U ´ Sejam J˜ = U J e J e a matriz diagonal em blocos, cujos blocos s˜ao do tipo dado em (4.12) e com ordens correspondentes `aquelas dos blocos de Jordan em J. f1 s˜ Temos que J˜ e J ao sim´etricas. 62
˜ −1 e P = S −T U S −1 . Temos ent˜ao, N T = N , P T = P e al´em disso, Definamos N = S −T JS podemos escrever ˜ −1 ) = SU JS ˜ −1 = SJS −1 = M . P −1 N = (SU −1 S T )(S −T JS f1 S T e P := SU S T , temos N T = N , P T = P e Por outro lado, se N := S J f1 S T )(S −T U S −1 ) N P −1 = (S J f = S J1 U −1 S −1 = SJS −1 = M .
Em resumo, dada uma matriz quadrada real M de ordem n, existem matrizes quadradas reais N , N1 , P e P1 sim´etricas, P e P1 invers´ıveis tais que M = N P −1 e M = P1−1 N1 , onde P1 = P −1 . Da´ı, temos M = P N1 = N P −1 .
Teorema 4.8 Seja M uma matriz quadrada real de ordem n. O problema de autovalores para M ´e equivalente a um problema de autovalores generalizados para um par (N, P ) de matrizes reais sim´etricas de ordem n. Prova : De fato: Sejam N e P matrizes quadradas reais sim´etricas de ordem n com P invers´ıvel, tais que M = P −1 N . Ent˜ ao, existe um escalar λ para o qual, a equa¸c˜ao M X = λX possui uma solu¸c˜ao X, n˜ao trivial em C n se, e somente se, P −1 N X = λX, isto ´e N X = λP X, possui a solu¸c˜ ao n˜ao trivial X.
Coment´ ario 4.3 Sugerimos ao leitor, comparar o teorema 4.8 com os Lemas 1.2 e 1.3.
63
64
Cap´ıtulo 5
Aplica¸ co ˜es 5.1
Decomposi¸ c˜ ao de um par de matrizes quadradas singulares de ordem 4
Veremos atrav´es de um sistema de equa¸c˜oes ordin´arias, exemplo de um par (M, N ) congruente a um par (T, S) de matrizes quadradas triangulares superior de ordem 4. A t´ıtulo de ilustra¸c˜ ao, consideramos o seguinte sistema de equa¸c˜oes diferenciais lineares de 2a ordem: d2 x1 dx1 d2 x2 dx2 ( + − x ) + ( −3 + 2x2 ) = 0 1 2 dt dt dt2 dt (5.1) dx1 dx2 ( + 2x1 ) − (2 + 4x2 ) = 0 dt dt Fazendo a mudan¸ca de vari´ aveis y1 = x1 ; y2 = x2 ; y3 =
dy1 dx2 dy2 dx1 = e y4 = = , dt dt dt dt
o sistema pode ser escrito na forma matricial N
1 0 0 0
0 1 0 0
0 0 1 0
0 0 1 0
dY + dt
dY + M Y = 0: dt
0 0 −1 0 0 1 0 −1 Y = 0 −1 2 1 −3 2 −4 1 −2
x1 x y1 2 y 2 dx1 . onde = y3 dt dx2 y4 dt As matrizes M e N possuem seus determinantes nulos e os problemas correspondentes, s˜ao
M X = λN X du + λu = 0 ,
dt
(de autovalores para o par (M, N )) u = ce−λt (c ∈ R) 65
ao se procurar solu¸c˜ oes Y (t) = u(t)X . Mostraremos que existe uma matriz U n˜ao singular de ordem 4, tal que U T M U = T e U T N U = S s˜ao triangulares superior . Isto equivale a dizer que (M, N ) ´e congruente a um par (T, S) de matrizes triangulares superior. Uma simples verifica¸c˜ ao, mostra que se
U =
ent˜ao
2 0 0 1 1 0 0 −2 0 1 3 0 0 −1 −4 1
T = UT MU = e
(5.2)
0 −1 −2 −1 0 1 4 −16 0 0 1 −56 0 0 0 10
S = UT NU =
5 0 0 0
0 0 0 0 −1 1 0 −3 3 0 0 5
(5.3)
.
(5.4)
1 Assim, temos σ(M, N ) = {− , 0, 2}. 3 ´ tamb´em simples verificar que E α 0 S0 (T, S) = ;α ∈ C 0
0
−α − 11 α 3 S− 1 (T, S) = 3 α
115 70 α − 246 α 7 S2 (T, S) = 62 7 α
0
α
donde
;α ∈ C
;α ∈ C
S− 1 (M, N ) = U S− 1 (T, S) = 3 3
66
2α α 2 3α 1 3α
;α ∈ C
2α α ; α ∈ C S0 (M, N ) = U S0 (T, S) = 0
0α
30 α 7 25 α − 70 S2 (M, N ) = U S2 (T, S) = ; α ∈ C . − 60 α 7 5 α 7
Consequentemente,
Y (t) = c1 e−0t
2 1 0 0
30 7
25 − 70 , (c1 , c2 , c3 ∈ R) + c3 e−2t − 60 7
2 1
t + c2 e 3 2 3 1 3
5 7
´e a solu¸c˜ao de N Y˙ + M Y = 0, da forma Y (t) = u(t)X. A solu¸c˜ao do sistema (5.1) ´e ent˜ ao obtida tomando-se t
x1 = 2c1 + 2c2 e 3 +
5.1.1
t 30 −2t 25 c3 e e x2 = c1 + c2 e 3 − c3 e−2t . 7 70
Determina¸c˜ ao da matriz de congruˆ encia U
O que fizemos aqui, ´e baseado no m´etodo de prova da Proposi¸c˜ao 4.1 , sem a preocupa¸c˜ao de tomar U ortogonal. 2 1 Sendo det(M ) = det(N ) = 0, sabemos que 0 ∈ σ(M, N ). Tomamos U1 = autovetor e 0 0 S = {cu1 : c ∈ R} = Nuc(M ) auto-espa¸co do par (M, N ), associados ao autovalor 0. S ´e um subespa¸co invariante para (M, N ), verificando N S = S, posto que N u1 = u1 . De uT1 N u1 = uT1 u1 = 5 > 0, existe uma matriz complexa U2 de ordem 4 × 3 tal que U0 = [u1 , U2 ] ´e n˜ao singular e " # " # 0 ? 5 ? U0H M U0 = e U0H N U0 = , 0 M22 0 N22 onde M22 e N22 s˜ ao matrizes quadradas complexas de ordem 3. Al´em disso, uma base {u2 , u3 , u4 } de S ⊥ = {Y ∈ C 4 : uH 1 Y = 0} constituem as colunas de U2 . y1 y 2 Equivalentemente, Y = ∈ S ⊥ se, e somente se, 2y1 + y2 = 0. y3 y4 67
Definimos
u2 :=
1 −2 0 1
, u3 :=
0 0 1 0
e u4 :=
0 0 0 1
5 0 0 0
0 5 1 0
e temos,
2 1 0 0 1 −2 0 0 0 0 1 0 0 1 0 1
U0 =
que satisfaz
U0T M U0 =
0 −1 −2 −1 0 10 0 0 0 −8 1 −3 0 8 1 −2
e U0T N U0 =
0 0 1 0
0 0 1 0
onde aparecem as sub-matrizes de ordem 3 representando M22 e N22 , respectivamente. Os demais autovalores de (M, N ) s˜ao os autovalores do par (M22 , N22 ), ou seja: 1 σ(M, N ) = {0} ∪ σ(M22 , N22 ) = {− , 0, 2} . 3 ˆ n˜ao singular de ordem 3 tal que as matrizes Em seguida, usamos (M22 , N22 ) e obtemos U ˆ T M22 U ˆ =R e U ˆ T N22 U ˆ =S U s˜ao triangulares superior. Analogamente ao que fizemos na primeira etapa, tomamos por exemplo
0 1 0 ˆ 3 U = 1 0 −1 0 −4 a qual nos d´ a
1 −16 4 0 1 −1 ˆ T M22 U ˆ = ˆ T N22 U ˆ = 10 0 e U 0 . U 0 0 5 0 −56 1 0 3 −3 Definimos
" g M 22 =
10 0 −56 1
#
" g e N 22 =
5 0 3 −3
#
e obtemos , por exemplo, "
˜= U
0 1 1 0
#
tal que "
˜T
˜= U M22 U
1 −56 0 10
#
"
˜T
˜= e U N22 U
−3 3 0 5
#
.
ˆ ) diag(I2 , U ˜ ) a qual ´e a matriz de (5.2), obtemos U T M U e Finalmente, com U = U0 diag(1, U U T N U como em (5.3) e (5.4). 68
5.2
Um sistema massa-mola-pˆ endulo
Descrevemos nesta se¸c˜ ao, um exemplo extra´ıdo de [14, p´agina 237]. Suponhamos que a um sistema mola(k)-massa(m) n˜ ao amortecido, sujeito a vibrar sem atrito sobre trilhos horizontais, liga-se um pˆendulo r´ıgido de comprimento l (a massa do bra¸co do pˆendulo ´e desprez´ıvel em rela¸c˜ao `a massa M na sua extremidade). Supondo que o sistema vibre no plano vertical x0y, onde 0 ´e a posi¸c˜ao da massa no equil´ıbrio (y aponta verticalmente para baixo) e tomando-se coordenadas (x, θ) (θ ´e o ˆangulo de deflex˜ao do pˆendulo em rela¸c˜ ao ao eixo y) temos que numa configura¸c˜ao gen´erica do sistema, as coordenadas cartesianas (x1 , x2 ) e as coordenadas (x, θ) da massa M , se relacionam por: x1 = lsenθ, x2 = lcosθ . Mostra-se que para pequenas oscila¸c˜ oes, as coordenadas (x, θ) de M satisfazem o sistema 00 00 µx + θ
= −kx
x00 + lθ 00
= −gθ
(5.5)
onde µ=
m+M (0 < m < M ) . lM
(5.6)
Podemos reescrevˆe-lo na forma matricial como "
| "
As matrizes M =
µ 1 1 l
µ 1 1 l {z
"
eK=
x θ
#00
k 0 0 g
"
+ |
}
M
#
#"
k 0 0 g {z
#"
x θ
#
= 0.
}
K
#
s˜ao sim´etricas e de (5.6), temos µ > 0 e
det(M ) = µl − 1 =
m > 0. M
Assim, (K, M) ´e um par sim´etrico (positivo definido) e, do corol´ario 4.2, congruente a um par diagonal (D, I). As solu¸c˜oes Y = u(t)X de (5.1), s˜ ao dadas por KX = λMX
(5.7)
u00 + λu = 0 .
(5.8)
(µl − 1)λ2 − (kl + µg)λ + kg = 0 ,
(5.9)
e
A equa¸c˜ao caracter´ıstica de (K, M) ´e
69
cujo descriminante ´e ∆ = (kl + µg)2 − 4(µl − 1)kg = (kl)2 + (µg)2 + 2klµg − 4klµg + 4kg = (kl)2 + (µg)2 − 2klµg + 4kg = (kl)2 + (µg)2 + 2kg(2 − lµ) = (kl)2 + (µg)2 + 2kg(1 + (1 − µl)) = (kl)2 + (µg)2 + 2kg(1 − m/M ) > 0 , de (5.6) . As ra´ızes de (5.9) s˜ ao
√ (kl + µg) − ∆ λ1 = 2(µl − 1)
e
√ (kl + µg) + ∆ , λ2 = 2(µl − 1)
as quais s˜ao estritamente positivas e, λ2 > λ1 . ´ evidente que λ2 > 0. Mostremos que λ1 > 0: E 2 2 √ Ora, 0 < ∆ = (kl + µg) − 4(µl − 1)kg < (kl + µg) , donde ∆ > 0 e consequentemente, λ1 > 0.
√
∆ < kl + µg, portanto, (kl + µg) −
Da equa¸c˜ ao (5.8) com λ = λ1 , temos
onde ω1 =
onde ω2 =
√
√
u1 (t) = a1 cosω1 t + b1 senω1 t
(5.10)
u2 (t) = a2 cosω2 t + b2 senω2 t
(5.11)
λ1 e analogamente,
λ2 .
Seja Xi um autovetor de (K, M), associado a λi (i = 1, 2). Ent˜ao, a solu¸c˜ ao de (5.5) ´e dada por Y (t) = (a1 cosω1 t + b1 senω1 t)X1 + (a2 cosω2 t + b2 senω2 t)X2 ,
(5.12)
onde a1 , a2 , b1 , b2 ∈ R.
5.3
·· A equa¸ c˜ ao diferencial M X + C X˙ + KX = 0.
Em geral, a equa¸c˜ ao
··
˙ M X (t) + C X(t) + KX(t) = W (t)
(5.13)
modela sistemas mecˆ anicos onde o relacionamento entre as for¸cas de entrada W (t) e os deslocamentos de sa´ıda ou resposta X(t) ´e linear. 70
M ´e a matriz de massa, C ´e a matriz de esfor¸cos e K ´e a matriz de rigidez. Todas s˜ao geralmente supostas sim´etricas e positivas definidas. S˜ao mais simples de tratamento matem´atico, os casos particulares em que C = 0 ou C = αM + βK, pois estes casos nos levam a problemas de autovalores generalizados para um par de matrizes quadradas. Da mesma forma que para a equa¸c˜ ao de primeira ordem, podemos encontrar solu¸c˜oes particulares da equa¸c˜ ao (5.13) no caso homogˆeneo, ··
M X + C X˙ + KX = 0
(5.14)
da forma X(t) = α(t)Y . Substituindo esta express˜ ao em (5.14), obtemos ··
α(t)M Y + α(t)CY ˙ + α(t)KY = 0
(5.15)
em que se procurando α(t) na forma eλt temos λ2 M Y + λCY + KY = 0 .
(5.16)
Sendo M, C e K matrizes quadradas reais quaisquer com M n˜ao singular, o primeiro membro da equa¸c˜ao (5.16) se constitui num polinomio em λ, de grau 2n com coeficientes reais. Assim, a equa¸c˜ao (5.16) possui 2n ra´ızes complexas conjugadas. Um sistema sim´ etrico de primeira ordem associado Com o intuito de decompor o fenˆ omeno como uma soma de osciladores independentes (modos complexos), o modelo ´e reescrito como um sistema sim´etrico de primeira ordem:
C
M
M
0
˙ W ·
+
Z
K 0
0 −M
W
Z
= 0,
(5.17)
onde
W Z
X
=
·
X Consideremos o problema correspondente de autovalores
K 0
0 −M
θ=λ
C M
M 0
θ
(5.18)
para λ ∈ C e onde θ ´e uma matriz coluna de tipo 2n × 1, a qual escreveremos na forma "
ψ ϕ
ψ1 .. ψ= . e ψn
#
onde
Casos particulares importantes a) C = 0. b) C = αM + βK. 71
ϕn+1 ϕ = ... . ϕ2n
72
Bibliografia [1] J. J. Dongarra, J. R. Bunch, C. B. Moler, G. W. Stewart, LINPACK User’s guide, Philadelphia, PA, (1979). [2] B. S. Garbow, J. M. Boyle, J. J. Dongarra, C. B. Moler, Matrix Eigensystem Routines, EISPACK Guide Extention, Lecture Notes in Computer Science, Vol. 51, springer-Verlag, New York, (1977). [3] F. R. Ganthmacher, Matrix Theory , vol. 2, Chelsea, New York, (1959). [4] G.H. Golub, C.F. Van Loan, Matrix Computations, Johns Hopkins Series in the Mathematical Sciences 3, 3th edition, (1996). [5] S. H. Gould, Variational Methods for Eigenvalue Problems, Math. Expositions 10, Univ. of Toronto Press, (1957). [6] W. Greub, Linear Algebra, Springer-Verlag, Graduate Texts in Math., 23, (1975). [7] M. Hirsch, S. Smale, Differential Equations, Dynamical Systems, and Linear Algebra, Academic Press, (1974). ´ [8] K. Hoffmann, R. Kunze, Algebra Linear, LTC, Rio de Janeiro, (1979). [9] R. A. Horn, C. R. Johnson, Matrix Analysis, Cambridge Univ. Press, (1985). [10] R. A. Horn, C. R. Johnson, Topics in Matrix Analysis, Cambridge Univ. Press, (1991). [11] K. N. Majindar, Linear combinations of hermitian and real symmetric matrices, Journal of Lin. Alg. and Applic., 25, (1979), 95-105. [12] B. N. Parlett, The Symmetric Eigenvalue Problem, Prentice Hall, Englewood Cliff, N. J., (1980). [13] G. W. Stewart, On the sensitivity of eigenvalue problem Ax = λBx, SIAM J. Num. Anal., vol. 9, (1972). [14] J. I. Troutman, Variational Calculus with Elementary Convexity, Undergraduate Texts in Math., Spriger-Verlag, (1983). [15] F. Uhlig, A recurring theorem about pairs of quadratic forms and extentions: A survey, Jour. Lin. Alg. and Applic., 25, ( 1979), 219-237. [16] D. Watkins, Foundations of Matrix Computations, Wiley, (1991). [17] H. F. Weinberger, Variational Methods for Eigenvalue Approximations, SIAM, (1974).
73