PROBLEMAS DE AUTOVALORES GENERALIZADOS E APLICAções

June 29, 2017 | Autor: Rubens Sampaio | Categoria: Linear Algebra, Mechanical Vibrations, Generalized eigen value problem, Eigenvalue Problems
Share Embed


Descrição do Produto

PROBLEMAS DE AUTOVALORES ˜ GENERALIZADOS E APLICAC ¸ OES

Hamilton F. Leckar Departamento de Matem´atica Aplicada-UFF Rua M´ario Santos Braga, s/n 24020-140 Niter´oi (RJ) E-mail: [email protected] Fax: 55 21 717 8269 Rubens Sampaio Departamento de Engenharia Mecˆanica-PUC-Rio Rua Marquˆes de S˜ao Vicente, 225 22451-900 Rio de Janeiro RJ E-mail: [email protected] Fax: 55 21 3527 1162

Rio de Janeiro - fevereiro de 2000

Conte´ udo 1

Problemas de autovalores generalizados 1.1 Introdu¸c˜ ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Motiva¸c˜ ao ao estudo de problemas de autovalores generalizados . . . . . . . . . . . 1.3 Mudan¸ca de vari´ aveis. Pares equivalentes de matrizes. . . . . . . . . . . . . . . . . .

3 3 7 8

2

Decomposi¸ c˜ oes de uma matriz 2.1 Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Decomposi¸c˜ ao QR e de Schur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Decomposi¸c˜ ao em valores singulares . . . . . . . . . . . . . . . . . . . . . . . . . . .

17 17 21 26

3 Decomposi¸ c˜ oes de um Par de Matrizes 31 3.1 Decomposi¸c˜ ao generalizada de Schur . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.2 Subespa¸cos invariantes ou deflacionadores . . . . . . . . . . . . . . . . . . . . . . . . 37 4 Decomposi¸ c˜ oes de pares sim´ etricos 4.1 Decomposi¸c˜ oes de pares de matrizes sim´etricas . . . . . . . . . . . 4.2 Diagonaliza¸c˜ ao de um par de matrizes sim´etricas . . . . . . . . . . 4.3 Diagonaliza¸c˜ ao de pares sim´etricos de matrizes reais . . . . . . . . 4.4 A decomposi¸c˜ ao sim´etrica . . . . . . . . . . . . . . . . . . . . . . . 4.4.1 Forma canˆ onica de Jordan. . . . . . . . . . . . . . . . . . . 4.4.2 Forma canˆ onica de Jordan real. . . . . . . . . . . . . . . . . 4.5 Decomposi¸c˜ ao M = P −1 N ou M = N1 P1−1 , com fatores sim´etricos 5 Aplica¸ c˜ oes 5.1 Decomposi¸c˜ ao de um par de matrizes quadradas singulares de 5.1.1 Determina¸c˜ ao da matriz de congruˆencia U . . . . . . . 5.2 Um sistema massa-mola-pˆendulo . . . . . . . . . . . . . . . . ·· 5.3 A equa¸c˜ ao diferencial M X + C X˙ + KX = 0. . . . . . . . . . Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

43 44 48 51 54 54 55 61

ordem . . . . . . . . . . . . . . . .

4 . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

65 65 67 69 70 73

Pref´ acio

Problemas auto-valores generalizados s˜ao problemas de valores e vetores pr´oprios do seguinte tipo: Achar um par (v, λ) satisfazendo A v = λ B v sendo v uma matriz coluna n˜ ao nula e λ um n´ umero complexo. A e B s˜ao matrizes retangulares arbitr´arias. Denominamos ao λ auto-valor generalizado e v auto-vetor generalizado relativo `a λ. Relacionamos em seguida, alguns problemas que podem ser equacionados como problemas de auto-valores generalizados, na ´ area de Mecˆanica. 1. C´ alculo estrutural Estudo de vibra¸c˜ oes livres de uma estrutura, com ou sem pr´e-tens˜ao, n˜ao amortecida e sem movimento de rota¸c˜ ao. Procura-se os menores auto-valores ou aqueles que est˜ao num determinado intervalo, para saber se uma for¸ca excitadora pode gerar ressonˆancia, ou n˜ao. Nesse caso A ´e a matriz de rigidez (K), eventualmente aumentada pela matriz de rigidez geom´etrica, notada Kg , se a estrutura tem pr´e-tens˜ao. B corresponde `a matriz de massa (M ). O problema de auto valores generalizados neste caso ´e (K + Kg ) v = ω 2 M v (ω ´e igual a 2πf, sendo f a frequˆencia pr´opria ). 2. Determina¸c˜ ao do modo de flambagem linear Neste caso a aproxima¸c˜ ao que fornece a flambagem linear ´e talque v ´e o modo de flambagem associado ` a carga cr´ıtica λ. O problema ´e: K v = −λKg v com K matriz de rigidez, Kg matriz de rigidez geom´etrica gerada pelo campo de pr´e-tens˜ ao devido ` a carregamentos. 3. C´ alculo das velocidades cr´ıticas de um sistema em rota¸c˜ ao Neste caso A ´e a matriz de rigidez (K), B ´e a matriz de rigidez `a rota¸c˜ao Kr . A velocidade cr´ıtica de rota¸c˜ ao procurada, λ, ´e solu¸c˜ao do problema: K v = −λ2 Kr v . 4. Problemas acoplados Problemas de comportamento dinˆamico de uma estrutura que interage com um meio externo ou interno (pode ser um fluido, um material piezo-el´etrico, etc). Estas Notas tem como objetivo descrever de forma sistem´atica este assunto, tanto no seu aspecto te´orico como computacional. Descrevemos os principais resultados e indicamos algumas das principais aplica¸c˜ oes, que poder´ a ser de utilidade para pessoas que trabalham com este tipo de problemas, como por exemplo, aqueles que se dedicam a vibra¸c˜oes e controle. 2

Cap´ıtulo 1

Problemas de autovalores generalizados 1.1

Introdu¸ c˜ ao

Sejam M e N dois espa¸cos vetoriais, M de dimens˜ao m e N de dimens˜ao n sobre o corpo IF , o qual representa o corpo R dos n´ umeros reais ou o corpo C dos n´ umeros complexos. Sejam A e B aplica¸c˜ oes lineares definidas em M com valores no espa¸co N . Autovalores e autovetores generalizados O conjunto dos autovalores generalizados do par (A, B), denotado por σ (A, B), ´e constitu´ıdo dos n´ umeros complexos λ para os quais existe u ∈ M, n˜ao nulo, satisfazendo Au = λBu .

(1.1)

Se existe λ ∈ σ (A, B), todo vetor u n˜ ao nulo de M satisfazendo Au = λBu ´e denominado autovetor generalizado do par (A, B) correspondente a λ. Mais simplesmente, (λ, u) ´e denominado par caracter´ıstico de (A, B). Qualquer λ ∈ σ (A, B) define um subespa¸co vetorial de M Sλ = {u ∈ M : Au = λBu} denominado auto-espa¸co ou espa¸co caracter´ıstico de (A, B), correspondente a λ. A fim de simplificar a exposi¸c˜ ao, usaremos a seguinte nomenclatura: O problema de autovalores generalizados para (A, B) (ou problema Au = λBu) consiste na determina¸c˜ao dos conjuntos σ(A, B) e (se n˜ao vazio), Sλ para cada λ ∈ σ(A, B). O problema cl´ assico de autovalores Au = λu ´e um problema de autovalores generalizados para (A, B), no caso particular em que M = N e B = IdM (matriz identidade de M). Neste caso, σ(A, IdM ) coincide com o bem conhecido espectro σ(A) do operador A. O n´ ucleo de A ´e o subespa¸co vetorial de M constitu´ıdo dos vetores u ∈ M tais que Au = 0; denot´a-lo-emos por Nuc(A) . Exemplo 1.1 1) Se existir um vetor u n˜ ao nulo em Nuc (A), ent˜ ao Au = 0Bu e portanto 0 ∈ σ(A, B). 2) Se existir u n˜ ao nulo em Nuc (A) ∩ Nuc (B), ent˜ ao Au = λBu = 0, para todo λ ∈ C; portanto σ(A, B) = C. 3

3) Sendo A = B, temos que Au = λBu ´e equivalente a Au = λAu que por sua vez ´e equivalente a (1 − λ)Au = 0. Se Nuc (A) = {0}, u ´nica possibilidade de solu¸c˜ ao ocorre se λ = 1. Neste caso, temos σ(A, A) = {1} e S1 = M. Se Nuc (A) 6= {0}, o problema ter´ a solu¸c˜ ao para λ qualquer, logo teremos σ(A, A) = C e (

Sλ =

M λ=1 Nuc (A) λ = 6 1.

4) Caso em que Nuc (A) = {0} e A(M) ∩ B(M) = {0}. Temos que u ´e solu¸c˜ ao de Au = λBu somente se Au = Bu = 0. Logo, a injetividade de A, implica u = 0. Portanto, este ´e um caso em que σ(A, B) = ∅. Nota¸ c˜ oes e nomenclatura b´ asica Neste trabalho estaremos identificando os espa¸cos vetoriais R n e C n respectivamente com os espa¸cos vetoriais R n×1 e C n×1 das matrizes colunas de n linhas sobre R ou C, e transforma¸c˜ oes lineares de IF m em IF n , s˜ ao identificadas, por meio das bases canˆonicas desses espa¸cos, a matrizes retangulares sobre IF , de n linhas e m colunas. O espa¸co das matrizes de n linhas e m colunas(de ordem n × m) sobre IF ´e denotado por IF n×m . Por exemplo, se A ´e uma transforma¸c˜ao linear de IF m em IF n , para cada u de IF m , o elemento Au de IF n ´e identificado ` a matriz coluna AX de IF n×1 , produto da matriz A de IF n×m representante de A, pela coluna   x1    x2   X= (1.2)  ..   .  xm

representante de u. Em particular, a equa¸c˜ ao (1.1) se re-escreve nestas nota¸c˜oes, como AX = λBX . Uma matriz A em IF m×n ´e representada como A = [Aij ] de m linhas e n colunas onde Aij representa o elemento da linha i e coluna j; i varia de 1 `a m enquanto que j varia de 1 `a n. Se A1 , . . . , An pertencem a IF m , [A1 , . . . , An ] denotar´a a matriz A ∈ IF m×n tendo Aj como sua j-´esima coluna. X, Y, Z, W denotam elementos de IF n , pensados como colunas, por exemplo (1.2); A, B, C, D, E, IF denotam matrizes retangulares, eventualmente quadradas; K, L, M, N, O, P, Q, R, S, T, U, V denotam matrizes quadradas; 0 denota matriz nula, de ordem conveniente, em cada caso. Defini¸ c˜ ao 1.1 i. A transposta de uma matriz A de IF m×n ´e a matrix AT = [ATji ] de IF n×m cujo elemento da linha j e coluna i ´e o elemento da linha i e coluna j de A, ou seja, ATji = Aij ; n×m cujo elemento da linha j ii. A adjunta de uma matriz A de C m×n ´e a matriz AH = [AH ji ] ∈ IF e coluna i ´e o complexo conjugado do elemento da linha i e coluna j de A, ou seja, AH ji = Aij .

4

Defini¸ c˜ ao 1.2 Uma matriz A de ordem m × n ´e denominada i. diagonal se m = n e Aij = 0, se i 6= j; ii. triangular superior se Aij = 0, se i > j; iii. estritamente triangular superior se Aij = 0, se i ≥ j; iv. quase triangular superior ou Hessenberg superior se Aij = 0, se i > j + 1. A matriz identidade de IF n×n ´e I = [E1 , . . . , En ], onde cada coluna Ei possui 1 na linha i e possui 0 nas demais linhas. Denotamos por Λ = diag(λ1 , . . . , λn ) a matriz diagonal de IF n×n cujos elementos da diagonal principal Λii s˜ ao os λi . Defini¸ c˜ ao 1.3 Uma matriz quadrada M de ordem n ´e denominada i. sim´ etrica se M T = M ; ii. auto-adjunta ou hermiteana se M H = M ; iii. unit´ aria se M H M = M M H = I; iv. ortogonal se Mij ´e real e se M T M = M M T = I; v. normal se M H M = M M H ; vi. sim´ etica n˜ ao negativa definida ou sim´ etrica positiva semi-definida se M ´e real sim´etrica e para todo X de IF n , X H M X ´e real n˜ ao negativo; vii. sim´ etrica positiva definida se ´e auto-adjunta e se para todo X n˜ ao nulo de IF n , X H M X > 0; viii. invers´ıvel ou n˜ ao-singular se existe N ∈ IF n×n satisfazendo M N = N M = I; N ´e u ´nica, denominada inversa de M e denotada por M −1 . ix. singular se M n˜ ao ´e invers´ıvel. Defini¸ c˜ ao 1.4 (Equivalˆ encia) Sejam A e B matrizes m × n. Dizemos que A e B s˜ ao i. equivalentes se existe uma matriz quadrada invers´ıvel P de ordem m, uma matriz quadrada invers´ıvel Q de ordem n tais que PH A Q = B . ii. unitariamente equivalentes se existem duas matrizes unit´ arias, U de ordem m e V de ordem n, tais que UH A V = B . Defini¸ c˜ ao 1.5 (Similaridade e congruˆ encia) Sejam M e N matrizes quadradas de ordem n. Dizemos que M e N s˜ ao 5

i. similares se existe uma matriz invers´ıvel P de ordem n para a qual P −1 M P = N ; ii. congruentes se existe uma matriz invers´ıvel P de ordem n para a qual PH M P = N ; iii. unitariamente similares se existe uma matriz unit´ aria U de ordem n para a qual UH M U = N . Observa¸ c˜ ao 1.1 Assim como similaridade e congruˆencia, as rela¸c˜ oes introduzidas na defini¸c˜ ao m×n (1.4), s˜ ao rela¸c˜ oes de equivalˆencia sobre IF : i) Se P ∈ IF m×m , Q ∈ IF n×n e P H AQ = B, ent˜ ao sendo P e Q invers´ıveis, temos (P −1 )H BQ−1 = A ; pois (P H )−1 = (P −1 )H . ii) Se P, R ∈ IF m×m , Q, S ∈ IF n×n s˜ ao invers´ıveis e se P H AQ = B, RH BS = C ent˜ ao, C = RH BS = RH (P H AQ)S = (P R)H A(RS) onde P R ∈ IF m×m , QS ∈ IF n×n s˜ ao invers´ıveis. iii) (Im )H AIn = A. Nos casos de similaridade e congruˆencia, as equivalˆencias decorrem de (P Q)−1 = Q−1 P −1 e (P Q)H = QH P H . A seguinte no¸c˜ ao de equivalˆencia de pares de matrizes, desempenhar´a um papel bastante importante, simplificador e classificador, no estudo de problemas de autovalores generalizados, como veremos no desenvolvimento deste trabalho. e B e B e matrizes dadas de IF m×n . Os Defini¸ c˜ ao 1.6 (Equivalˆ encia de pares) i. Sejam A, A, e B) e s˜ pares (A, B) e (A, ao ditos equivalentes se existem P ∈ IF m×m e Q ∈ IF n×n n˜ ao singulares tais que e P H AQ = Ae e P H BQ = B. e B) e dizem-se unitariamente equivalentes . ii. Se P e Q s˜ ao unit´ arias, (A, B) e (A, f, N e N e matrizes dadas Defini¸ c˜ ao 1.7 (Similaridade e congruˆ encia de pares) Sejam M, M n×n f e em IF . Os pares (M, N ) e (M , N ) s˜ ao ditos:

i. similares se existe uma matriz quadrada invers´ıvel P , de ordem n, tal que f, e P −1 N P = N e; P −1 M P = M

ii. congruentes se se existe uma matriz quadrada invers´ıvel P , de ordem n, tal que f, e P H N P = N e. P HMP = M

Defini¸ c˜ ao 1.8 Um par (M, N ) ´e dito: i. sim´ etrico se M T = M e N T = N ; ii. sim´ etrico positivo definido se (M, N ) ´e sim´etrico e N ´e positiva definida. Observamos que, em geral, um par sim´etrico positivo definido ´e referido simplesmente como par sim´etrico. 6

1.2

Motiva¸ c˜ ao ao estudo de problemas de autovalores generalizados

Nesta se¸c˜ao, veremos como surge um problema M X = λN X, quando o m´etodo de separa¸c˜ao de vari´aveis ´e usado para resolver a equa¸c˜ ao diferencial N X˙ + M X = 0 e como uma mudan¸ca de vari´aveis na equa¸c˜ ao diferencial, nos leva a considerar problemas de autovalores para pares equivalentes mais simples do que o par (M, N ). A equa¸ c˜ ao diferencial N X˙ + M X = 0. Dadas M, N ∈ IF n×n , uma solu¸c˜ ao particular da equa¸c˜ao N X˙ + M X = 0

(1.3)

´e uma fun¸c˜ao vetorial continuamente diferenci´avel X : J → IF n onde J ´e um intervalo aberto n˜ ao vazio, satisfazendo para todo t ∈ J, N

dX(t) + M X(t) = 0 . dt

Mais precisamente, uma fun¸c˜ ao vetorial X : J → IF n a cada t ∈ J associa um vetor X(t) ∈ IF n que por sua vez corresponde a uma aplica¸c˜ ao de {1, 2, . . . , n} em IF , isto ´e, X(t) : {1, 2, . . . , n} → IF que ´e definida para cada i ∈ {1, 2, . . . , n} por X(t)(i) = Xi (t) = X(t, i) . Assim, uma fun¸c˜ ao vetorial X : J → IF n pode ser vista como uma fun¸c˜ao de duas vari´aveis (t, i) ∈ J × {1, 2, . . . , n} com valores em IF n . Podemos ent˜ ao reescrever a equa¸c˜ ao dada na forma de um sistema N

dX(t) (i) + M X(t)(i) = 0 , (1 ≤ i ≤ n) . dt

O m´etodo de separa¸c˜ ao de vari´ aveis consiste na pesquisa de solu¸c˜oes particulares desta equa¸c˜ ao, na forma X = α(t)Y (i) = α(t)Yi com α : J → IF , Y : {1, 2, . . . , n} → IF , tal que para todo (t, i) , com t ∈ J e i ∈ {1, 2, . . . n}, X(t, i) = α(t)Yi , ou equivalentemente, X(t) = α(t)Y , Y ∈ IF n . Substituindo na equa¸c˜ ao X = αY e observando que (N temos

dX(t) d[(N X)i ] )(i) = dt dt

dα (N Y )i + α(M Y )i = 0 dt

ou equivalentemente, dα N Y + αM Y = 0 . dt Da´ı, se existir λ ∈ C e Y ∈ IF n satisfazendo M Y = λN Y 7

(1.4)

(1.5)

ent˜ao, de (1.4), a fun¸c˜ ao X = αY ´e a solu¸c˜ao particular da equa¸c˜ao (1.3) se, e somente se, dα + λα = 0 ou N Y = 0 . dt Como

dα + λα = 0 se, e somente se, α = α0 e−λt , (α0 ∈ IF ), a solu¸c˜ao particular neste caso ser´ a dt X(t) = α0 e−λt Y .

Se N Y = 0, ent˜ ao a equa¸c˜ ao (1.4) se reduz a αM Y = 0 e portanto, com α(t) = 0 para todo t ∈ J, temos a solu¸c˜ ao particular de (1.3) X(t) = 0 , para todo t ∈ J . Se al´em de N Y = 0, tamb´em M Y = 0, a fun¸c˜ao X(t) = α(t)Y ´e solu¸c˜ao de (1.3) para qualquer α : J → IF continuamente diferenci´ avel. Em resumo, para que uma fun¸ca˜o X(t) = α(t)Y seja solu¸c˜ao particular da equa¸c˜ao (1.3), ´e suficiente que exista λ ∈ C e Y ∈ IF n tal que M Y = λN Y. A equa¸ c˜ ao diferencial N X (k) + M X = 0, (k > 1). Neste caso, com o tratamento an´alogo ao que foi dado ao caso k = 1, podemos encontrar solu¸c˜oes particulares desta equa¸c˜ ao na forma X(t) = α(t)Y , se existe um par caracter´ıstico (λ, Y ) do problema de autovalores generalizados para (M, N ) e α(t) ´e uma solu¸c˜ao da equa¸c˜ao diferencial dk α + λα = 0 . dtk

1.3

Mudan¸ ca de vari´ aveis. Pares equivalentes de matrizes.

Seja U uma matriz invers´ıvel de ordem n. Fazendo a substitui¸c˜ao Y = U −1 X, a equa¸c˜ao N

dX(t) dY (t) + M X(t) = 0 se torna N U + M U Y (t) = 0 . dt dt

Pr´e-multiplicando esta u ´ltima equa¸c˜ao por V H , com V invers´ıvel, temos equivalentemente a equa¸c˜ao dY (t) + (V H M U )Y (t) = 0 . (V H N U ) dt Assim, estamos diante de um problema de autovalores generalizados para o par (V H M U, V H N U ) o qual ´e equivalente ao par (M, N ). Admitindo que existe um par caracter´ıstico (λ, W ) para o problema (V H M U )W = λ(V H N U )W, ent˜ao (λ, U W ) ´e um par caracter´ıstico para o problema M X = λN X 8

Equa¸ c˜ ao caracter´ıstica de um par (M, N ) Sendo M e N matrizes quadradas de ordem n, existe um autovalor generalizado λ ∈ C para (M, N ), se e somente se, M −λN ´e singular. De outro modo, λ ∈ σ(M, N ) se, e somente se, det[M −λN ] = 0. A equa¸c˜ ao caracter´ıstica de (M, N ) ´e definida como det[M − λN ] = 0 .

(1.6)

O primeiro membro da equa¸c˜ ao det[M − λN ] = 0 pode ser desenvolvido como um polinˆomio p(λ), o qual ´e denominado polinˆ omio caracter´ıstico de (M, N ). f, N e ). Ent˜ Lema 1.1 Consideremos dois pares equivalentes (M, N ) e (M ao,

1. existe c ∈ IF , n˜ ao nulo, tal que f − λN e] ; det[M − λN ] = c det[M f, N e ). 2. σ(M, N ) = σ(M

Observa¸ c˜ ao 1.2 O lema 1.1 nos fornece uma forma mais imediata de obtermos σ(M, N ) no caso f, N e) ´ em que (M e um par de matrizes triangulares de ordem n, equivalente ` a (M, N ). De fato, temos f, N e) σ(M, N ) = σ(M f − λN e ]} = {λ ∈ C : det[M f11 − λN e11 ) . . . (M fnn − λN enn ) = 0} ; = {λ ∈ C : (M

donde se segue que f, N e) = { i) σ(M

g M ii g N ii

g g g :N ındice i de 1 ` a n; ii 6= 0}, se |Mii | + |Nii | > 0 para todo ´

g g f, N e ) = C, se para algum ´ındice i, tivermos M ii) σ(M ii = Nii = 0.

Como pode ser observado na tabela 1.1, a equa¸c˜ao caracter´ıstica de um par (M, N ) pode ser imposs´ıvel ou mesmo uma equa¸c˜ ao polinˆomial em λ de grau estritamente menor do que n.

(M, N ) equivalente a um par (Θ, Ω) de matrizes diagonais. Tomemos um par (M, N ) equivalente `a um par diagonal, isto ´e, um par de matrizes diagonais (Θ, Ω). Neste caso, as solu¸c˜ oes (λ, X) do problema M X = λN X s˜ao facilmente determinadas. Com efeito: Sejam Θ = diag(Θ1 , . . . , Θn ), Ω = diag(Ω1 , . . . , Ωn ) e X = [x1 , . . . , xn ]T . Ent˜ao, ΘX = λΩX se, e somente se,

   (Θ1 − λΩ1 )x1  

=0 .. .

(Θn − λΩn )xn = 0 .

Definamos os seguintes conjuntos de ´ındices ζ = {i : 1 ≤ i ≤ n, Ωi = 0} , ξ = {i : 1 ≤ i ≤ n, Ωi 6= 0} e η = {j ∈ ζ : Θj = 0} . 9

(1.7)

(M, N ) "

"

"

"

"

1 2 0 3

# "

1 0 0 1

# "

2 0 0 3

# "

1 0 0 0

# "

0 1 1 0

,

,

,

, # "

,

0 1 0 0

#!

0 0 0 1

#!

1 2 0 3

#!

0 1 0 0

#!

1 0 0 −1

det[M − λN ] = 0

σ(M, N )

3=0



1−λ=0

{1}

λ2 − 3λ + 2 = 0

{1, 2}

0=0

C

−λ2 − 1 = 0

{−i, i} ⊂ C .

#!

Tabela 1.1: Polinˆ omio caracter´ıstico de alguns pares de matrizes quadradas. i) Se η 6= ∅, ent˜ ao σ(Θ, Ω) = C. Logo σ(A, B) = C e Sλ (A, B) possui elementos x1  ..  X =  .  com xj 6= 0 se xn 



j ∈ η.

Θk : k ∈ ξ} e Sλk possui elementos X com a Ωk coordenada xk 6= 0. Com efeito: Sendo η = ∅, ent˜ao Θi 6= 0 para todo i de 1 `a n. Ent˜ ao, i para todo i, Θi − λΩi = 0 se, e somente se, Ωi 6= 0 e λ = Θ . Equivalentemente, se i ∈ ξ e Ωi Θi λ = Ωi . Neste caso, λ 6= λk (k ∈ ξ) implica Θi − λΩi 6= 0 para todo i. Assim, a u ´nica solu¸c˜ ao de (1.7) ´e X = 0, portanto λ ∈ / σ(Θ, Ω).

ii) Se η = ∅, ent˜ ao σ(Θ, Ω) = σ(A, B) = {λk =

Com uma an´ alise semelhante, podemos mostrar que se (M, N ) ´e equivalente `a um par de matrizes triangulares (E, G), de mesma ordem, ent˜ao σ(E, G) = σ(M, N ) = C se para algum i = 1, 2, . . . , n, Ekk Eii = Gii = 0 ; e do contr´ ario, σ(E, G) = { : Gkk 6= 0} . Gkk Finalizamos esta se¸c˜ ao fazendo o coment´ario de que o exerc´ıcio 2 , p´agina 280 de [11] ´e falso. De fato, o u ´ltimo item da tabela 1.1 serve de contra-exemplo. Nos cap´ıtulos 3 e 4, ser˜ ao descritos teoremas que mostram equivalˆencia de determinadas classes de pares (M, N ) com pares triangulares ou diagonais. An´ alise de pares (M, N ) com N ou M n˜ ao singular Come¸camos tomando N n˜ ao singular. Neste caso, N X˙ + M X = N (X˙ + N −1 M X) d(N X) = N X˙ + (M N −1 )N X = + (M N −1 )(N X) . dt 10

Da´ı, uma fun¸c˜ ao X(t) ´e solu¸c˜ ao de N X˙ + M X = 0 se, e somente se, a mesma tamb´em ´e solu¸c˜ ao −1 ˙ da equa¸c˜ao X + N M X = 0, ou ainda com a mudan¸ca de vari´avel Y = N X, se e somente se, Y ´e solu¸c˜ao da equa¸c˜ ao Y˙ + (M N −1 )Y = 0. Em resumo, temos N X˙ + M X = 0 ⇔ X˙ + N −1 M X = 0 ⇔ Y˙ + (M N −1 )Y = 0 , (Y = N X) . Assim, os problemas de autovalores respectivos, M Z = λN Z, N −1 M Z = λZ e M N −1 Z = λZ s˜ao equivalentes, ou seja, os pares seguintes s˜ao equivalentes: (M, N ), (N −1 M, I) e , (M N −1 , I) . Consequentemente, temos as seguintes igualdades: σ(M, N ) = σ(N −1 M, I) = σ(N −1 M ) = σ(M N −1 , I) = σ(M N −1 ) e Sλ (M, N ) = Sλ (N −1 M, I) = N Sλ (M N −1 , I), para cada λ ∈ σ(M, N ) . A discuss˜ao acima pode ser resumida no seguinte Lema 1.2 Seja (M, N ) um par de matrizes quadradas em IF n×n sendo N invers´ıvel. Ent˜ ao, os seguintes pares (M, N ) , (N −1 M, I) e , (M N −1 , I) 1. s˜ ao equivalentes, 2. possuem o mesmo espectro σ(M, N ), o qual ´e n˜ ao vazio, e para cada λ de σ(M, N ), temos Sλ (M, N ) = Sλ (N −1 M, I) = N Sλ (M N −1 , I) . Consideremos agora que M seja n˜ ao singular. Neste caso temos os pares equivalentes: (M, N ) , (I, M −1 N ) e (I, N M −1 ) . Temos tamb´em nesse caso σ(M, N ) = {λ−1 : 0 6= λ ∈ σ(M −1 N )} = {λ−1 : 0 6= λ ∈ σ(N M −1 )} . Na verdade, λ = 0 ∈ / σ(M, N ) pois M X = 0 ⇔ X = 0. Se (λ, X) ´e auto-par de (M, N ) com λ 6= 0, ent˜ao M X = λN X ⇔ λ−1 X = M −1 N X ⇔ M X = λN M −1 (M X) ⇔ λ−1 (M X) = (N M −1 )(M X). Al´em disso, se λ ∈ σ(M, N ), ent˜ ao Sλ (M, N ) = Sλ−1 (M −1 N ) = M Sλ−1 (N M −1 ) . Temos ent˜ ao o seguinte, Lema 1.3 Sejam (M, N ) pares de matrizes de IF n×n , onde M ´e n˜ ao singular. Ent˜ ao: 1. os pares (M, N ) , (I, M −1 N ) e (I, N M −1 ) s˜ ao equivalentes, 11

2. σ(M, N ) = {λ = µ−1 : µ ∈ σ(M −1 N ) = σ(N M −1 )} . Al´em disso, se σ(M, N ) ´e n˜ ao vazio, ent˜ ao, para cada λ ∈ σ(M, N ) Sλ (M, N ) = Sλ−1 (M −1 N ) = M Sλ−1 (N M −1 ) . Lema 1.4 Sejam (M, N ) pares de matrizes quadradas de IF n×n onde N ´e n˜ ao singular. Ent˜ ao, s˜ ao equivalentes: 1. (M, N ) ´e equivalente a um par (Λ1 , Λ2 ) de matrizes diagonais; 2. M N −1 ´e similar a uma matriz diagonal Λ. Nota 1.1 a) Uma matriz M ∈ IF n×n similar a uma diagonal ´e denominada simples ou diagonaliz´ avel. Deste modo, o lema implica que: Um par (M, N ) com N n˜ ao singular ´e equivalente a um par diagonal se, e somente −1 se, M N ´e diagonaliz´ avel. b) Existe P n˜ ao singular tal que P −1 M N −1 P ´e uma matriz diagonal Λ se, e somente se, (N −1 P )−1 (N −1 M )(N −1 P ) = Λ . Ent˜ ao, M N −1 ´e diagonaliz´ avel se, e somente se, N −1 M ´e diagonaliz´ avel . Prova: (do lema 1.4) Suponhamos (M, N ) equivalente a (Λ1 , Λ2 ). Da´ı, existem U, V ∈ IF n×n tais que V H M U = Λ1 e V H N U = Λ2 , com U e V n˜ao singulares. Ent˜ao, V H M = Λ1 U −1 e N −1 = U Λ2 −1 V H , donde V H M N −1 = (Λ1 U −1 )(U Λ2 −1 V H ) = Λ1 Λ2 −1 V H e portanto, V H M N −1 (V H )−1 = Λ1 Λ2 −1 . Mais explicitamente, seja Λ := Λ1 Λ2 −1 com Λ2 −1 = diag(γ1 −1 , . . . , γn −1 ). Ent˜ao, com T := −H V = (V H )−1 , temos T −1 (M N −1 )T = Λ, mostrando que M N −1 ´e similar a Λ. Reciprocamente, se M N −1 ´e similar a uma diagonal Λ, existe T ∈ IF n×n n˜ao singular tal que −1 T (M N −1 )T = Λ. Escrevendo-se V = T −H e U = N −1 T , temos V H N U = T −1 N N −1 T = I e V H M U = T −1 M N −1 T = Λ, mostrando que (M, N ) ´e equivalente a (Λ, I), o que completa a demonstra¸c˜ ao do lema.

Observa¸ c˜ ao 1.3 i) Do lema 1.4 temos: Se Λ1 = diag(δ1 , . . . , δn ) e Λ2 = diag(γ1 , . . . , γn ), ent˜ ao



Λ = diag

δ1 δn ,..., . γ1 γn 

ii) O lema ainda ´e v´ alido para N −1 M em lugar de M N −1 e analogamente, para M −1 N e N M −1 no caso em que M ´e n˜ ao singular. 12

Lema 1.5 Seja T ∈ IF m×n triangular superior. 1. Se S ∈ IF n×p ´e triangular superior, ent˜ ao T S ´e triangular superior; 2. Se S ∈ IF n×p ´e quase triangular superior, ent˜ ao T S ´e quase triangular superior. Prova: Sejam S = [Sij ]n×p e T = [Tij ]m×n . Provemos a primeira afirma¸c˜ ao: Por defini¸c˜ao de produto de matrizes, temos (T S)ij =

n X

Tik Skj =

k=1

i−1 X

Tik Skj +

k=1

n X

Tik Skj .

k=i

i−1 A hip´otese Tik = 0 se i > k, implica que k=1 Tik Skj = 0 e consequentemente, (T S)ij = Pn T S . k=i ik kj Sendo i > j, vemos que para todo k = i, . . . , n, necessariamente k > j, e por hip´otese, Skj = 0. Consequentemente, (T S)ij = 0 se i > j, ou seja T S ´e triangular superior. P Para provar a segunda parte, observamos que (T S)ij = nk=i Tik Skj , como no caso anterior, onde usamos o fato de T ser triangular superior. A hip´otese sobre S de ser quase triangular superior equivale a condi¸c˜ ao Suv = 0, para u > v + 1. Ent˜ao, se i > j + 1, temos que todo k = i, . . . , n satisfaz k > j + 1, da´ı Skj = 0 e portanto (T S)ij = 0, se i > j + 1. Isto prova que T S ´e quase triangular superior.

P

Coment´ ario 1.1 Tamb´em ´e valido o seguinte resultado: Se T ´e uma matriz quase triangular superior e S ´e triangular superior, ent˜ ao T S ´e quase triangular superior. Este resultado pode ser provado com pequenas modifica¸c˜ oes na demonstra¸c˜ ao de 2. do lema 1.5 . Lema 1.6 Seja T uma matriz quadrada de ordem n, n˜ ao singular e triangular superior. Ent˜ ao, T −1 ´e tamb´em triangular superior. Prova: Seja M = [Mij ] quadrada de ordem n, tal que T M = I. Ent˜ao,    T M1 =   

1 0 .. . 0





     , . . . , T Mn =     

0 0 .. . 1

   .  

δ1j  ..  Sendo T = [Tij ], temos T Mj = Ej , onde Ej =  .  . Assim, δnj 

  T11 M1j    

+ T12 M2j T22 M2j



+ . . . + T1n Mnj + . . . + T2n Mnj

= δ1j = δ2j .. .

Tnn Mnj

= δnj

    

Como T ´e n˜ ao singular, temos Tkk 6= 0, para todo k = 1, . . . , n. 13

.

Se i > j, do sub-sistema   Tii Mij    

+

Tii+1 Mi+1j Ti+1i+1 Mi+1j

+ . . . + Tin Mnj + . . . + Ti+1n Mnj

    

Tnn Mnj

= 0 = 0 .. . = 0

temos Mnj = 0 decorrente de Tnn 6= 0. Portanto, Mn−1j = . . . = Mi+1j = Mij = 0 . Assim, M = T −1 ´e triangular superior.

Proposi¸ c˜ ao 1.1 Sejam M, N matrizes quadradas de ordem n, sendo N n˜ ao singular. 1. (M, N ) ´e equivalente a um par de matrizes triangulares superior se, e somente se, N −1 M ´e similar a uma matriz triangular superior; 2. (M, N ) ´e equivalente a um par (T, S), T quase triangular superior, S triangular superior se, e somente se, N −1 M ´e similar a uma matriz quase triangular superior. Prova: Segue-se dos Lemas 1.2, 1.4 e 1.6.

Exemplo 1.2

1) (M, N ) n˜ ao equivalente a um par diagonal: "

M=

0 1 0 0

#

"

1 2 0 3

, N=

#

.

Temos neste caso, 

M N −1

0 = 0

 # " 1 α 3  ; σ(M, N ) = {0} e S0 = { 0 : α ∈ IF }. 0

2) (M, N ) equivalente a um par diagonal: "

M=

0 1 0 0

#

"

1 2 1 3

, N=

#

.

Neste caso, "

α σ(M, N ) = {−1, 0}, S0 = { 0 e

"

S−1

α ={ β

#

: α ∈ IF }

#

: α + 3β = 0}.

Por exemplo, "

M

1 0

#

"

= 0N

1 0

#

"

e M 14

3 −1

#

"

= (−1)N

3 −1

#

;

ou seja, "

M ou

"

N

−1

#

1 3 0 −1

"

=N #

1 3 0 −1

M

#"

1 3 0 −1

"

=

1 3 0 −1

#

0 0 0 −1

#"

0 0 0 −1

#

e da´ı, "

#−1

1 3 0 −1

"

(N

−1

M)

1 3 0 −1

#

"

=

0 0 0 −1

#

1 3 0 −1

#

.

Tomando-se como na prova do lema 1.4 "

V

T

=

1 3 0 −1

N

temos " T

V MU =

#!−1

e U=

#−1

1 3 0 −1

"

"

N

−1

M

1 3 0 −1

#

"

=

,

0 0 0 −1

#

.

Temos tamb´em, V T N U = I. Nota 1.2 Para o item 2) do exemplo 1.2, vemos que a equa¸c˜ ao diferencial N X˙ + M X = 0 possui a seguinte solu¸c˜ ao geral: "

X(t) =

α 0

#

"

3 −1

+ βet

#

"

, ou seja, X(t) =

α + 3βet −αet

onde α, β s˜ ao constantes arbitr´ arias. Exemplo 1.3

1) M singular e N n˜ ao singular: Sejam as matrizes "

M=

1 2 0 3

#

"

e N=

0 1 0 0

#

.

Neste caso, 

 0

N M −1 =  

0 Sendo

σ(I, N M −1 )

=

{λ−1

1 3   e σ(N M −1 ) = {0}.  

0

: 0 6= λ ∈ σ(N M −1 )}, temos σ(M, N ) = ∅.

2) (M, N ) equivalente a um par de matrizes diagonais: Sejam "

M=

1 2 0 3

#

"

e N=

1 1 0 0

#

.

Ent˜ ao, 2  " # " # 1 −  3  1 1  1 1  −1 M N = = .   0 0 1  0 0 0 3 

15

#

,

Obtemos por um c´ alculo direto σ(M −1 N ) = {0, 1}, σ(M, N ) = {1} e tamb´em, "

S0 (M "

Tomando U =

−1

α N) = { −α

temos V

: α ∈ R} e S1 (M

#

1 1 , temos U −1 (M −1 N )U = 0 −1 "

HMU

"

#

=I eV

HNU

=

−1

"

α N) = { 0

#

: α ∈ R} .

#

1 0 . Assim, com V H = (M U )−1 0 0

#

1 0 . 0 0

Nota 1.3 A equa¸c˜ ao diferencial N X˙ + M X = 0 (M e N do item 1) do exemplo acima) n˜ ao possui solu¸c˜ ao n˜ ao trivial da forma X = αY .

16

Cap´ıtulo 2

Decomposi¸ c˜ oes de uma matriz 2.1

Preliminares

Autovalores complexos de uma matriz real Toda matriz M ∈ C n×n possui n autovalores complexos λ1 , . . . , λn . Esses autovalores s˜ao ra´ızes da equa¸c˜ao polinomial de grau n det(M − λI) = 0 ( equa¸c˜ ao caracter´ısticadeM )

(2.1)

e portanto, n˜ao s˜ ao distintos em geral. Sendo λ autovalor de M , existe X n˜ao nulo em C n satisfazendo a equa¸c˜ao M X = λX, o qual denomina-se autovetor de M , associado ` a λ. Conv´em observar que, mesmo possuindo todos os seus elementos reais, uma matriz pode n˜ ao ter nenhum autovalor real. Tome por exemplo a matriz "

M=

0 1 −1 0

#

.

Temos neste caso, σ(M ) = {i, −i}, isto ´e, det(M − λI) = 0 se, e somente se, λ = i ou λ = −i. Observe que do fato de serem reais os elementos de uma matriz M , sua equa¸c˜ao caracter´ıstica possui coeficientes reais. Assim, a cada autovalor complexo λ de M , corresponde outro autovalor de M , o qual ´e λ, complexo conjugado de λ. Da´ı, sendo X = Y + iZ com Y e Z elementos de R n , um autovetor de M associado ao autovalor complexo λ, temos que X = Y − iZ ´e autovetor de M correspondente a λ. Lema 2.1 Seja M uma matriz quadrada real de ordem n. Suponha que λ = γ + iµ com γ e µ reais(µ 6= 0) ´e uma autovalor de M e que X = Y + iZ com Y e Z elementos de R n ´e um autovetor de M correspondente a λ. Ent˜ ao, 1. X e X s˜ ao linearmente independentes sobre o corpo C; 2. Y e Z s˜ ao linearmente independentes sobre o corpo R. Prova: Tomando o conjugado em M X = λX obtemos M X = λX. Da´ı, se a, b s˜ao complexos tais que aX + bX = 0, podemos pr´e-multiplicar ambos os membros desta igualdade por M , obtendo a igualdade aλX + bλX = 0. Por outro lado, sendo λ n˜ ao nulo, vem 0 = λ(aX + bX) = aλX + bλX . Subtraindo da´ı, a equa¸c˜ao aλX + bλX = 0, temos b(λ − λ) = 0, e portanto devemos ter b = 0. Ent˜ao, aX + bX = 0 17

se reduz a aX = 0, donde a ´e tamb´em nulo, do fato de X ser n˜ao nulo. Isto prova a primeira afirma¸c˜ao. Se para algum real t, tivermos Y = tZ, ent˜ao X = (t + i)Z, X = (t − i)Z e portanto (t + i)−1 X − (t − i)−1 X = 0, o que ´e um absurdo, contradizendo o item anterior, tendo em vista que X e X s˜ao linearmente independentes. Se por acaso tivermos Z = tY , para algum t real, tomando-se X = (1 + ti)Y e X = (1 − ti)Y , teremos (1 + ti)−1 X − (1 − ti)−1 X = 0. Isto tamb´em contradiz o item anterior. Consequentemente Y e Z s˜ ao linearmente independentes sobre os reais, provando assim, a segunda afirma¸c˜ ao.

Observa¸ c˜ ao 2.1 Sendo X = Y + iZ e X = Y − iZ, podemos escrever  1  2  [Y Z] = [XX]   1

2



i  2  

.

i  2

Nas condi¸c˜ oes do lema 2.1, cada uma das trˆes matrizes ´e invers´ıvel. Produto interno canˆ onico e norma em IF n Defini¸ c˜ ao 2.1 O produto interno de dois elementos X e Y de IF n ´e definido como sendo o escalar X H Y de IF dado por X H Y :=

n X

xi yi .

i=1

Este produto possui as seguintes propriedades. (P1) linearidade no primeiro argumento: (cX + Y )H Z = cX H Z + Y H Z, onde c ∈ IF , X, Y e Z s˜ ao quaisquer de IF n . (P2) anti-simetria: X H Y = Y H X, para X e Y quaisquer de IF n . (P3) positividade: X H X ≥ 0 e X H X = 0 ⇔ X = 0 para qualquer X de IF n . Este ´e o produto interno canˆ onico de IF n . Desigualdade de Cauchy-Schwartz Para X e Y quaisquer de IF n : √ √ |X H Y | ≤ X H X Y H Y ( desigualdade de Cauchy-Schwartz .) 18

Defini¸ c˜ ao 2.2 A norma de um elemento X de IF n ´e definida como sendo o real n˜ ao negativo ||X|| dado por 2

H

||X|| := X X =

n X

xi xi .

i=1

Esta aplica¸c˜ao possui as seguintes propriedades fundamentais: (N1) ||X|| ≥ 0; ||X|| = 0 ⇔ X = 0, para qualquer X de IF n ; (N2) ||cX|| = |c|||X||, para c qualquer de IF e qualquer X de IF n ; (N3) ||X + Y || ≤ ||X|| + ||Y || para quaisquer X e Y de IF n . A aplica¸c˜ao ||·|| ´e a norma euclideana em IF n . Ortogonalidade Um elemento X ´e ortogonal ao elemento Y em IF n se XHY = 0 . Da propriedade (P 2) do produto interno em IF n , temos que se X ´e ortogonal a Y , ent˜ao Y ´e ortogonal a X. Em outros termos, podemos dizer que os elementos X e Y s˜ao ortogonais. Um elemento X de IF n ´e dito unit´ ario se ||X|| = 1. Um conjunto {X1 , X2 , . . . , Xk } de elementos de IF n ´e dito ortogonal se s˜ao ortogonais quaisquer dois elementos Xi e Xj do mesmo. Um conjunto {X1 , X2 , . . . , Xk } de elementos de IF n ´e dito ortonormal se o mesmo ´e ortogonal e cada um de seus elementos ´e unit´ ario. Uma consequˆencia destas no¸c˜ oes ´e a seguinte: Seja U = [X1 , X2 , . . . , Xk ] uma matriz de ordem n × k onde suas k colunas constituem um conjunto {X1 , X2 , . . . , Xk } ortonormal de IF n . Ent˜ao, U H U ´e igual a matriz identidade de ordem k . Em particular , se k = n, um conjunto {X1 , X2 , . . . , Xn } constitui uma base ortonormal de IF n se, e somente se, [X1 , X2 , . . . , Xn ]H [X1 , X2 , . . . , Xn ] = I, isto ´e, se [X1 , X2 , . . . , Xn ] ´e unit´aria. O complemento ortogonal de um subconjunto S qualquer de IF n , ´e o subespa¸co vetorial S ⊥ de IF n dado por S ⊥ = {Y ∈ IF n : Y ´e ortogonal a cada X de S} . Exerc´ıcio 2.1 Mostre que um vetor X de IF n e o produto U X de uma matriz unit´ aria U por X possuem a mesma norma: ||U X|| = ||X||. Norma espectral de uma matriz Defini¸ c˜ ao 2.3 A norma espectral de uma matriz A de ordem m × n ´e definida como sendo ||A X|| . X6=0 ||X||

||A||2 = sup

19

Norma de Frobenius de uma matriz O tra¸co de uma matriz M , de ordem m × n, ´e definido como sendo o escalar tr(M ) =

n∧m X

Mii .

i=1

onde n ∧ m representa o menor dos naturais m ou n. Definamos sobre IF m×n × IF m×n , o produto hN, M i = tr(M H N ) =

n X m X

Mij Nij .

j=1 i=1

para quaisquer duas matrizes M, N , de ordem m × n, sobre IF . Propriedades Para quaisquer matrizes M, N e P , de ordem m × n, sobre IF , temos (P1) hM, N i = hN, M i; hM + λP, N i = hM, N i + λ hP, N i ; (P2) hM, M i =

Pn

i,j=1 Mij Mij

≥ 0 ; hM, M i = 0, se e somente se, M = 0.

Consideremos para toda matriz quadrada M , de ordem n sobre IF , a seguinte fun¸c˜ao ||M || =

q

hM, M i =

q

tr(M H M ) =

q

v uX u n H tr(M M ) = t |Mij |2 . i,j=1

Propriedades Para qualquer matriz quadrada M , de ordem n, sobre IF , e qualquer escalar λ de IF , temos (N1) ||M || ≥ 0 ;

||M || = 0 se, e somente se, M = 0;

(N2) ||λM || = |λ|||M ||. Defini¸ c˜ ao 2.4 ||M || ´e denominada norma de Frobenius de M . Observamos que, se X = [x1 , x2 , . . . , xn ]T , pertence a IF n , temos X H X = hdiag(x1 , x2 , . . . , xn ), diag(x1 , x2 , . . . , xn )i = ||X||2 . Ent˜ao, ||diag(·)|| definida sobre IF n , coincide com a norma usual sobre IF n . Lema 2.2 Para M e N matrizes quadradas de ordem n sobre IF , vale ||M N || ≤ ||M ||||N || . Prova : Temos por defini¸c˜ ao, ||M N ||2 = |(M N )i,j | = |

Pn

2 i,j=1 |(M N )i,j |

. Mas,

Pn

k=1 Mik Nkj |



Pn



p Pn

k=1 |Mik ||Nkj |

(

q P n

2 k=1 |Mik | ) (

20

k=1 |Nkj |

2) .

Isto decorre de fato, da desigualdade de Cauchy-Schwartz. Para [a1 , . . . , an ]T e [b1 , . . . , bn ]T pertencentes a IF n , arbitr´arios, temos n X

ak bk ≤ |

n X

v v u n u n u X u X 2 t ak bk | ≤ ( |ak | )t( |bk |2 )

k=1

k=1

k=1

k=1

onde tomamos ak = |Mik | e bk = |Nkj |. Assim, P P P ||M N ||2 ≤ ni,j=1 (( nk=1 |Mik |2 )( nk=1 |Nkj |2 )) =

Pn

j=1 (

Pn

2 Pn (Pn 2 k=1 |Nkj | ) i=1 k=1 |Mik | )

= ||M ||2 ||N ||2 . A afirma¸c˜ao contida no lema 2.2 ´e tamb´em v´alida se M ´e retangular de ordem m × n e N de ordem n × k. A demonstra¸c˜ ao ´e obtida daquela feita para o caso m = n = k, com as devidas adapta¸c˜oes e ´e deixada como exerc´ıcio.

2.2

Decomposi¸ c˜ ao QR e de Schur

Teorema 2.1 (Gram-Schmidt) Seja M uma matriz quadrada n˜ ao singular, de ordem n sobre IF . Ent˜ ao, existe uma matriz unit´ aria U de ordem n, tal que o produto U H M ´e triangular superior. Mais explicitamente, existe uma matriz triangular superior T de ordem n tal que M = U T . Prova: Seja M = [M1 , M2 , . . . , MN ]. Sejam Tij e Ui , para i ≤ j, 1 ≤ j ≤ n, constru´ıdos do modo seguinte: M1 = T11 U1 M2

= T12 U1

+ T22 U2 (2.2)

.. . Mn = T1n U1 + T2n U2 . . . Tnn Un com Ui H Uj = δij ; para todos os i, j, 1 ≤ i, j ≤ n .. Esta constru¸c˜ ao ´e tal que U1 = q

U2 =

M1 H

q

, T11 =

M1 H M1 = ||M1 ||;

M1 M1

M2 − (U1 H M2 )U1 , T22 = ||M2 − (U1 H M2 )U1 ||, T12 = U1 H M2 ||M2 − (U1 H M2 )U1 || 21

(2.3)

e assim prosseguindo, Mk+1 − ki=1 (Ui H Mk+1 )Ui = P ||Mk+1 − ki=1 (Ui H Mk+1 )Ui || P

Uk+1 Tk+1

k+1

= ||Mk+1 − Ti

k+1

Pk

i=1 (Ui

H

Mk+1 )Ui ||

= Ui H Mk+1

para todos os ´ındices i variando de 1 at´e k, sendo 1 ≤ k ≤ n − 1. A verifica¸c˜ ao das rela¸c˜ oes (2.2) e (2.3) pode ser feita por substitui¸c˜ao direta. Segue-se de (2.3) que U H U = I e de (2.2) que M = U T onde T = [Tij ] com Tij = 0, se i > j.

Teorema 2.2 (Decomposi¸ c˜ ao de Schur) Dada uma matriz quadrada de ordem n sobre C, denotemos por D = diag(λ1 , λ2 , . . . , λn ) uma matriz diagonal contendo os autovalores de M , numa ordena¸c˜ ao fixada previamente. Ent˜ ao, existe uma matriz unit´ aria Q, de ordem n e uma matriz estritamente triangular superior T sobre C, tais que QH M Q = D + T . Prova: (Indu¸c˜ ao sobre n) O teorema ´e v´alido para n = 1 com Q = [1], D = M e T = [0]. Admitamos que para toda matriz quadrada de ordem k ≤ n − 1, o resultado seja v´alido. Tomemos ent˜ ao M de ordem n e seja (λ1 , λ2 , . . . , λn ) uma ordena¸c˜ao de seus autovalores. Seja X1 um autovetor unit´ ario de M associado ao autovalor λ1 , isto ´e, M X1 = λ1 X1 , com ||X1 || = 1. Completamos {X1 } a uma base de C n considerando {Y2 , . . . , Yn } uma base do complemento ortogonal em C n , de X1 (e tamb´em de M X1 ). Usando o processo de ortonormaliza¸c˜ao de GramSchmidt, teorema 2.1, obtemos uma matriz uni´aria U de ordem n. Escrevendo U = [X1 , Y2 , . . . , Yn ], temos:   X1 H   H λ1  H  W Y  2   .   UHMU =    ..  [M X1 , M Y2 , . . . , M Yn ] =  ..  .  N 0 Yn H onde W pertence a C n−1 e N ´e uma matriz quadrada de ordem n − 1 sobre C. ´ claro que os autovalores de N s˜ E ao λ2 , . . . , λn , gra¸c˜a `a seguinte identidade do determinante de uma matriz em blocos: "

det

K B 0 L

#!

= det(K)det(L)

onde K e L s˜ ao matrizes quadradas de ordem l e n − l respectivamente. Escolhendo a ordena¸c˜ ao (λ2 , . . . , λn ) para os autovalores de N , a hip´otese de indu¸c˜ao nos garante e e uma matriz estritamente triangular superior Te, de ordem a existˆencia de uma matriz unit´ aria U n − 1, tais que eHNU e = diag(λ2 , . . . , λn ) + Te . U

22



Seja Q = U 

1

0

 e 0 U

   . Temos da´ı, 

QH M Q = 

1



0

=

eH 0 U

1

λ1   ..  . 0 

0



λ1  .. = . 0 

λ1  .. = . 0 

   =  

1

 H   U MU 







eH 0 U



WH

1

 

eHN U

0

e 0 U

WH N 0

e 0 U

  

  

1

0

e 0 U

  

  



WH

 

eHNU e U

λ1 0 . . . 0 0 λ2 . . . 0 .. .. . . . . .. . . 0 0 . . . λn

     +  

λ1 .. .

WH

0

N1

   .

Nota 2.1 No caso em que M ´e real e todos os seus autovalores λ1 , λ2 , . . . , λn s˜ ao reais, isto ´e, σ(M ) ⊂ R, podemos mostrar que existe Q ortogonal de ordem n(Q ´e real e QT Q = I) e uma matriz T estritamente triangular superior tal que QT M Q = diag(λ1 , λ2 , . . . , λn ) + T . Teorema 2.3 (Decomposi¸ c˜ ao de Schur de matrizes reais) Para cada matriz quadrada M , de ordem n, cujas entradas s˜ ao todas reais, existe uma matriz ortogonal Q de ordem n sobre R, tal que   R11 R12 . . . R1m      T Q MQ =      

0

R22 . . .

.. .

.. .

0

0

  R2m     ..   .   

. . . Rmm

onde Rkk ´e real de ordem 1, ou ´e real de ordem 2 possuindo autovalores complexos conjugados. Em particular, QT M Q ´e quase triangular superior. ao sobre o n´ umero k = k(M ), onde 2k ´e o n´ umero de autovalores complexos Prova: Usamos indu¸c˜ de M . 23

Se k = 0, o resultado ´e descrito na nota 2.1. Neste caso, os Rii s˜ao todos de ordem 1, para 1 ≤ i ≤ n = m. n Supomos ent˜ ao o teorema v´ alido para k = k0 , 1 ≤ k0 < . 2 Seja ent˜ ao dada M para a qual tenhamos k = k0 + 1 e sejam λ = γ + iµ com γ e µ reais(µ 6= 0) autovalor de M e X = Y + iZ com Y e Z em R n (Z n˜ao nulo), autovetor de M correspondente a λ. Ent˜ao, M X = M Y + iM Z = (γ + iµ)(Y + iZ) = (γY − µZ) + i(γZ + µY ) = λX. Da´ı, se S ´e o subespa¸co de R n gerado por {Y, Z}, temos M Y = γY − µZ e M Z = γZ + µY

(2.4)

e assim M S ⊂ S. Al´em disso, M S e S s˜ ao bi-dimensionais. De fato: Temos do lema 2.1, que {Y, Z} ´e linearmente independente. Ent˜ao, sendo a, b reais tais que aM Y + bM Z = 0 , das express˜ oes (2.4) para M Y e M Z, temos a(γY − µZ) + b(γZ + µY ) = 0 , ou seja, (aγ + bµ)Y + (−aµ + bγ)Z = 0 . Decorre da´ı que (a, b) deve satisfazer o sistema (

γa + µb = 0 −µa+ + γb = 0

o qual possui (0, 0) como u ´nica solu¸ca˜o, j´a que γ 2 + µ2 ≥ µ2 > 0. Da´ı, existe uma matriz ortogonal U de ordem n, tal que 

T11 T12

UT MU =  

0

T22

  

com T11 de ordem 2 sobre R, com espectro σ(T11 ) = {λ, λ} e T22 de ordem n − 2 sobre R. De fato: Seja {X1 , X2 } ortonormal obtido pelo teorema 2.1, tais que Y = R11 X1 e Z = R12 X1 + R22 X2 onde X1T X1 = X2T X2 = 1 e X1T X2 = 0. 

Ent˜ao, {X1 , X2 } ´e base ortonormal de S e [Y Z] = [X1 X2 ] 

R11 R12



0

R22

  .

Seja U uma matriz ortogonal de ordem n, da forma [Y, Z, W3 , . . . , Wn ]. 24

Neste caso,     [Y Z] = U    



R11 R12 0 R22 0 0 .. .. . . 0 0 "

Substituindo este [Y Z] na equa¸c˜ ao M [Y Z] = [Y Z]

      

.

n×2

#

γ µ −µ γ

, a qual equivale a

M Y = γY − µZ, M Z = µY + γZ , temos     =   

MU

R11 R12 0 R22 0 0 .. .. . . 0 0 

        =U       





      =U      

R11 R12 0 R22 0 0 .. .. . . 0 0

 " #   γ µ   −µ γ  

γR11 − µR12 µR11 + γR12 −µR22

γR22

0

0

.. .

.. .

0

0

          .       

Escrevemos 

UT MU = 

T11 T12



T21 T22

  

com T11 de ordem 2 e T22 de ordem n − 2. Efetuando o produto 

  

T11 T21

     T12      T22      

0 0 .. . 0



 e R11       e R22   R   21      0  = 0      ..    . .   ..    

R11 R12

0 25

0

e 12 R



  e 22   R    0     ..   .   

0

teremos



R11 R12

T21  

e

0 

T11 

R22

   = 0 (implicando que T21 = 0, posto que R11 R22 6= 0)

R11 R12



0

R22







R11 R12

  =

0

γ

 

R22

µ

−µ γ





e 12 e 11 R R

  =

  

e 22 e 21 R R

Assim, 

σ(T11 ) = {λ, λ} = σ(

γ

µ



−µ γ

  ).

Sendo σ(M ) = σ(T11 ) ∪ σ(T22 ) ent˜ao, T22 satisfaz a hip´otese de indu¸c˜ao: k(T22 ) = k0 , portanto e de ordem n − 1 satisfazendo U eT MU e = S, com S quase triangular existe uma matriz ortogonal U superior em blocos diagonais reais, de ordem 1, ou ent˜ao, blocos diagonais reais de ordem 2, possuindo autovalores complexos conjugados. Ent˜ao, a matriz e) Q = U diag(I2 , U

satisfaz as exigˆencias do teorema. Com efeito: e T )U T M U diag(I2 , U e) QT M Q = diag(I2 , U 

T11 T12

eT )  diag(I2 , U 



0

T11

T12

0

e T T22 U

= 



T11

= 

2.3

  



e T12 U



0

T22

e T T22 U e U

  e)  = diag(I2 , U

I2 0 

  =

0 e U

  

e T11 T12 U

0

S

   .

Decomposi¸ c˜ ao em valores singulares

Neste cap´ıtulo, estudamos uma decomposi¸c˜ao para uma matriz retangular, a qual possui grande importˆancia em ´ algebra linear aplicada, denominada decomposi¸c˜ ao em valores singulares. Tomemos uma matriz retangular A, de ordem m × n, e denotemos por m ∧ n, o menor dos inteiros m e n. A grosso modo, podemos descrever a decomposi¸c˜ao em valores singulares de A, da seguinte maneira: 26

Existem matrizes unit´ arias U e V de ordems n e m respectivamente, tais que A se escreve na forma AU = V Σ

(2.5)

onde Σ ´e uma matriz retangular de ordem m × n, possuindo diagonal constitu´ıda por reais n˜ ao negativos σ1 , σ2 , . . . , σm∧n e 0 nas suas demais entradas. Mais explicitamente, escrevamos U = [u1 , u2 , . . . , un ], atrav´es de suas colunas ui ∈ C n e analogamente, V = [v1 , v2 , . . . , vm ], com vi ∈ C m . Neste caso, a equa¸c˜ao (2.5) para m ∧ n = n, se escreve como A u1 = σ1 v1 A u2 = σ2 v2 (2.6)

.. . A um∧n = σm∧n vm∧n

Se m ∧ n = m, a equa¸c˜ ao (2.5) equivale as equa¸c˜oes (2.6) juntamente com as equa¸c˜oes seguintes

A um+1 = 0 A um+2 = 0 (2.7)

.. . A un = 0 ou seja, s˜ao nulas todas as colunas em (2.5), da m + 1 `a n − ´esima. A t´ıtulo de ilustra¸c˜ ao, notamos que se m ∧ n = m, a matriz Σ tem a forma seguinte:         [diag(σ1 , σ2 , . . . , σm ), 0m×{n−m} ] =       

27

σ1 0

0

...

σ2 . . .

.. .

.. .

0

0

0

0 ... 0

0

0 ... 0

.. .

.. .

.. .

. . . σm 0 . . . 0

              

(2.8)

No caso em que m ∧ n = n, a matriz Σ tem a forma:               diag(σ1 , σ2 , . . . , σn )     =      0{m−n}×n          

σ1 0

0

...

σ2 . . .

0 0

.. .

.. .

.. .

0

0

. . . σn

0

0

...

.. .

.. .

0

0

0 .. .

...

                          

(2.9)

0

Os reais n˜ ao negativos σ1 , σ2 , . . . , σm∧n s˜ao denominados valores singulares de A, os vetores u1 , u2 , . . . , un s˜ ao denominados vetores singulares ` a direita de A, enquanto que v1 , v2 , . . . , vm denominam-se vetores singulares ` a esquerda de A. Observa¸ c˜ ao 2.2 A partir de (2.5), podemos deduzir imediatamente as seguintes propriedades: i) O posto da matriz A, rk(A)(dimens˜ ao da imagem de A), ´e igual ao n´ umero de valores singulares σi estritamente positivos de A. ii) Se denotamos, contando multiplicidade, os autovalores n˜ ao nulos de AH A, em ordem decrescente, por λ1 , λ2 , . . . , λr > 0, temos de (2.5), U H AH = ΣH V H

AU = V Σ, e da´ı,

U H AH A U = ΣH V H V Σ = ΣH Σ

(2.10)

e A AH = A U U H AH = V Σ ΣH V H , ou seja, V H A AH V = Σ ΣH .

(2.11)

Assim, de (2.10) e (2.11), temos que os autovalores n˜ ao nulos de AH A e A AH s˜ ao os mesmos, e na verdade coincidem com os quadrados dos valores singulares de A: λ1 = σ1 2 , λ2 = σ2 2 , . . . , λr = σr 2 > 0 . ´ claro que necessitamos compreender mais de perto a natureza desses elementos, associados ` E a decomposi¸c˜ ao em valores singulares de A. Por exemplo, os valores singulares s˜ao entes intr´ınsecos de A? O mesmo ocorre com os vetores singulares ? Com este objetivo, passamos em seguida ao enunciado e a uma demonstra¸c˜ao do nosso resultado principal: 28

Teorema 2.4 (Decomposi¸ c˜ ao em valores singulares) Seja A uma matriz retangular de ordem m × n com coeficientes reais, dada arbitrariamente. Ent˜ ao, existem matrizes U de ordem n e V de ordem m ortogonais e existem n´ umeros reais σ1 ≥ σ2 ≥ . . . ≥ σm∧n ≥ 0, tais que V T AU = Σ

(2.12)

onde Σ ´e a matriz de ordem m × n definida por    Σij = σi

i=j

  Σ =0 ij

i 6= j .

ao sobre a ordem de A) Seja σ1 := ||A||2 = sup||X||=1 ||A X|| . Prova: (Indu¸c˜ Como a esfera unit´ aria de R n , S = {X ∈ R n : ||X|| = 1} ´e compacta, segue do teorema de Weierstrass que existe um vetor unit´ ario u1 ∈ R n satisfazendo ||A||2 = ||A u1 ||. Em particular, σ1 > 0 se A 6= 0. Observamos que σ1 corresponde ao comprimento do maior semi-eixo do elips´oide generalizado E = {A X ∈ R m : ||X|| = 1}. Obviamente estamos supondo A 6= 0. Caso contr´ario, a decomposi¸c˜ao em valores singulares de A pode ser obtida, simplesmente com Σ = 0, U de ordem n e V de ordem m, ortogonais quaisquer. Assim, a primeira equa¸c˜ ao em (2.6), pode ser imediatamente satisfeita se definimos o vetor 1 unit´ario v1 por v1 = A u1 . σ1 Para obtermos o passo de indu¸c˜ ao, precisamos mostrar que o complemento ortogonal de R · n {u1 } = {αu1 : α ∈ R} em R , possui como imagem por A em R m , um subespa¸co ortogonal a R · {v1 } = {βv1 : β ∈ R}. Tomemos w2 ∈ R n unit´ ario ortogonal a u1 e mostremos que A w2 ´e ortogonal a v1 . Para isto, seja w = σ1 u1 + (A w2 · v1 )w2 . Ent˜ao, A w = σ1 2 v1 + (A w2 · v1 ) A w2 . Temos ||w||2 = σ1 2 + (A w2 · v1 )2 ||w2 ||2 = σ1 2 + (A w2 · v1 )2 , pois w2 foi tomado unit´ario. Por outro lado, ||Aw||2 = σ1 4 + 2 σ1 2 (A w2 · v1 )2 + (A w2 · v1 )2 ||A w2 ||2 ≥ σ1 4 + 2 σ1 2 (A w2 · v1 )2 + (A w2 · v1 )4 = (σ1 2 + (A w2 · v1 )2 )2 visto que |A w2 · v1 | ≤ ||Aw2 || (desigualdade de Cauchy-Schwarz). Da defini¸c˜ ao de σ1 temos σ1 2 ≥

||A w||2 ≥ σ1 2 + (A w2 · v1 )2 ||w||2

(2.13)

e portanto, temos A w2 · v1 = 0 , ou seja, A w2 ´e ortogonal a v1 . O mesmo ´e satisfeito se w2 n˜ ao ´e unit´ario. A partir desse resultado, podemos proceder indutivamente, para obter a decomposi¸c˜ao em valores singulares de A, determinando o segundo valor singular σ2 de A. Aplicamos o racioc´ınio anterior `a restri¸c˜ ao de A, ao complemento ortogonal de u1 em R n , cuja imagem est´a contida no complemento ortogonal de v1 em R m . 29

Notamos da´ı que σ2 ≤ σ1 , e assim sucessivamente. As matrizes U e V s˜ao tomadas, por exemplo, como sendo U = [u1 , u2 , . . . , un ] e V = [v1 , v2 , . . . , vm ], onde se m ∧ n = m, ent˜ao um+1 , . . . , un s˜ ao quaisquer tais que U ´e ortogonal, e se m ∧ n = n, ent˜ao vn+1 , . . . , vm s˜ao quaisquer tais que V ´e ortogonal. Os σi s˜ ao todos univocamente determinados por A, enquanto que o mesmo n˜ao ocorre com as matrizes U e V . Podemos ent˜ ao, dar como encerrada a prova do teorema. Nota 2.2 A demonstra¸c˜ ao aqui desenvolvida procura salientar o conte´ udo geom´etrico contido nas demonstra¸c˜ oes dadas em [4] e [10], por exemplo. O enunciado do teorema 2.4 pode ser modificado no caso complexo substituindo as palavras reais por complexas , ortogonais por unit´arias e tomando adjuntas em lugar de transpostas, com demonstra¸c˜ ao an´ aloga. 1. σ1 = ||A||2 (norma espectral de A);

Corol´ ario 2.1 2.

m∧n X

!1 2

σi 2

= ||A|| (norma de Frobenius de A).

i=1

30

Cap´ıtulo 3

Decomposi¸ c˜ oes de um Par de Matrizes Alguns resultados topol´ ogicos no espa¸ co da matrizes quadradas Denotemos por πij , para cada par de ´ındices i, j variando de 1 a n, a aplica¸c˜ao que associa a cada matriz M de ordem n, seu elemento Mij de IF . Temos que πij ´e linear, logo, cont´ınua sobre IF n×n , pois IF n×n tem dimens˜ ao finita n2 . Da´ı, os subespa¸cos Nuc(πij ) = {m ∈ IF n×n : Mij = 0} de IF n×n s˜ao fechados, para cada i, j (1 ≤ i, j ≤ n). Temos o seguinte Lema 3.1 Os subespa¸cos vetoriais de IF n×n S = {M : πij (M ) = 0, i > j} da matrizes triangulares superior e, Q = {M : πij (M ) = 0, i > j + 1} das matrizes quase triangulares superior, s˜ ao fechados. Consequentemente, o limite de qualquer sequˆencia de matrizes de S (de Q) convergente em IF n×n ´e um elemento de S (de Q). √ Como a norma da matriz identidade I de IF n×n vale ||I|| = n, o conjunto U da matrizes unit´arias U de IF n×n (U H U = I, o qual ´e um subgrupo do grupo das matrizes invers´ıveis de IF n×n ) ´e limitado em IF n×n . Lembramos que sobre qualquer espa¸co de dimens˜ao finita, todas as normas s˜ao equivalentes. Al´em disso, da continuidade da aplica¸c˜ ao de IF n×n em si mesmo, que a cada M associa M H M , temos que U ´e fechado. Mostremos que a aplica¸c˜ ao M → M H M ´e cont´ınua. Em primeiro lugar, temos que ´e cont´ınua a aplica¸c˜ao linear M → M H . A multiplica¸c˜ ao de IF n×n × IF n×n em IF n×n , (M, N ) 7→ M N tamb´em ´e cont´ınua, pois ´e uma aplica¸c˜ao bilinear. De fato, podemos escrever para (M0 , N0 ) e (M, N ) a seguinte igualdade M N − M0 N0 = M0 (N − N0 ) + (M − M0 )N . 31

Aplicando o lema 2.2, temos ||M N − M0 N0 || ≤ ||M0 ||||N − N0 || + ||M − M0 ||||N || . Ent˜ao, se ||M − M0 || → 0 e se ||N − N0 || → 0, teremos ||M N − M0 N0 || → 0, provando assim a continuidade do produto. Como composta do produto com o par de aplica¸c˜oes cont´ınuas ((·)H , I), temos que a aplica¸c˜ ao M 7→ M H M ´e cont´ınua. Portanto o subgrupo das matrizes unit´arias U ´e fechado em IF n×n . Estes fatos acarretam o seguinte Lema 3.2 O subgrupo das matrizes unit´ arias U = {M ∈ IF n×n : M H M = I} ´e compacto. O fato seguinte ´e tamb´em muito importante nesta teoria Lema 3.3 Toda matriz N de IF n×n ´e limite de uma sequˆencia de matrizes invers´ıveis de IF n×n , seja N invers´ıvel ou n˜ ao. Prova: Provaremos que existe uma sequˆencia (Nk )k≥1 de matrizes invers´ıveis, tais que limk→∞ Nk = N. Equivalentemente, que limk→∞ ||Nk − N || = 0. a) Se N ´e invers´ıvel, al´em da sequˆencia constante Nk = N , podemos tomar o seguinte exemplo: Seja Nk =

k N , para k ≥ 1. Temos k+1 ||N − Nk ||2 =

n X i,j=1

(Nij −

k k 2 ||N ||2 Nij )2 = (1 − ) ||N ||2 = . k+1 k+1 (k + 1)2

Da´ı, se k → ∞, temos ||Nk − N || → 0. b) Consideremos N singular e seja p o seu posto. Denotemos suas colunas por ηj , para 1 ≤ j ≤ n e suponhamos esta enumera¸c˜ ao escolhida de modo que as p primeiras colunas η1 , . . . , ηp sejam linearmente independentes. Neste caso, para todo l = p + 1, . . . , n, existem escalares clj , 1 ≤ j ≤ p para os quais, podemos escrever p ηl =

X

clj ηj .

j=1

Sejam η˜p+1 , . . . , η˜n elementos de IF n , de modo que {η1 , . . . , ηp , η˜p+1 , . . . , η˜n } ´e base de IF n . Isto consiste de completar o conjunto linearmente independente {η1 , . . . , ηp } a uma base de IF n , o que ´e um resultado b´asico de ´algebra linear. Consideremos ent˜ ao, as matrizes Nk , definidas da maneira seguinte: 1 1 Nk = [η1 , . . . , ηp , ηp+1 + (˜ ηp+1 − ηp+1 ), . . . , ηn + (˜ ηn − ηn )] . k k Podemos, da pr´ opria constru¸c˜ ao, mostrar que todas as matrizes Nk s˜ao invers´ıveis, 1 ≤ k ≤ n. 32

De fato: Fixemos k, 1 ≤ k ≤ n. Sejam c1 , . . . , cp , ep+1 , . . . , en escalares arbitr´arios e suponhamos que p n X X 1 ηj − ηj )) = 0 . ci ηi + ej (ηj + (˜ k i=1 j=p+1 Reescrevemos esta u ´ltima equa¸c˜ ao na forma seguinte: p X

ci ηi +

i=1

n n 1 X 1 X ej η˜j + (1 − ) ej ηj = 0 . k j=p+1 k j=p+1

Substituindo na terceira parcela da Eq. (3.1), ηj =

Pn

i=1 cji ηi ,

(3.1)

temos

p X

n n 1 X 1 X (ci + (1 − ) ej cji )ηi + ej η˜j = 0 . k j=p+1 k j=p+1 i=1

Sendo por constru¸c˜ ao, {η1 , . . . , ηp , η˜p+1 , . . . , η˜n } base de IF n , temos   ej = 0,    

j = p + 1, . . . , p

n 1 X   ej cji = 0, c + (1 − )    i k

i = 1, . . . , p

j=p+1

o que tamb´em implica ci = 0 para 1 ≤ i ≤ p. Da´ı, do fato de as colunas de Nk , serem linearmente independentes, temos que as matrizes Nk s˜ao invers´ıveis. Al´em disso, p

z }| { 1

1 Nk − N = [0, . . . , 0, (˜ ηp+1 − ηp+1 ), . . . , (˜ ηn − ηn )] k k donde ||Nk − N ||2 =

n X 12

k j=p+1

||˜ ηj − ηj ||2 .

Finalmente, vem da´ı ||Nk − N ||2 =

n X 12

k j=p+1

||˜ ηj − ηj ||2 → 0 ;

quando k → ∞, o que prova o lema. Nota 3.1 Se ηi1 , . . . , ηip s˜ ao as colunas linearmente independentes de N , podemos escolher n − p colunas linearmente independentes η˜j1 , . . . , η˜jn−p , tais que ηi1 , . . . , ηip ; η˜j1 , . . . , η˜jn−p constitua uma base de IF n onde {i1 , . . . , ip , j1 , . . . , jn−p } = {1, . . . , n} e podemos definir a matriz Nk como Nk = [γ1 , . . . , γn ] onde para todo i, 1 ≤ i ≤ n,    γ i = η is ,

se is = i para algum s = 1, . . . , p ;

  γ =η , i is

se i = js0 para algum s0 = 1, . . . , n − p . 33

Observa¸ c˜ ao 3.1 A fun¸c˜ ao determinante, det, como uma fun¸c˜ ao escalar sobre IF n×n , ´e cont´ınua. n O subconjunto Iso(IF ) das matrizes invers´ıveis de ordem n sobre IF , que se identifica ao grupo linear de IF n , dos isomorfismos lineares de IF n , ´e constitu´ıdo das matrizes quadradas de determinante n˜ ao nulo. Isto ´e, Iso(IF n ) = det−1 (IF − {0}) . ´e imagem inversa de um subconjunto aberto de IF , portanto Iso(IF n ) ´e aberto em IF n×n . Recordamos a no¸c˜ ao de fecho ou aderˆencia de um subconjunto S de IF n×n . O fecho de S ´e o subconjunto S de IF n×n com a seguinte caracter´ıstica: Um elemento X de IF n×n pertence a S se e somente se, dado arbitrariamente um real ε > 0, existe ao menos um elemento Y em S com ||X − Y || < ε. Diz-se que um subconjunto S ´e denso em IF n×n se S = IF n×n . Com essas observa¸c˜ oes, podemos enunciar o lema 3.3 da maneira seguinte. Lema 3.4 Iso(IF n ) = IF n×n . Equivalentemente, podemos dizer que Iso(IF n ) ´e denso em IF n×n . Note que os Lemas 3.3 e 3.4 s˜ ao equivalentes.

3.1

Decomposi¸ c˜ ao generalizada de Schur

A decomposi¸c˜ ao dada no pr´ oximo teorema nos permite associar a um par qualquer de matrizes quadradas com elementos em C, um par de matrizes quadradas triangulares superior. Teorema 3.1 (Decomposi¸ c˜ ao generalizada de Schur) Sejam M e N matrizes quadradas de ordem n com elementos complexos. Existem matrizes unit´ arias Q e Z de ordem n e matrizes T = [Tij ] e S = [Sij ] triangulares superior, tais que QH M Z = T e

QH N Z = S .

Al´em disso, 1. Se Tij = Sij = 0 para algum ´ındice i, 1 ≤ i ≤ n, ent˜ ao σ(M, N ) = C. 2. Se Sij 6= 0 para todo ´ındice i, 1 ≤ i ≤ n, ent˜ ao σ(M, N ) = {

Tij : 1 ≤ i ≤ n} . Sij

Prova: Consideremos uma sequˆencia de matrizes complexas (Nk )k≥1 invers´ıveis, convergindo para N e seja para cada k ≥ 1, Qk H M Nk −1 Zk = Rk a decomposi¸c˜ ao de Schur de M Nk −1 , onde Qk ´e unit´aria e Rk ´e triangular superior. 34

Usando a decomposi¸c˜ ao de Gram-Schmidt, podemos escrever Zk H (Nk −1 Qk ) = Sk −1 onde Zk ´e unit´ aria e Sk −1 ´e triangular superior. Do lema 1.6, Sk ´e triangular superior. Ent˜ao, Qk H Nk Zk = Sk e Zk = Nk −1 Qk Sk e portanto, Qk H M Zk = Qk H M Nk −1 Qk Sk = Rk Sk ´e triangular superior. Por outro lado, do lema 3.2, o subconjunto U das matrizes complexas unit´arias de ordem n ´e compacto, portanto ´e tamb´em compacto o subconjunto produto U × U de C n×n × C n×n . Da´ı, a sequˆencia (Qk , Zk )k≥1 possui uma subsequˆencia (Qkj , Zkj )j≥1 , a qual converge para um par (Q, Z) de matrizes unit´ arias. Argumentando a partir da continuidade do produto de matrizes e da aplica¸c˜ao M → M H , podemos garantir as seguintes passagens ao limite: lim Qkj H M Zkj = QH M Z

j→∞

lim Qkj H N Zkj = QH N Z .

e

j→∞

Observando-se ainda que (Qkj H M Zkj )j≥1 e (Qkj H N Zkj )j≥1 s˜ao sequˆencias de matrizes triangulares superior, ent˜ ao QH M Z = T e QH N Z = S s˜ao triangulares superior, devido ao lema 3.1, isto ´e, as matrizes triangulares superior constituem um subespa¸co vetorial fechado de IF n×n . Temos ent˜ ao, det(T − λS) = det(QH (M − λN )Z) = det(QH )det(M − λN )det(Z) = ± det(M − λN ) . Como T e S triangulares superior, temos λ ∈ σ(M, N ) ⇔ (T11 − λS11 ) . . . (Tnn − λSnn ) = 0 . Se Tii = Sii = 0, para algum i = 1, . . . , n, temos que λ ∈ σ(M, N ) se, e somente se, λ ∈ C; isto ´e, σ(M, N ) = C. Se |Tii | + |Sii | > 0, para todo i, ent˜ ao, se Sii 6= 0 para algum i, Tii ∈ σ(M, N ) ; Sii se ocorrer Sii = 0 para todo i, ent˜ ao, necessariamente, σ(M, N ) = ∅. Reciprocamente, dado λ ∈ σ(M, N ), ent˜ao det(T − λS) = (T11 − λS11 ) . . . (Tnn − λSnn ) = 0 , o que acarreta a existˆencia de um ´ındice i entre 1 e n para o qual Tii − λSii = 0. Para este i, Tii devemos ter Sii 6= 0 e λ = . Sii 35

De fato: Se Sii = 0, da hip´ otese |Tii | + |Sii | > 0, ter´ıamos Tii 6= 0 e Tii − λSii = Tii 6= 0, o que seria contradit´ orio. Assim, neste caso 

σ(M, N ) =

Tii : Sii 6= 0, i = 1, . . . , n . Sii 

Teorema 3.2 (Caso real) Sejam M e N matrizes quadradas reais M e N de ordem n. Existem duas matrizes quadradas ortogonais Q e Z, de ordem n, tais que QT M Z ´e quase triangular superior e QT N Z ´e triangular superior. Prova: Consideremos uma sequˆencia (Nk )k≥1 de matrizes quadradas reais invers´ıveis convergindo para N . Seja para k ≥ 1, Qk uma matriz ortogonal de ordem n e Rk uma matriz quadrada real quase triangular superior, de tipo n, tais que Qk T (M Nk −1 )Qk = Rk

(3.2)

dada pela decomposi¸c˜ ao de Schur no caso real, teorema 2.3. Usando a decomposi¸c˜ ao de Gram-Schmidt, teorema 2.1, tomamos para cada k ≥ 1, uma matriz ortogonal Zk de tipo n e uma matriz real triangular superior invers´ıveis Sk , tais que Zk T (Nk −1 Qk ) = Sk −1 .

(3.3)

Assim, existem sequˆencias de matrizes ortogonais (Qk )k≥1 e (Zk )k≥1 tais que a) Qk T Nk Zk = Sk ´e triangular superior, de (3.3). b) Qk T M Zk = Rk Sk ´e quase triangular superior, do lema 1.5. Pelo lema 3.2, temos que o subgrupo O de R n×n das matrizes ortogonais ´e compacto. Da´ı, as sequˆencias (Qk )k≥1 e (Zk )k≥1 possuem subsequˆencias convergentes em O. Sejam (Qkj )j≥1 uma subsequˆencia de (Qk )k≥1 convergindo para Q ∈ O e (Zkj )j≥1 uma subsequˆencia de (Zk )k≥1 convergindo para Z ∈ O. Usando o fato de que toda subsequˆencia de (Nk )k≥1 converge para N e da continuidade do produto de matrizes e da aplica¸c˜ ao M → M T , temos (Qkj T M Zkj )j≥1 converge para QT M Z; (Qkj T Nkj Zkj )j≥1 converge para QT N Z. Do lema 3.1, os subespa¸cos de R n×n , das matrizes triangulares superior e das matrizes triangulares superior s˜ao fechados. Como para cada j, Qkj T M Zkj ´e quase triangular superior e Qkj T Nkj Zkj ´e triangular superior, temos que QT M Z ´e quase triangular superior e QT N Z ´e triangular superior, como quer´ıamos demonstrar.

36

3.2

Subespa¸ cos invariantes ou deflacionadores

Esta se¸c˜ao come¸ca com a seguinte observa¸c˜ao Observa¸ c˜ ao 3.2 i) Consideremos a decomposi¸c˜ ao generalizada de Schur para o par (M, N ). Podemos escrever QH M Z = T e QH N Z = S com Q = [q1 , . . . , qn ] e Z = [z1 , . . . , zn ] unit´ arias, T = [Tij ] e S = [Sij ] complexas de tipo n e triangulares superior. Reescrevendo estas equa¸c˜ oes na forma M Z = QT

e

N Z = QS ,

obtemos a seguinte descri¸c˜ ao

e

   M z1

= T11 q1

  Mz k

= T1k q1 + . . . + Tkk qk

   N z1

= S11 q1

  Nz k

= S1k q1 + . . . + Skk qk

1 ≤ k ≤ n,

1 ≤ k ≤ n,

considerando-se que T e S s˜ ao triangulares superior. Se Sk , Wk s˜ ao os subespa¸cos de C n gerados respectivamente por {z1 , . . . , zk } e {q1 , . . . , qk }, ent˜ ao M Sk + N Sk ⊂ Wk , 1 ≤ k ≤ n. Assim, em particular dim(M Sk + N Sk ) ≤ dim(Sk ) . ii) Se λ ∈ σ(M, N ), ent˜ ao M Sλ + N Sλ tem dimens˜ ao inferior ou igual a dimens˜ ao de Sλ . De fato: Se λ = 0, Sλ = Nuc(M ) = {X ∈ C n : M X = 0} e da´ı, M Sλ + N Sλ = N Sλ donde o resultado. Se λ 6= 0 e se Z ∈ M Sλ + N Sλ , existem X, Y ∈ Sλ tais que Z = M X + N Y. De Y ∈ Sλ , segue-se que M Y = λN Y donde Z = M X + λ−1 M Y ∈ M Sλ . Como X ∈ Sλ , tem-se que M X = λN X, logo Z = λN X +N Y ∈ N Sλ e portanto M Sλ +N Sλ ⊂ M Sλ ∩ N Sλ . Lema 3.5 Sejam M e N matrizes quadradas complexas de tipo n e seja S um subespa¸co vetorial de C n . Ent˜ ao, 1. se M invers´ıvel, ent˜ ao dim(M S + N S) ≤ dim(S) ´e equivalente a M −1 N S ⊂ S. 2. se N invers´ıvel, ent˜ ao dim(M S + N S) ≤ dim(S) ´e equivalente a N −1 M S ⊂ S. 37

Prova: a) N −1 M S ⊂ S ⇒ dim(M S + N S) ≤ dim(S). De fato: N −1 M S ⊂ S ⇔ M S ⊂ N S ⇔ M S + N S = N S. Da´ı, dim(M S + N S) = dim(N S) = dim(S). b) dim(M S + N S) ≤ dim(S) ⇔ N −1 M S ⊂ S. Suponhamos dim(M S + N S) ≤ dim(S). Temos M S = N (N −1 M S) e ent˜ao, M S + N S = N (N −1 M S + S) . Da´ı, dim(M S + N S) = dim(N −1 M S + S). Neste caso, dim(N −1 M S + S) ≤ dim(S) e isto implica que N −1 M S ⊂ S.

Defini¸ c˜ ao 3.1 (Subespa¸ co deflacionador) Um subespa¸co S de C n ´e dito subespa¸ co deflacionador ou invariante para um par (M, N ) de matrizes quadradas complexas, se dim(M S + N S) ≤ dim(S).

Lema 3.6 Todo par (M, N ) de matrizes quadradas complexas, possui um subespa¸co deflacionador S= 6 {0}. Prova: Se N = 0, qualquer subespa¸co S = 6 {0} ´e deflacionador para (M, N ). Se N 6= 0, ent˜ ao σ(M, N ) 6= ∅. De fato, se M ´e singular, ent˜ ao 0 ∈ σ(M, N ). Se M ´e n˜ao singular, ent˜ao M −1 N 6= 0 e portanto existe µ n˜ao nulo em σ(M, N ). Neste caso, λ = µ−1 pertence a σ(M, N ). Portanto S = Sλ ´e um subespa¸co deflacionador para (M, N ), conforme ii) da observa¸c˜ao 3.2.

Nota 3.2 Seja S um subespa¸co deflacionador para um par (M, N ) de matrizes quadradas complexas de tipo n. Suponhamos que dim(S) = k. Seja W um subespa¸co de C n de dimens˜ ao k contendo M S + N S. Sejam Φ = {s1 , . . . , sk , αk+1 , . . . , αn } e Ψ = {w1 , . . . , wk , βk+1 , . . . , βn } duas bases de C n onde {s1 , . . . , sk } e {w1 , . . . , wk } s˜ ao respectivamente, bases de S e de W. Sejam TM e TN aplica¸c˜ oes lineares de C n em C n , de matrizes M e N respectivamente, na base canˆ onica de C n . Ψ ao respectivaEnt˜ ao, as matrizes representantes de TM e TN nas bases Φ e Ψ, [TM ]Ψ Φ e [TN ]Φ s˜ mente, da forma     ˜ 11 M ˜ 12 ˜11 N ˜12 M N       e   ˜ 22 ˜22 0 M 0 N ˜ 11 e N ˜11 s˜ onde M ao, respectivamente, as matrizes das restri¸c˜ oes ` a S, das aplica¸c˜ oes TM e TN com valores em W, relativamente as bases {s1 , . . . , sk } de S e {w1 , . . . , wk } de W. −1 Ψ −1 Da´ı, como [TM ]Ψ obvias, temos que Φ = Ψ M Φ e [TN ]Φ = Ψ N Φ, sendo Φ e Ψ, matrizes ´ ˜ 11 , N ˜11 ) ⊂ σ(M, N ) . σ(M 38

Esta nota, juntamente com a observa¸c˜ ao 3.2 e o lema 3.5, nos mostra que a no¸c˜ao de subespa¸cos deflacionadores para (M, N ), corresponde `a no¸c˜ao de subespa¸co invariante usual para um operador linear sobre C n . Usaremos frequentemente, neste texto, a denomina¸c˜ao subespa¸co invariante para (M, N ) em lugar de subespa¸co deflacionador para (M, N ). O seguinte teorema ´e uma vers˜ ao mais precisa da nota 3.2:

Teorema 3.3 Sejam M e N matrizes quadradas complexas de tipo n. A cada subespa¸co invariante S para (M, N ) com dim(S) = l, corresponde duas matrizes unit´ arias U e V , tais que 

UHMV = 

M11 M12



0

M22

  



e

N11 N12

UHNV =  

0

N22

  

sendo M11 e N11 matrizes quadradas de tipo l. Al´em"disso, e uma parte de σ(M, N ) e, se λ ∈ σ(M11 , N11 ) e z ∈ Sλ (M11 , N11 ), # σ(M11 , N11 ) ´ z ent˜ ao V pertence a Sλ (M, N ) . 0

Prova: Partindo de uma base ortonormal {v1 , . . . , vl } de S, seja V1 a matriz V1 = [v1 , . . . , vl ]. Seja S ⊥ o complemento ortogonal de S em C n e, {vl+1 , . . . , vn } uma base ortonormal de S ⊥ . Seja V2 a matriz [vl+1 , . . . , vn ]. Ent˜ ao, {v1 , . . . , vn } ´e uma base ortonormal de C n , isto ´e, V = [V1 , V2 ] ´e uma matriz unit´aria de tipo n. A hip´otese dim(M S + N S) ≤ l implica que dim{(M S + N S)⊥ } ≥ n − l. Portanto, podemos tomar um conjunto ortonomal de vetores {ul+1 , . . . , un } em (M S + N S)⊥ e o extendemos `a uma base ortonormal {u1 , . . . , ul , ul+1 , . . . , un } de C n . Temos assim, uma matriz unit´ aria U = [U1 , U2 ], onde U1 = [u1 , . . . , ul ] e U2 = [ul+1 , . . . , un ]. Da´ı, UHMV

= U H [M V1 , M V2 ] 

= 

U1 H



U2 H





   [M V1 , M V2 ] = 

U1 H M V1 U1 H M V2 U2 H M V1 U2 H M V2

Um c´alculo an´ alogo mostra que 

UHNV = 

U1 H N V1 U1 H N V2



U2 H N V1 U2 H N V2 39

  .

  .

Mas, U2 H M V1 = U2 H [M v1 , . . . , M vl ] 

=

      

ul+1 H .. . un H

     [M v1 , . . . , M vl ]   

= [ul+i H M vj ]

i = 1, . . . , n − l j = 1, . . . , l

.

Observando que para todo i = 1, . . . , n − l, ul+i ∈ (M S + N S)⊥ e que para todo j = 1, . . . , l, M vj ∈ M S + N S, temos ul+i H M vj = 0, para todos os ´ındices i, j. Com um procedimento an´ alogo, vemos tamb´em que U2 H N V1 = 0, do fato de N vj ∈ M S + N S. Temos ent˜ ao, 

M11 − λN11 M12 − λN12

det(M − λN ) = det(U H V )det  

M22 − λN22

0

  

= ±det(M11 − λN11 )det(M22 − λN22 ) , onde Mij = Ui H M Vj e Nij = Ui H N Vj , para todos os ´ındices i, j. Assim, σ(M, N ) = σ(M11 , N11 ) ∪ σ(M22 , N22 ) . Se λ ∈ σ(M11 , N11 ) e se Y ∈ Sλ (M11 , N11 ), isto ´e, M11 Y = λN11 Y , temos 

(M − λN )V 

Y



0





  =



U U H (M − λN )V  

Y





0

  

M11 − λN11 M12 − λN12

= U  



0

(M11 − λN11 )Y

= U 



donde V 

Y



0

0

M22 − λN22

  

Y 0

  

  =0,

   ∈ Sλ (M, N ).

Outra demonstra¸c˜ ao da decomposi¸c˜ao generalizada de Schur, com o seguinte enunciado: 40

Teorema 3.4 (Decomposi¸ c˜ ao generalizada de Schur) 1. Sejam M e N matrizes quadradas complexas de ordem n. Existem matrizes unit´ arias Q e Z e matrizes complexas T = [Tij ] e S = [Sij ] triangulares superior, tais que QH M Z = T e QH N Z = S. 2. Fixada uma ordena¸c˜ ao ((t11 , s11 ), . . . , (tnn , snn )) do conjunto {(T11 , S11 ), . . . , (Tnn , Snn )} , as matrizes Q e Z podem ser escolhidas de modo que as diagonais de QH M Z e QH N Z sejam respectivamente (t11 , . . . , tnn ) e (s11 , . . . , snn ). Prova: a) Fa¸camos por indu¸c˜ ao sobre n. Para n = 1, tomamos Q = Z = [1] , T = M e S = N . Suponhamos a conclus˜ ao do teorema v´alida para um natural n > 1 e sejam dadas M, N de ordem n + 1. Consideremos S = C{Y1 } um subespa¸co invariante para (M, N ), onde ||Y1 || = 1 (se N ´e singular, tomamos Y1 satisfazendo N Y1 = 0 e ||Y1 || = 1; se N ´e n˜ao singular, existe λ em σ(M, N ), da´ı, tomamos Y1 em Sλ (M, N ), com ||Y1 || = 1). ˜ e Z˜ da forma Q ˜ = [W1 , V2 ] e Z˜ = [Y1 , Z2 ] unit´arias de ordem n + 1, Do teorema 3.3, existem Q onde as matrizes V2 e Z2 s˜ ao de ordens (n + 1) × n e W1 ´e um elemento de C n , tais que 

˜ H M Z˜ =  Q 

T11 T˜12 T˜22

0





˜ H N Z˜ =  Q 

e

 

S11 S˜12 S˜22

0

  

onde T11 e S11 s˜ ao escalares, T˜22 e S˜22 s˜ ao matrizes quadradas de ordem n. ˆ e Zˆ tais que Q ˆ H T˜22 Zˆ = T22 e Ent˜ao, pela hip´ otese de indu¸c˜ ao, existem matrizes unit´arias Q H ˆ S˜22 Zˆ = S22 s˜ Q ao triangulares superior. Tomando-se ent˜ao 

˜ Q=Q 

1

0

ˆ 0 Q





 Z = Z˜ 

e

 

1

0

0 Zˆ

  

temos que QH M Z = T e QH N Z = S onde T e S s˜ao triangulares superior. Mais explicitamente, 

QH M Z = 

1

0





= 

ˆH 0 Q 1

0





= 

ˆH 0 Q 1

0



ˆH 0 Q





 ˜H ˜  Q MZ 

  



0

0

0 Zˆ

T11 T˜12 T˜22

  

T11 T˜12 Zˆ

 

0 41

1

T˜22 Zˆ

  

  

1

0

0 Zˆ

  



T11

= 

T˜12 Zˆ





ˆ H T˜22 Zˆ Q

0 

= 

T11 T12



0

T22

 

  

ˆ onde escrevemos T12 := T˜12 Z. Analogamente, temos 

QH N Z = 

S11 S12



0

S22

  ,

S12 := S˜12 Zˆ .

onde

b) Tomemos uma ordena¸c˜ ao, ((t11 , s11 ), . . . , (tnn , snn )) de {(T11 , S11 ), . . . , (Tnn , Snn )} . Como no item a) da prova, tomamos Y1 talque s11 M Y1 = t11 N Y1 . No caso em que s11 = 0, Y1 ´e tal que N Y1 = 0 ; no caso em que s11 6= 0, Y1 ´e tal que M Y1 =

t11 N Y1 , conforme a observa¸c˜ ao 3.3 seguinte. Por indu¸c˜ao, existem Q e Z unit´arias, de ordem n, s11 tais que as diagonais de QH M Z e QH N Z s˜ao, respectivamente, (t11 , . . . , tnn ) e (s11 , . . . , snn ). Observa¸ c˜ ao 3.3 Sendo QH M Z = T , QH N Z = S, t11 = Tkk e s11 = Skk , para algum k = 1, . . . , n com Skk 6= 0, o sistema (s11 T − t11 S)X = 0 ´e da forma  P11 x1                

+ ... +

P1k xk

+ . . . + Pnn xn = 0 .. .

(skk Tkk − tkk Skk )xk + . . . + Pkn xn = 0 .. . Pnn xn = 0

onde Pij = s11 Tij − t11 Sij possui solu¸ca ˜o n˜ ao trivial, digamos X1 . Assim, (s11 QH M Z − t11 QH N Z)X1 = 0 , ou seja, QH (s11 M − t11 N )(ZX1 ) = 0 e da´ı, (s11 M − t11 N )Y1 = 0 , onde Zx1 := Y1 6= 0 , o que justifica a escolha feita na prova do teorema 3.4.

42

Cap´ıtulo 4

Decomposi¸ c˜ oes de pares sim´ etricos Congruˆ encia e matrizes hermiteanas e matrizes definidas Dizemos que duas matrizes quadradas M e N s˜ao congruentes se podemos escrever uma delas (digamos N ) na forma P H M P , onde P ´e uma matriz invers´ıvel. O seguinte lema afirma que a rela¸c˜ ao de congruˆencia de matrizes quadradas preserva a propriedade hermiteana e a propriedade de ser definida positiva dessas matrizes. Isto ´e, se duas matrizes s˜ao congruentes, ent˜ ao uma delas ´e hermiteana (resp: definida positiva) se, e somente se, a outra ´e tamb´em hermiteana (resp: definida positiva). Lema 4.1 Sejam M e N matrizes quadradas de ordem n. Se M e N s˜ ao congruentes, ent˜ ao 1. M H = M se, e somente se, N H = N . 2. M ´e definida positiva, isto ´e, X H M X > 0, para todo X n˜ ao nulo de IF n se, e somente se, X H N X > 0, para todo X n˜ ao nulo de IF n . Prova: a) Suponhamos RH M R = N. Temos N H = (RH M R)H = RH M H (RH )H = RH M H R . Ent˜ao, N H = N ⇔ RH M H R = RH M R e da´ı, N H = N ⇔ M H = M. b) Suponhamos N = RH M R definida positiva. Como M = R−H N R−1 , se X ´e um elemento n˜ao nulo de C n , temos a seguinte desigualdade X H M X = X H R−H N R−1 X = (R−1 X)H N (R−1 X) > 0 , mostrando que M ´e definida positiva. Reciprocamente, se M ´e definida positiva, de N = RH M R, temos tamb´em que N ´e definida positiva. Nota 4.1 Na literatura corrente, um par de matrizes quadradas (M, N ) ´e denominado sim´ etrico se as matrizes M e N s˜ ao sim´etricas e, al´em disso, N ´e definida positiva. Veja a defini¸c˜ ao 4.1 adiante. 43

Exemplo 4.1 O par (M, N ) dado a seguir, ´e constitu´ıdo de matrizes quadradas reais sim´etricas, no qual N ´e n˜ ao singular. Al´em disso, n˜ ao possui autovalores reais. −1 −1 Consequentemente, M N e M N n˜ ao s˜ ao sim´etricas e al´em disso, M N −1 e M N −1 n˜ ao s˜ ao ao ´e equivalente a um par de matrizes diagonais reais. diagonaliz´ aveis sobre R, isto ´e, (M, N ) n˜ Sejam 

M =

1

0



0 −1





  e

0 1

N = 

1 0

  .

Temos que N ´e invers´ıvel e sim´etrica, por´em, n˜ ao ´e positiva definida. Al´em disso, σ(M, N ) = {λ : det(M − λN ) = −(λ2 + 1) = 0} = {−i, i} . Sejam X1 , X2 elementos de C 2 tais que M X2 = −iN X2 .

M X1 = iN X1 e Com a nota¸ca ˜o: U = [X1 , X2 ], temos



MU = NU 

i



0



ou

0 −i



(N U )−1 M U = 

i

 

0



0 −i

  .

Vemos ent˜ ao que 

U −1 (N −1 M )U = 

i

0



0 −i

  

e portanto, N −1 M ´e diagonaliz´ avel sobre C, mas n˜ ao ´e diagonaliz´ avel sobre R.

4.1

Decomposi¸ c˜ oes de pares de matrizes sim´ etricas

Suponhamos que M e N s˜ ao matrizes quadradas complexas, de ordem n, auto-adjuntas e que N ´e definida positiva. Ent˜ ao, N −1 M ´e diagonaliz´avel e, (M, N ) ´e congruente a um par (D, I), onde D ´e uma matriz diagonal. Compare este resultado com o corol´ario 4.2 adiante. Este resultado ´e provado a partir da seguinte Proposi¸ c˜ ao 4.1 Consideremos M e N matrizes quadradas complexas de ordem n. Seja S um subespa¸co vetorial de C n de dimens˜ ao l (1 < l < n), invariante para (M, N ). Seja {X1 , . . . , Xl } uma base de S e C a matriz de ordem n × l correspondente, isto ´e, C := [X1 , . . . , Xl ]. Ent˜ ao, se C H M C ou C H N C ´e n˜ ao singular, existe uma matriz quadrada n˜ ao singular U , da forma U = [C, D], tal que 

UHMU = 

M11 M12



0

M22

  



e

44

UHNU = 

N11 N12



0

N22

  

onde M11 e N11 s˜ ao matrizes quadradas de ordem l. Prova : Suponhamos, por exemplo, que C H M C ´e n˜ao singular. Sabemos que dim(M S + N S) ≤ l. Das hip´oteses feitas sobre M , vem: dim(M S) = l . P De fato: Se W ´e um elemento de S, existe Y em C l com W = CY ( isto ´e, W = li=1 zi Xi ). Da´ı, M W = 0 implica M X1 Y = 0 e ent˜ao X1H M X1 Y = 0, acarretando que Y = 0. Ent˜ao, N S ⊂ M S + N S = M S, logo (M S)⊥ ⊂ (N S)⊥ . Tomemos a matriz D, de ordem n × (n − l), dada por D = [Xl+1 , . . . , Xn ], onde {Xl+1 , . . . , Xn } ´e uma base de (M S)⊥ . Ent˜ ao, de (M S)⊥ = {X ∈ C n : X H M Xi = 0, 1 ≤ i ≤ l}, temos H Xl+j M Xi = 0, i = 1, . . . , l; j = 1, . . . , n − l. H N W = 0, para todo W de S, e em particular, X H N X = 0, i = 1, . . . , l, De N S ⊂ M S vem Xl+j i l+j j = 1, . . . , n − l.

Em resumo, DH M C = DH N C = 0 e para completar a prova da proposi¸c˜ ao, basta mostrarmos que a matriz U = [C, D] ´e n˜ao singular. Ora, isto pode visto da seguinte maneira: Escrevendo um elemento qualquer X de C n na forma de coluna 

X=

Y



W

  l  , Y em C e

W em C n−l .

Assim, podemos escrever U X como: U X = CY + DW ∈ M S + (M S)⊥ = C n . Ent˜ao, U X = 0, implica CY = −DW ∈ M S ∩ (M S)⊥ . Consequentemente, (CY )H (CY ) = (DW )H (DW ) = 0. Logo, CY = 0 e DW = 0. Seque-se ent˜ ao, de as colunas de C e D serem linearmente independentes, que Y = 0 e W = 0. Finalmente, temos que U ´e n˜ ao singular e , 

UHMU = 

CH



DH





   M [C, D] = 

CH M C

CH M D

DH M C

DH M D





  =

M11 M12 0

M22

  .

Analogamente, 

N11 N12

UHNU =  

0

N22

  

s˜ao da forma procurada.

Coment´ ario 4.1 Se C H N C ´e n˜ ao singular, a prova ´e obtida permutando-se os pap´eis de M e N .

45

˜ = [X˜1 , . . . , X ˜l ] Lema 4.2 Seja S um subespa¸co de dimens˜ ao l de C n e consideremos as matrizes U e U = [X1 , . . . , Xl ], cujas colunas constituem bases de S. ˜ = UV . Ent˜ ao, existe uma u ´nica matriz complexa V de ordem l, n˜ ao singular tal que U ´nica pois {X1 , . . . , Xl } Prova : Seja V = [Z1 , . . . , Zl ] tal que X˜j = U Zj . Tal matriz V existe e ´e u ´e base de S, e para todo j, os Xj s˜ ao elementos de S. −1 ˜ ˜ Assim, U = U V com U = U V sendo que V −1 existe pela mesma raz˜ao que V existe. Voltando a Proposi¸c˜ ao 4.1, se a matriz N ´e tal que C H N C ´e n˜ao singular, se C˜ ´e outra escolha de base para S, ent˜ ao C˜ H N C˜ = (CZ)H N (CZ) = Z H (C H N C)Z ´e tamb´em n˜ ao singular.

Lema 4.3 Seja N uma matriz quadrada de ordem n sobre C, definida positiva e seja S um subespa¸co de C n , de dimens˜ ao l. Se C = [X1 , . . . , Xl ] ´e uma matriz de ordem n×l, onde {X1 , . . . , Xl } ´e base de S, temos que C H N C ´e n˜ ao singular. Prova : Seja C uma tal matriz de ordem n × l e seja X um elemento de C l . Se C H N CX = 0, ent˜ ao X H C H N CX = 0 . Da´ı, (CX)H N (CX) = 0 e como N ´e definida positiva, segue-se que CX = 0. Como as colunas de C s˜ao linearmente independentes, temos que X = 0. Ent˜ ao, C H N CX possui n´ ucleo trival, portanto, ´e n˜ao singular.

Corol´ ario 4.1 Sejam M e N matrizes quadradas de ordem n sobre C, onde N ´e hermiteana e definida positiva. Se S´e um subespa¸co dimens˜ ao l, invariante para (M, N ), ent˜ ao existe uma matriz n˜ ao singular P , tal que 

M1 M 2

P HMP =  

0

M3





  H  e P NP = 

Idl 0

0 N3

  .

Prova : Seja C como na proposi¸c˜ ao 4.1. Como N ´e hermiteana definida positiva, temos do lema H 4.1 que C N C ´e tamb´em hermiteana definida positiva . Ent˜ao, C H N C possui uma ra´ız quadrada Q de ordem l hermiteana definida positiva (veja nota 4.2). ˜ de ordem n × (n − l) Refazendo a prova da proposi¸c˜ ao 4.1 com C˜ = CQ−1 , temos que existe D tal que ˜ H N C˜ = D ˜ H M C˜ = 0 D ˜ D], ˜ temos e se P˜ = [C,   P˜ H N P˜ = 

˜11 N ˜12 N 0

˜33 N





  H  e P˜ M P˜ = 

46

˜ 11 M ˜ 12 M 0

˜ 33 M

  .

Mas, ˜11 = C˜ H N C˜ N = (CQ−1 )H N (CQ−1 ) = Q−H (C H N C)Q−1 (de

Q−H

=

Q−1 ) = Q−1 Q2 Q−1 = Il .

˜ H = 0. Note tamb´em que, se M ´e hermiteana, temos M2 = 0. Como N ´e hermiteana, N 12 Nota 4.2 Uma matriz hermiteana N ´e diagonaliz´ avel. Isto ´e, existe uma matriz unit´ aria U e uma matriz diagonal D, tais que UHNU = D . Se N ´e definida positiva, os autovalores {λ1 , . . . , λn } s˜ ao reais positivos. Da´ı, D = diag(λ1 , . . . , λn ) 1 1 1 1 2 2 2 e consequentemente, D = diag(λ1 , . . . , λn ) e definindo, R = U H D 2 U , temos R = U DU H = N. 1 1 Al´em disso, RH = U H D 2 U = R e R ´e definida positiva pois ´e congruente a D 2 , que ´e definida positiva. Teorema 4.1 Sejam M e N matrizes quadradas de ordem n sobre C, onde N ´e hermiteana e definida positiva. S˜ ao v´ alidas as seguintes afirma¸c˜ oes: 1. Existe uma matriz invers´ıvel P e uma matriz T = [Tij ], triangular superior de ordem n sobre C, tais que P HMP = T e P HNP = I . Se M ´e hermiteana, a matriz T ´e diagonal. 2. Dada uma ordena¸c˜ ao (t1 , . . . , tn ) de {T11 , . . . , Tnn }, P pode ser tomada tal que P H M P = diag(t1 , . . . , tn ) + S, onde S ´e estritamente triangular superior. Prova : Por indu¸c˜ ao sobre n, levando em considera¸c˜ao o corol´ario 4.1 e argumentos an´alogos `aqueles usados na prova do teorema 3.4.

Nota 4.3 Se al´em das condi¸c˜ oes do teorema 4.1, tivermos M hermiteana, ent˜ ao P H M P = diag(λ1 , . . . , λn ) = D e

P HNP = I .

Ent˜ ao, 1. σ(M, N ) = {λ1 , . . . , λn } . 2. P H = (N P )−1 e (N P )−1 M P = D. Portanto, M P = (N P )D . Se P = [P1 , . . . , Pn ], ent˜ ao M Pj = λj Pj , j = 1, . . . n. Portanto P ´e constitu´ıdo de autovetores de (M, N ), os quais s˜ ao N − ortogonais, ou seja, PiH N Pj = δij ( outra forma de se ler P H N P = I) . 47

Corol´ ario 4.2 Sejam M e N matrizes quadradas reais sim´etricas de ordem n com N definida positiva ((M, N ) ´e um par sim´etrico, positivo definido). Ent˜ ao, existe uma matriz N − ortogonal T Q (isto ´e, Q N Q = I), tal que QT M Q = diag(λ1 , . . . , λn ). Em particular, σ(M, N ) = {λ1 , . . . , λn } . ´ suficiente provar que Prova : E a) Existe um subespa¸co invariante para (M, N ); b) Usar o fato de que a ra´ız quadrada de uma matriz real sim´etrica definida positiva ´e tamb´em sim´etrica e definida positiva; c) Usar resultados anteriores. Mas, existem λ em C e X n˜ ao nulo em C n , tais que, M X = λN X. Da´ı, X H M X = λX H N X. Passando-se ` as adjuntas, vem X H M X = λX H N X, donde segue-se que λX H N X = λX H N X. De H X N X > 0, vem λ = λ, portanto λ ´e real. Ent˜ao, o sistema (M − λN )Y = 0 tem solu¸c˜ ao n˜ ao trivial X de C n . Assim, um subespa¸co S de C n existe. O item b) ´e verdadeiro, conforme foi visto na nota 4.2.

4.2

Diagonaliza¸ c˜ ao de um par de matrizes sim´ etricas

Esta se¸c˜ao descreve resultados a respeito da diagonaliza¸c˜ao de um par (M, N ) onde as matrizes s˜ ao quadradas reais sim´etricas de ordem n. Equivalentemente, da diagonaliza¸c˜ao simultˆanea de duas formas quadr´ aticas reais. Descreve resultados existentes sobre feixes sim´etricos de matrizes, ou de formas bilineares sim´etricas.

Equivalˆ encia entre (M, N ) e (γM + σN, −σM + γN ) Sejam γ e σ reais satisfazendo γ 2 + σ 2 > 0 . Sejam as fun¸c˜oes ϕ(γ,σ) : R\{− σγ } −→ R

se σ 6= 0

ϕ(γ,σ) : R −→ R

se σ = 0

dadas por ϕ(γ,σ) (t) =

γt − σ . σt + γ

Em particular, ϕ(γ,σ) (t) = t, se σ = 0. Lema 4.4 Correspondente a um par (γ, σ) de reais quaisquer, temos: 1. ϕ(γ,σ) ´e indefinidamente diferenci´ avel. 2. Se γ 2 + σ 2 > 0 , ent˜ ao ϕ(γ,σ) ´e estritamente crescente em seu dom´ınio. 48

1 3. Se σ 6= 0, temos ϕ(γ,σ) (t) = − , se γ = 0 e σ 6= 0. t limγ ϕ(γ,σ) (t) = −∞, e limγ

t→(− σ )−

t→(− σ )+

ϕ(γ,σ) (t) = +∞.

Em particular, ϕ(γ,σ) ( σγ ) = 0, para todo par (γ, σ) de reais, com γ 6= 0. Prova : Os itens 1. e 3. s˜ ao f´ aceis de demonstrar. dϕ(γ,σ) γ 2 + σ2 Por outro lado, temos > 0 , para todo t do dom´ınio de ϕ(γ,σ) , o que (t) = dt (σt + γ)2 prova o item 2. De |γt − σ| |ϕ(γ,σ) (t)| = |σt + γ| e de γ 2 + σ2 limγ |γt − σ| = , limγ |σt + γ| = 0 |σ| t→− σ t→− σ temos lim

γ − t→(− σ )

|ϕ(γ,σ) (t)| = +∞ .

Sendo ϕ(γ,σ) estritamente crescente, devemos ter lim

γ + t→(− σ )

ϕ(γ,σ) (t) = −∞ e

lim

γ − t→(− σ )

ϕ(γ,σ) (t) = +∞ ,

e o item 4. est´ a provado. γ Nota 4.4 Se σ 6= 0, existe a inversa ϕ−1 (γ,σ) : R\{ σ } → R, dada por

ϕ−1 (γ,σ) (q) =

γq + σ = ϕ(γ,−σ) (q) . −σq + γ

Prova : Consideremos as seguintes equivalˆencias: ϕ−1 (γ,σ) (q) = t ⇔ q =

γt − σ σt + γ

⇔ σqt + qγ = γt − σ ⇔ γt − σqt = qγ + σ ⇔t=

γq + σ . γ − σq

Temos portanto,

γq + σ . −σq + γ Definamos a fun¸c˜ ao Φ(γ,σ) (M, N ) = (γM + σN, −σM + γN ) entre pares de matrizes quadradas reais de ordem n, sendo γ, σ ∈ R. ϕ−1 (γ,σ) (q) =

Temos em particular, Φ(γ,0) (M, N ) = γ(M, N ) e Φ(0,σ) (M, N ) = σ(M, N ).

49

Proposi¸ c˜ ao 4.2 Sejam dadas duas matrizes quadradas reais M e N de ordem n, temos, para todo par (γ, δ): 1. O par (M, N ) ´e sim´etrico se, e somente se, Φ(γ,δ) (M, N ) ´e sim´etrico; 2. Se γ 2 + δ 2 > 0, ent˜ ao   γ ϕ−1 (σ(M, N )) = σ Φ (M, N ) \{− } , (γ,δ) (γ,δ) δ

ou seja,

  γ λ ∈ σ(M, N ) ⇔ ϕ−1 (λ) ∈ σ Φ (M, N ) \{− } . (γ,δ) (γ,δ) δ Equivalentemente, se λ 6= − γδ , ent˜ ao λ ∈ σ(Φ(γ,δ) (M, N )) se, e somente se, ϕ(γ,δ) (λ) ∈ σ(M, N ) .

ao decorre diretamente da defini¸c˜ao de Φ(γ,δ) (M, N ) . Prova : O primeira afirma¸c˜ Prova da segunda afirma¸c˜ ao: Seja λ ∈ σ(Φ(γ,δ) (M, N )), λ 6= − γδ . Neste caso, existe um elemento n˜ao nulo, X de R n , tal que (γM + δN ) − λ(−δM + γN ) = 0 ⇔ (δλ + γ)M X − (γλ − δ)N X = 0 ⇔ MX −

γλ − δ =0 δλ + γ

⇔ ϕ(γ,δ) (λ) ∈ σ(M, N ) . Temos, reciprocamente, que se µ ∈ σ(M, N ), ent˜ao µ = ϕ(γ,δ) (λ) , para algum λ 6= − γδ e existe X 6= 0 em R n com M X − µN X = 0. Temos ent˜ao, M X − ϕ(γ,δ) (λ)N X = 0 ⇔ MX =

γλ − δ δλ + γ

⇔ (γM + δN )X − λ(−δM + γN )X = 0 ⇔ (γM + δN )X − ϕ(γ,δ) −1 (µ)(−δM + γN )X = 0 .

Observa¸ c˜ ao 4.1 Dados um par (M, N ) de matrizes quadradas reais de ordem n e um par (γ, δ) de reais com δ 6= 0, o quociente − γδ ´e um autovalor de Φ(γ,δ) (M, N ) ? Notemos que − γδ ∈ σ(Φ(γ,δ) (M, N )) se, e somente se, existe um X n˜ ao nulo em R n tal que γ (γM + δN )X + δ (−δM + γN )X = 0 . Mas, isto ocorre se, e somente se, (γM − γM )X + (δ +

γ2 δ )N X

=0

γ 2 + δ2 NX = 0 ⇔ NX = 0 . δ Assim, vemos que a resposta ´e negativa apenas no caso em que N ´e n˜ ao singular. ⇔

50

Proposi¸ c˜ ao 4.3 Seja (M, N ) um par de matrizes quadradas reais de ordem n. Ent˜ ao, podemos afirmar que: Um elemento X n˜ ao nulo de R n ´e um autovetor do par Φ(γ,δ) (M, N ), associado a λ, se e somente se, X ´e um autovetor do par (M, N ), associado ao autovalor ϕ(γ,δ) (λ) de σ(M, N ). Proposi¸ c˜ ao 4.4 Seja (M, N ) um par de matrizes quadradas reais de ordem n, com N n˜ ao singular. Ent˜ ao, para qualquer par de reais (γ, δ) com γ 2 + δ 2 > 0 , temos a seguinte caracteriza¸c˜ ao do espectro de (M, N ):   σ(M, N ) = ϕ(γ,δ) σ(Φ(γ,δ) (M, N )) = ϕ(γ,δ) (σ(γM + δN, −δM + γN )) .

4.3

Diagonaliza¸ c˜ ao de pares sim´ etricos de matrizes reais

Defini¸ c˜ ao 4.1 i. Um par (M, N ) de matrizes quadradas reais ´e dito sim´ etrico semi-definido positivo se (M, N ) ´e um par de matrizes sim´etricas e se N ´e semi-definida positiva. Mais explicitamente, N ´e semi-definida positiva se M T = M , N T = N e X T N X ≥ 0 , para todo X n˜ ao nulo em R n . ii. Um par (M, N ) ´e dito sim´ etrico positivo definido ou simplesmente sim´ etrico se M e N s˜ ao sim´etricas e se N ´e definida positiva. Teorema 4.2 Suponhamos que a dimens˜ ao considerada ´e n ≥ 3 . Consideremos um par sim´etrico (M, N ) de matrizes reais e definamos o seguinte coeficiente µ(M, N ) associado ao par (M, N ): 1

µ(M, N ) := inf {(X T M X)2 + (X T N X)2 } 2 ≥ 0 . ||X||=1

Se µ(M, N ) > 0 , ent˜ ao existe um par (γ, δ) de reais com γ 2 + δ 2 > 0, tal que γM + δN ´e definida positiva Prova : Conforme [15, Teorema I]. Coment´ ario 4.2 a) O teorema 4.2 n˜ ao ´e verdadeiro se n = 2, conforme o exemplo 4.1 e o teorema 4.4. b) Este teorema ´e dado em [6, Exerc´ıcio da p´ agina 280]. Teorema 4.3 Consideremos um par (M, N ) sim´etrico n˜ ao negativo definido, de matrizes quadradas reais de ordem n. Suponhamos que Nuc(N ) ⊂ Nuc(M ). Ent˜ ao, existe uma matriz real Q, n˜ ao singular, de ordem n, tal que QT M Q e

QT N Q s˜ ao ambas diagonais . 51

Note que a condi¸c˜ ao de inclus˜ ao ´e automaticamente satisfeita se N ´e definida positiva. Prova : Usando a decomposi¸c˜ ao de Schur de N , podemos obter uma matriz P1 , ortogonal de ordem n, tal que P1T N P1 = diag(D, 0n−k ) onde D = diag(d1 , . . . , dk ), com di > 0( i = 1, . . . , k). 1 1 Definimos Q1 = P1T diag(D− 2 , In−k ). De QT1 = diag(D− 2 , In−k )P1 , temos 1

1

QT1 N Q1 = diag(D− 2 , In−k )P1T N P1 diag(D− 2 , In−k ) = diag(Ik , 0n−k ) . Como Nuc(N ) ⊂ Nuc(M ), M1 = QT1 M Q1 ´e da forma   

M11 0 0

0

  

onde M11 ´e uma matriz sim´etrica de ordem k. Seja U uma matriz ortogonal de ordem k, tal que U T M11 U = diag(a1 , . . . , ak ) ( decomposi¸c˜ao de Schur de M11 ). Ent˜ao, Q = Q1 diag(U, In−k ) ´e tal que QT M Q = diag(U T , In−k )QT1 M Q1 diag(U, In−k ) 

= diag(U T , In−k ) 

M11 0



0

0

   diag(U, In−k )

= diag(U T M11 U, 0n−k ) n−k

z }| {

= diag(a1 , . . . , ak , 0, . . . , 0) = DM . e

QT N Q = diag(U T , In−k )QT1 N Q1 diag(U, In−k ) = diag(U T , In−k )diag(Ik , 0n−k )dig(U, In−k ) = diag(Ik , 0n−k ) .

Teorema 4.4 Seja (M, N ) um par de matrizes quadradas reais sim´etricas de ordem n e seja (γ, δ) um par de reais com δ 6= 0 . Se Φ(γ,δ) (M, N ) = (γM + δN, −δM + γN ) ´e n˜ ao negativo definido, al´em disso Nuc(−δM + γN ) = Nuc(M ) ∩ Nuc(N ) , ent˜ ao , existe uma matriz quadrada real Q, n˜ ao singular de ordem n, tal que QT M Q e QT N Q s˜ ao diagonais. 52

Prova : Seja Q1 uma matriz ortogonal de ordem n, talque QT1 (−δM + γN )Q1 = diag(D, 0n−k ) , onde D = diag(d1 , . . . , dk ) (di > 0, i = 1, . . . , k), dadas pela decomposi¸c˜ao de Schur de (−δM +γN ) . 1

Seja P1 = diag(D− 2 , In−k ). Se M1 := P1T M P1 e N1 := P1T N P1 , temos −δM1 + γN1 = P1T (−δM + γN )P1 1

1

= diag(D− 2 , In−k )QT1 (−δM + γN )Q1 diag(D− 2 , In−k )  1



D

0

0

0n−k

= diag(D− 2 , In−k )  

(4.1)

1   diag(D − 2 , In−k )

= diag(Ik , 0n−k ) . Mas, de Nuc(−δM + γN ) = Nuc(M ) ∩ Nuc(N ), temos para M1 e N1 a seguinte forma de blocos 

M1 = 

M11 0



0

0





N11 0

   e N1 = 

0

0

  

onde de (4.1), −δM11 + γN11 = Ik . Sendo U T N11 U = diag(b1 , . . . , bk ) a decomposi¸c˜ao de Schur de N11 , temos com Q = diag(U, In−k ), que QT N Q = diag(U T , In−k )P1T N P1 diag(U, In−k ) 

= diag(U T , In−k ) 

N11 0



0

0

   diag(U, In−k )

n−k

z }| {

= diag(b1 , . . . , bk , 0, . . . , 0) = DN . 1 e de M = − (−δM + γN ), vem δ 1 QT M Q = − (QT (−δM + γN )Q − γQT N Q) δ (de(4.1)) 1 = − (diag(U T , In−k )diag(Ik , 0n−k )diag(U, In−k ) − γDN ) δ 1 = − (diag(Ik , 0n−k ) − γDN ) = DM . δ

53

4.4

A decomposi¸ c˜ ao sim´ etrica

Dada uma matriz quadrada real M , o problema M X = λX poder´a, eventualmente, ser tratado com vantagens na forma: N X = λP X , P e Q reais sim´etricas, com M = P −1 N.

4.4.1

Forma canˆ onica de Jordan.

Defini¸ c˜ ao 4.2 i. Um bloco de Jordan Jk (λ) ´e uma matriz triangular superior da forma 



λ 1 ... 0  . 0 λ .. 1   . .. .. . . ..  . .  . .  0 0 ... λ

   Jk (λ) =   

(4.2)

ii. Uma matriz de Jordan ´e uma matriz diagonal em blocos de Jordan,     J =   

Jn1 (λ1 ) . . .

0



.. .

      

.. .

..

0

. . . Jnk (λk )

.

(4.3)

onde n1 + . . . + nk = n, os ni bem como os λi , n˜ ao necessariamente distintos.

Observa¸ c˜ ao 4.2 Se k = n e ni = 1, para todo i = 1, . . . , k, ent˜ ao J ´e uma matriz diagonal. Se ni > 1, para algum ´ındice i = 1, . . . , k, ent˜ ao J n˜ ao ´e diagonal e al´em disso, J n˜ ao ´e diagonaliz´ avel. De fato: Se SJS −1 = Λ(diagonal), ent˜ao existe uma matriz quadrada complexa Sni , de ordem ni , talque Sni −1 Jni (λ)Sni = diag(λ1 , . . . , λi ) = Λi . Ent˜ao, Jni − λi I = Sni Λi Sni −1 − λi I = Sni (Λi − λi I)Sni −1 = 0 o que ´e falso se ni > 1, pela defini¸c˜ ao de Jni (λi ). Teorema 4.5 (Forma canˆ onica de Jordan) Seja M uma matriz quadrada complexa de ordem n arbitr´ aria. Existe uma matriz n˜ ao singular S de ordem n, tal que M = SJS −1 54

onde



Jn1 (λ1 ) . . .

   J =   

0



.. .

      

.. .

..

0

. . . Jnk (λk )

.

(4.4)

n1 + . . . + nk = n, os λi , i = 1, . . . , k, s˜ ao os autovalores, n˜ ao necessariamente distintos, de M . A matriz J ´e u ´nica, a menos da ordem dos blocos de Jordan na diagonal. Se M ´e uma matriz quadrada real de ordem n e os autovalores de M s˜ao reais, ent˜ao a matriz de similaridade S pode ser constru´ıda real de ordem n.

4.4.2

Forma canˆ onica de Jordan real.

Consideremos uma matriz quadrada real, M . Sejam λ1 , . . . , λn os autovalores de M (podendo ser complexos e n˜ ao necessariamente distintos). Assim σ(M ) = {λ1 , . . . , λn }. Observa¸ c˜ ao 4.3 i) Se um complexo λ ´e autovalor de M , ent˜ ao seu conjugado λ ´e tamb´em autovalor de M . ii) De M − λI = M − λI, temos que possuem o mesmo posto, as seguintes matrizes (M − λI)k ,

(M − λI)k e

(M − λI)k ,

onde a barra denota a conjuga¸ca ˜o complexa. Este resultado se segue por exemplo de det(M ) = det(M ) . Assim, para cada bloco de Jordan de ordem ni correspondente a um autovalor n˜ao real λ, que ocorre em M , existe um bloco conjugado de igual tamanho tamb´em ocorrendo em M . Por outro lado, uma matriz complexa diagonal em blocos   

Jk (λ) 0

0 Jk (λ)



(4.5)

 

´e similar a matriz em blocos 

D(λ) I2  0 D(λ)      

..

. D(λ)

0 "

com D(λ) =

λ 0 0 λ



0

I2 D(λ)

      

(4.6)

#

que por sua vez ´e similar a matriz em blocos 

C(a, b) I2  0 C(a, b)      

0 ..

. C(a, b)

0 55

I2 C(a, b)

       

(4.7)

"

onde C(a, b) representa a matriz

a b −b a

#

onde λ = a + ib.

Similaridade entre as matrizes (4.5) e (4.6) Denotamos por Eij , as matrizes obtidas de In , por permuta¸c˜ao entre si, da linha i com a linha j, 1 ≤ i < j ≤ n . Assim, a matriz N obtida de uma matriz M , permutando-se entre si, as linhas i e j, pode ser representada pelo produto N = Eij M . Por outro lado, permutando-se as colunas i e j da matriz identidade I, obtemos a mesma matriz 2 =I. Eij . Temos Eij Se C ´a matriz obtida de M , permutando-se entre si, suas colunas i e j, respectivamente, temos C = M Eij . Em resumo, a matriz N

N

z }| {

z }| {

−1 C = Eij M Eij = Eij M Eij ,

obtida de M , permutando-se primeiramente as linha i e j de M e, em seguida, permutando-se as colunas i e j de M (ou vice-versa), ´e similar a M . Dada a matriz em blocos (4.6): "

Jk (λ) 0 0 Jk (λ)

#

com cada bloco de ordem k, obtemos a matriz em blocos (4.6): 

D(λ) I2  0 D(λ)      

0 ..

. D(λ)

0

I2 D(λ)

       

por similaridade S, onde S ´e um produto S = Ei1 j1 . . . Eik jk , onde as Eis js s˜ao obtidas de I, permutando-se suas linhas ou colunas i e j, convenientemente. Exemplo 4.2 Com a matriz 



λ 1 0   J3 (λ) =  0 λ 1  0 0 λ consideremos  "

M=

J3 (λ) 0 0 J3 (λ)

#

    =   

56

λ 0 0 0 0 0

1 λ 0 0 0 0

0 1 λ 0 0 0

0 0 0 λ 0 0

0 0 0 1 λ 0

0 0 0 0 1 λ

      .   

Temos      E34 M =    

     E34 M E34 =    

     E23 E34 M E34 =    

     E23 E34 M E34 E23 =    

     E23 E34 M E34 E23 E45 =    

λ 0 0 0 0 0

1 λ 0 0 0 0

0 1 0 λ 0 0

0 0 λ 0 0 0

0 0 1 0 λ 0

0 0 0 0 1 λ



λ 0 0 0 0 0

1 λ 0 0 0 0

0 0 λ 0 0 0

0 1 0 λ 0 0

0 0 1 0 λ 0

0 0 0 0 1 λ



λ 0 0 0 0 0

1 0 λ 0 0 0

0 λ 0 0 0 0

0 0 1 λ 0 0

0 1 0 0 λ 0

0 0 0 0 1 λ



λ 0 0 0 0 0

0 λ 0 0 0 0

1 0 λ 0 0 0

0 0 1 λ 0 0

0 1 0 0 λ 0

0 0 0 0 1 λ



λ 0 0 0 0 0

0 λ 0 0 0 0

1 0 λ 0 0 0

0 1 0 0 λ 0

0 0 1 λ 0 0

0 0 0 0 1 λ



       

       

       

       

       

E45 E23 E34 M E34 E23 E45 

=

       



λ 0 0 0 0 0

0 λ 0 0 0 0

1 0 λ 0 0 0

0 1 0 λ 0 0

0 0 1 0 λ 0

0 0 0 1 0 λ

        



D(λ) I2 0   D(λ) I2  . =  0 0 0 D(λ) 57

Similaridade entre as matrizes (4.6) e (4.7) Se λ se escreve como λ = a + ib, onde a e b s˜ao reais, temos que "

RD(λ)R

−1

#

a b −b a

=

onde "

−i −i 1 −1

R=

#

"

e R

−1

=

i/2 1/2 i/2 −1/2

#

.

Note que "

" 4×4

D(λ) I2 0 D(λ)

"

RD(λ) R 0 RD(λ)

"

RD(λ)R−1 RR−1 0 RD(λ)R−1

"

C(a, b) I2 0 C(a, b)

=

=

=

#

R 0 0 R

#"

#

" 4×4

R−1 0 0 R−1

R−1 0 0 R−1

# 4×4

#

#

#

.

Mais explicitamente, temos     

   

= 

−i −i 0 0 1 −1 0 0 0 0 −i −i 0 0 1 −1 a −b 0 0

b 1 a 0 0 a 0 −b

0 1 b a

    

λ 0 0 0

0 λ 0 0

1 0 λ 0

0 1 0 λ

    

i/2 1/2 0 0 i/2 −1/2 0 0 0 0 i/2 1/2 0 0 i/2 −1/2

    . 

Assim, dada a matriz em blocos (4.6): 

D(λ)

      

I2 D(λ)

0 ..

. I2 D(λ)

0 58

     ,   

    

tomando-se a matriz P = diag(R, . . . , R) em k blocos R de ordem 2, temos  

R ..

 

D(λ)

 0       R 

.

0

I2 D(λ) ..

. I2 D(λ)

0 

C(a, b) I2  0 C(a, b) 

0 ..

 =    



0

. C(a, b)

0

I2 C(a, b)

  R−1       0

0 ..

. R−1

  

       

que ´e a matriz de (4.7). Denotemos por a matriz em blocos (4.7) por Ck (a, b). Em resumo, temos que s˜ ao similares, as matrizes "

Ck (a, b) e

Jk (λ) 0 0 Jk (λ)

#

.

Com as adapta¸c˜ oes necess´ arias, partindo do exposto acima, temos o seguinte teorema: Teorema 4.6 (Forma canˆ onica de Jordan real) Cada matriz quadrada real M ´e similar a uma matriz diagonal em blocos 

Cn1 (a1 , b1 )

0 ..

         

         

. Cnp (ap , bp ) Jnq (λq ) ..

.

0



(4.8)

Jnr (λr )

onde λk = ak + ibk , ak e bk s˜ ao reais com os bk n˜ ao nulos, k = 1, . . . , p; {λ1 , . . . , λp , λq , . . . , λr } s˜ ao os autovalores de M , com λq , . . . , λr reais; Cnk (ak , bk ) s˜ ao blocos reais, da forma (4.6), correspondentes a um par de blocos conjugados, como em (4.5): " # Jnk (λ) 0 0 Jnk (λ) os quais participam da forma canˆ onica de Jordan de M . Jnk (λk ) s˜ ao os blocos reais que participam da forma canˆ onica de Jordan (4.3), relativos aos λk reais, k = q, . . . , r.

59

Observa¸ c˜ ao 4.4 A transforma¸c˜ ao de similaridade pode ser escolhida real, embora este resultado n˜ ao seja aparente na dedu¸ca ˜o que foi feita, a partir da forma canˆ onica de Jordan complexa, ou seja: Se a matriz M ´e real, existe S real tal que SM S −1 ´e a forma canˆ onica de Jordan real de M , dada pelo teorema 4.6. Isto pode ser mostrado, por exemplo, baseando-se no teorema de decomposi¸c˜ ao de Schur, no caso real. Note tamb´em que (4.8) ´e Hessenberg superior (quase triangular superior).

Lema 4.5 Seja M uma matriz quadrada real de ordem 2. Suponhamos que os autovalores de M s˜ ao complexos (e portanto conjugados) λ = a + ib, λ = a − ib, com b 6= 0. Ent˜ ao, M ´e similar sobre os reais a matriz " # a b . −b a Prova : Consideremos dois elementos X e X de C n escritos como elementos de R n + iR n na forma X = Y + iZ e X = Y − iZ, os quais s˜ao autovetores de M , relativos a λ e λ, respectivamente. Assim, M X = λX e M X = λ X . (" 2

Denotamos por Tc o operador linear de C , representado por M na base

1 0

# "

,

0 1

#)

canˆ onica

de C 2 . A matriz de Tc na base {X, X} (conforme lema 2.1), ´e "

[Tc ]{X,X} =

λ 0 0 λ

#

"

λ 0 0 λ

com

#

= [X, X]−1 M [X, X] .

Da´ı, "

[X, X]

λ 0 0 λ

#

= M [X, X] .

(4.9)

(X + X) (X − X) eZ= , temos que {Y, Z} ´e uma base de R 2 . 2 2 Se T ´e o operador linear de R 2 , representado por M na base canˆonica de R 2 , temos

Do lema 2.1, se Y =

[T ]{Y,Z} = [Y, Z]−1 M [Y, Z] . "

Para concluir que M ´e R-similar a

a b −b a

#

, ´e suficiente mostrar que "

[T ]{Y,Z} =

a b −b a

De fato: Podemos escrever

"

[X, X] = [Y, Z] 60

#

1 1 i −i

.

#

(4.10)

e

"

[Y, Z] = [X, X]

1/2 −i/2 1/2 i/2

#

.

(4.11)

Ent˜ao, de (4.9)-(4.11), vem [Y, Z]−1 M [Y, Z] "

#

=

=

[Y, Z]−1 ([X, X]

=

([Y, Z]−1 [X, X])

λ 0 0 λ

"

1 1 i −i

#"

"

λ λ iλ −iλ

"

λ/2 + λ/2 −iλ/2 + iλ/2 iλ/2 − iλ/2 iλ(−i/2) − iλ(i/2)

"

a b −b a

"

=

=

=

=

#"

λ 0 0 λ

#"

# "

1/2 −i/2 1/2 i/2

#

#"

1/2 −i/2 1/2 i/2

#

λ 0 ) 0 λ

"

4.5

1/2 −i/2 1/2 i/2

[Y, Z]−1 (M [X, X])

1/2 −i/2 1/2 i/2

1/2 −i/2 1/2 i/2

#

#

#

#

.

Decomposi¸ c˜ ao M = P −1 N ou M = N1 P1−1 , com fatores sim´ etricos

Defini¸ c˜ ao 4.3 Seja U = [Uij ] uma matriz quadrada de ordem n sobre R, onde (

Uij =

1 0

se i + j − 1 = n se i + j − 1 6= n

1 ≤ i, j ≤ n

ou seja, δ1i  ..  U = [En , En−1 , . . . , E1 ] (Ei =  .  , i = 1, . . . , n) δni   0 0 ... 0 1 .  0 0 ... 1 0     . . .. ..   =  . .   .. ..    0 1 ... 0 0  1 0 ... 0 0 

61



(4.12)

Tem-se da´ı, que U 2 = I e portanto U = U −1 = U T . Lema 4.6 Consideremos uma matriz quadrada complexa M de ordem n. Ent˜ ao: 1. M T = U M U .    2. Se N = U M =   

N1 N2 .. . Nn

    , onde N i denota a i-´ esima linha de N , temos  

N i = M n−i+1 (N i = M i ⇔ n ´e ´ımpar e i =

n+1 ). 2

3. Se P = M U = [P1 , P2 , . . . , Pn ], onde Pj denota a j-´esima coluna de P , ent˜ ao Pj = Mn−j+1 .

Defini¸ c˜ ao 4.4 Seja M uma matriz quadrada complexa de ordem n. Ent˜ ao: i. Chamamos diagonal secund´ aria de M os elementos Mij para os quais i + j − 1 = n, 1 ≤ i, j ≤ n; ii. Dizemos que M ´e sim´ etrica em rela¸ c˜ ao ` a sua diagonal secund´ aria se Mij = Mi+k (1 < i + j < n e k = n + 1 − (i + j) = n + 1 − i − j).

j+k

Equivalentemente, Mij = Mn+1−j

n+1−i

(1 < i + j < n) .

Lema 4.7 Seja M uma matriz quadrada complexa de ordem n. N = U M ´e sim´etrica se, e somente se, M ´e sim´etrica em rela¸c˜ ao a sua diagonal secund´ aria.

Lema 4.8 Sejam M e S duas matrizes quadradas complexas de ordem n. Suponhamos que S ´e n˜ ao singular de ordem n tal que M = S −1 JS, onde J ´e a forma canˆ onica de Jordan de M . Se M ´e real, seja S tomada tal que J ´e a forma canˆ onica de Jordan real de M . Temos que todo bloco de Jordan de J ´e sim´etrico em rela¸c˜ ao a sua diagonal secund´ aria.

Teorema 4.7 Seja M uma matriz quadrada real de ordem n. Existem duas matrizes quadradas ´ poss´ıvel escolher N e P sim´etricas reais sim´etricas N e P , P n˜ ao singular com M = N P −1 . E −1 tais que M = P N . Prova : Seja S uma matriz quadrada real n˜ao singular tal que M = SJS −1 , onde J ´e a forma canˆonica de Jordan real de M . f1 = JU , onde U ´ Sejam J˜ = U J e J e a matriz diagonal em blocos, cujos blocos s˜ao do tipo dado em (4.12) e com ordens correspondentes `aquelas dos blocos de Jordan em J. f1 s˜ Temos que J˜ e J ao sim´etricas. 62

˜ −1 e P = S −T U S −1 . Temos ent˜ao, N T = N , P T = P e al´em disso, Definamos N = S −T JS podemos escrever ˜ −1 ) = SU JS ˜ −1 = SJS −1 = M . P −1 N = (SU −1 S T )(S −T JS f1 S T e P := SU S T , temos N T = N , P T = P e Por outro lado, se N := S J f1 S T )(S −T U S −1 ) N P −1 = (S J f = S J1 U −1 S −1 = SJS −1 = M .

Em resumo, dada uma matriz quadrada real M de ordem n, existem matrizes quadradas reais N , N1 , P e P1 sim´etricas, P e P1 invers´ıveis tais que M = N P −1 e M = P1−1 N1 , onde P1 = P −1 . Da´ı, temos M = P N1 = N P −1 .

Teorema 4.8 Seja M uma matriz quadrada real de ordem n. O problema de autovalores para M ´e equivalente a um problema de autovalores generalizados para um par (N, P ) de matrizes reais sim´etricas de ordem n. Prova : De fato: Sejam N e P matrizes quadradas reais sim´etricas de ordem n com P invers´ıvel, tais que M = P −1 N . Ent˜ ao, existe um escalar λ para o qual, a equa¸c˜ao M X = λX possui uma solu¸c˜ao X, n˜ao trivial em C n se, e somente se, P −1 N X = λX, isto ´e N X = λP X, possui a solu¸c˜ ao n˜ao trivial X.

Coment´ ario 4.3 Sugerimos ao leitor, comparar o teorema 4.8 com os Lemas 1.2 e 1.3.

63

64

Cap´ıtulo 5

Aplica¸ co ˜es 5.1

Decomposi¸ c˜ ao de um par de matrizes quadradas singulares de ordem 4

Veremos atrav´es de um sistema de equa¸c˜oes ordin´arias, exemplo de um par (M, N ) congruente a um par (T, S) de matrizes quadradas triangulares superior de ordem 4. A t´ıtulo de ilustra¸c˜ ao, consideramos o seguinte sistema de equa¸c˜oes diferenciais lineares de 2a ordem:   d2 x1 dx1 d2 x2 dx2   ( + − x ) + ( −3 + 2x2 ) = 0  1 2  dt dt dt2 dt (5.1)    dx1 dx2   ( + 2x1 ) − (2 + 4x2 ) = 0 dt dt Fazendo a mudan¸ca de vari´ aveis y1 = x1 ; y2 = x2 ; y3 =

dy1 dx2 dy2 dx1 = e y4 = = , dt dt dt dt

o sistema pode ser escrito na forma matricial N      

1 0 0 0

0 1 0 0

0 0 1 0

0 0 1 0





 dY    +   dt 

dY + M Y = 0: dt 

0 0 −1 0 0 1 0 −1   Y = 0 −1 2 1 −3  2 −4 1 −2



x1  x  y1  2   y    2   dx1  . onde  =   y3    dt   dx2  y4 dt As matrizes M e N possuem seus determinantes nulos e os problemas correspondentes, s˜ao 



M X = λN X du + λu = 0 ,

dt

(de autovalores para o par (M, N )) u = ce−λt (c ∈ R) 65

ao se procurar solu¸c˜ oes Y (t) = u(t)X . Mostraremos que existe uma matriz U n˜ao singular de ordem 4, tal que U T M U = T e U T N U = S s˜ao triangulares superior . Isto equivale a dizer que (M, N ) ´e congruente a um par (T, S) de matrizes triangulares superior. Uma simples verifica¸c˜ ao, mostra que se    

U =

ent˜ao



2 0 0 1 1 0 0 −2    0 1 3 0  0 −1 −4 1    

T = UT MU =  e

(5.2)



0 −1 −2 −1 0 1 4 −16    0 0 1 −56  0 0 0 10

   

S = UT NU = 

5 0 0 0

0 0 0 0 −1 1 0 −3 3 0 0 5

(5.3)

    . 

(5.4)

1 Assim, temos σ(M, N ) = {− , 0, 2}. 3 ´ tamb´em simples verificar que E      α       0    S0 (T, S) =  ;α ∈ C    0       

0

  −α    − 11 α  3 S− 1 (T, S) =   3  α   



 115  70 α          − 246 α  7 S2 (T, S) =       62     7 α  



0

α

donde

  ;α ∈ C              

    ;α ∈ C           

         S− 1 (M, N ) = U S− 1 (T, S) =    3 3      

66

    

2α α 2 3α 1 3α



      

   ;α ∈ C        

     2α       α    ; α ∈ C S0 (M, N ) = U S0 (T, S) =      0       



   30   α         7            25        α −  70     S2 (M, N ) = U S2 (T, S) =  ; α ∈ C .      − 60 α         7                   5 α 7

Consequentemente,     

Y (t) = c1 e−0t 

2 1 0 0





30 7



     25   − 70     , (c1 , c2 , c3 ∈ R)  + c3 e−2t      − 60    7     

2  1   

 t   + c2 e 3  2  3  1 3

5 7

´e a solu¸c˜ao de N Y˙ + M Y = 0, da forma Y (t) = u(t)X. A solu¸c˜ao do sistema (5.1) ´e ent˜ ao obtida tomando-se t

x1 = 2c1 + 2c2 e 3 +

5.1.1

t 30 −2t 25 c3 e e x2 = c1 + c2 e 3 − c3 e−2t . 7 70

Determina¸c˜ ao da matriz de congruˆ encia U

O que fizemos aqui, ´e baseado no m´etodo de prova da Proposi¸c˜ao 4.1 , sem a preocupa¸c˜ao de tomar U ortogonal.   2  1    Sendo det(M ) = det(N ) = 0, sabemos que 0 ∈ σ(M, N ). Tomamos U1 =   autovetor e  0  0 S = {cu1 : c ∈ R} = Nuc(M ) auto-espa¸co do par (M, N ), associados ao autovalor 0. S ´e um subespa¸co invariante para (M, N ), verificando N S = S, posto que N u1 = u1 . De uT1 N u1 = uT1 u1 = 5 > 0, existe uma matriz complexa U2 de ordem 4 × 3 tal que U0 = [u1 , U2 ] ´e n˜ao singular e " # " # 0 ? 5 ? U0H M U0 = e U0H N U0 = , 0 M22 0 N22 onde M22 e N22 s˜ ao matrizes quadradas complexas de ordem 3. Al´em disso, uma base {u2 , u3 , u4 } de S ⊥ = {Y ∈ C 4 : uH 1 Y = 0} constituem as colunas de U2 .   y1  y   2  Equivalentemente, Y =   ∈ S ⊥ se, e somente se, 2y1 + y2 = 0.  y3  y4 67

Definimos

   

u2 := 

1 −2 0 1





     , u3 :=   

0 0 1 0





     e u4 :=   

0 0 0 1



5 0 0 0

0 5 1 0

   

e temos, 

2 1 0 0 1 −2 0 0 0 0 1 0 0 1 0 1

  

U0 = 

    

que satisfaz    

U0T M U0 = 





0 −1 −2 −1 0 10 0 0 0 −8 1 −3 0 8 1 −2

     e U0T N U0 =   

0 0 1 0

0 0 1 0

    

onde aparecem as sub-matrizes de ordem 3 representando M22 e N22 , respectivamente. Os demais autovalores de (M, N ) s˜ao os autovalores do par (M22 , N22 ), ou seja: 1 σ(M, N ) = {0} ∪ σ(M22 , N22 ) = {− , 0, 2} . 3 ˆ n˜ao singular de ordem 3 tal que as matrizes Em seguida, usamos (M22 , N22 ) e obtemos U ˆ T M22 U ˆ =R e U ˆ T N22 U ˆ =S U s˜ao triangulares superior. Analogamente ao que fizemos na primeira etapa, tomamos por exemplo 



0 1 0   ˆ 3  U = 1 0 −1 0 −4 a qual nos d´ a 







1 −16 4 0 1 −1   ˆ T M22 U ˆ = ˆ T N22 U ˆ = 10 0  e U 0  . U  0  0 5 0 −56 1 0 3 −3 Definimos

" g M 22 =

10 0 −56 1

#

" g e N 22 =

5 0 3 −3

#

e obtemos , por exemplo, "

˜= U

0 1 1 0

#

tal que "

˜T

˜= U M22 U

1 −56 0 10

#

"

˜T

˜= e U N22 U

−3 3 0 5

#

.

ˆ ) diag(I2 , U ˜ ) a qual ´e a matriz de (5.2), obtemos U T M U e Finalmente, com U = U0 diag(1, U U T N U como em (5.3) e (5.4). 68

5.2

Um sistema massa-mola-pˆ endulo

Descrevemos nesta se¸c˜ ao, um exemplo extra´ıdo de [14, p´agina 237]. Suponhamos que a um sistema mola(k)-massa(m) n˜ ao amortecido, sujeito a vibrar sem atrito sobre trilhos horizontais, liga-se um pˆendulo r´ıgido de comprimento l (a massa do bra¸co do pˆendulo ´e desprez´ıvel em rela¸c˜ao `a massa M na sua extremidade). Supondo que o sistema vibre no plano vertical x0y, onde 0 ´e a posi¸c˜ao da massa no equil´ıbrio (y aponta verticalmente para baixo) e tomando-se coordenadas (x, θ) (θ ´e o ˆangulo de deflex˜ao do pˆendulo em rela¸c˜ ao ao eixo y) temos que numa configura¸c˜ao gen´erica do sistema, as coordenadas cartesianas (x1 , x2 ) e as coordenadas (x, θ) da massa M , se relacionam por: x1 = lsenθ, x2 = lcosθ . Mostra-se que para pequenas oscila¸c˜ oes, as coordenadas (x, θ) de M satisfazem o sistema  00 00   µx + θ

= −kx

  x00 + lθ 00

= −gθ

(5.5)

onde µ=

m+M (0 < m < M ) . lM

(5.6)

Podemos reescrevˆe-lo na forma matricial como "

| "

As matrizes M =

µ 1 1 l

µ 1 1 l {z

"

eK=

x θ

#00

k 0 0 g

"

+ |

}

M

#

#"

k 0 0 g {z

#"

x θ

#

= 0.

}

K

#

s˜ao sim´etricas e de (5.6), temos µ > 0 e

det(M ) = µl − 1 =

m > 0. M

Assim, (K, M) ´e um par sim´etrico (positivo definido) e, do corol´ario 4.2, congruente a um par diagonal (D, I). As solu¸c˜oes Y = u(t)X de (5.1), s˜ ao dadas por KX = λMX

(5.7)

u00 + λu = 0 .

(5.8)

(µl − 1)λ2 − (kl + µg)λ + kg = 0 ,

(5.9)

e

A equa¸c˜ao caracter´ıstica de (K, M) ´e

69

cujo descriminante ´e ∆ = (kl + µg)2 − 4(µl − 1)kg = (kl)2 + (µg)2 + 2klµg − 4klµg + 4kg = (kl)2 + (µg)2 − 2klµg + 4kg = (kl)2 + (µg)2 + 2kg(2 − lµ) = (kl)2 + (µg)2 + 2kg(1 + (1 − µl)) = (kl)2 + (µg)2 + 2kg(1 − m/M ) > 0 , de (5.6) . As ra´ızes de (5.9) s˜ ao

√ (kl + µg) − ∆ λ1 = 2(µl − 1)

e

√ (kl + µg) + ∆ , λ2 = 2(µl − 1)

as quais s˜ao estritamente positivas e, λ2 > λ1 . ´ evidente que λ2 > 0. Mostremos que λ1 > 0: E 2 2 √ Ora, 0 < ∆ = (kl + µg) − 4(µl − 1)kg < (kl + µg) , donde ∆ > 0 e consequentemente, λ1 > 0.



∆ < kl + µg, portanto, (kl + µg) −

Da equa¸c˜ ao (5.8) com λ = λ1 , temos

onde ω1 =

onde ω2 =





u1 (t) = a1 cosω1 t + b1 senω1 t

(5.10)

u2 (t) = a2 cosω2 t + b2 senω2 t

(5.11)

λ1 e analogamente,

λ2 .

Seja Xi um autovetor de (K, M), associado a λi (i = 1, 2). Ent˜ao, a solu¸c˜ ao de (5.5) ´e dada por Y (t) = (a1 cosω1 t + b1 senω1 t)X1 + (a2 cosω2 t + b2 senω2 t)X2 ,

(5.12)

onde a1 , a2 , b1 , b2 ∈ R.

5.3

·· A equa¸ c˜ ao diferencial M X + C X˙ + KX = 0.

Em geral, a equa¸c˜ ao

··

˙ M X (t) + C X(t) + KX(t) = W (t)

(5.13)

modela sistemas mecˆ anicos onde o relacionamento entre as for¸cas de entrada W (t) e os deslocamentos de sa´ıda ou resposta X(t) ´e linear. 70

M ´e a matriz de massa, C ´e a matriz de esfor¸cos e K ´e a matriz de rigidez. Todas s˜ao geralmente supostas sim´etricas e positivas definidas. S˜ao mais simples de tratamento matem´atico, os casos particulares em que C = 0 ou C = αM + βK, pois estes casos nos levam a problemas de autovalores generalizados para um par de matrizes quadradas. Da mesma forma que para a equa¸c˜ ao de primeira ordem, podemos encontrar solu¸c˜oes particulares da equa¸c˜ ao (5.13) no caso homogˆeneo, ··

M X + C X˙ + KX = 0

(5.14)

da forma X(t) = α(t)Y . Substituindo esta express˜ ao em (5.14), obtemos ··

α(t)M Y + α(t)CY ˙ + α(t)KY = 0

(5.15)

em que se procurando α(t) na forma eλt temos λ2 M Y + λCY + KY = 0 .

(5.16)

Sendo M, C e K matrizes quadradas reais quaisquer com M n˜ao singular, o primeiro membro da equa¸c˜ao (5.16) se constitui num polinomio em λ, de grau 2n com coeficientes reais. Assim, a equa¸c˜ao (5.16) possui 2n ra´ızes complexas conjugadas. Um sistema sim´ etrico de primeira ordem associado Com o intuito de decompor o fenˆ omeno como uma soma de osciladores independentes (modos complexos), o modelo ´e reescrito como um sistema sim´etrico de primeira ordem:   

C

M

M

0

  

˙  W ·



  +

Z

K 0



0 −M

W

 

Z

   = 0,

(5.17)

onde   

W Z





X

  =

·

  

X Consideremos o problema correspondente de autovalores   

K 0

0 −M





  θ=λ

C M

M 0

  θ

(5.18)

para λ ∈ C e onde θ ´e uma matriz coluna de tipo 2n × 1, a qual escreveremos na forma "

ψ ϕ

ψ1  ..  ψ= .  e ψn 

#

onde



Casos particulares importantes a) C = 0. b) C = αM + βK. 71

ϕn+1   ϕ =  ...  . ϕ2n 



72

Bibliografia [1] J. J. Dongarra, J. R. Bunch, C. B. Moler, G. W. Stewart, LINPACK User’s guide, Philadelphia, PA, (1979). [2] B. S. Garbow, J. M. Boyle, J. J. Dongarra, C. B. Moler, Matrix Eigensystem Routines, EISPACK Guide Extention, Lecture Notes in Computer Science, Vol. 51, springer-Verlag, New York, (1977). [3] F. R. Ganthmacher, Matrix Theory , vol. 2, Chelsea, New York, (1959). [4] G.H. Golub, C.F. Van Loan, Matrix Computations, Johns Hopkins Series in the Mathematical Sciences 3, 3th edition, (1996). [5] S. H. Gould, Variational Methods for Eigenvalue Problems, Math. Expositions 10, Univ. of Toronto Press, (1957). [6] W. Greub, Linear Algebra, Springer-Verlag, Graduate Texts in Math., 23, (1975). [7] M. Hirsch, S. Smale, Differential Equations, Dynamical Systems, and Linear Algebra, Academic Press, (1974). ´ [8] K. Hoffmann, R. Kunze, Algebra Linear, LTC, Rio de Janeiro, (1979). [9] R. A. Horn, C. R. Johnson, Matrix Analysis, Cambridge Univ. Press, (1985). [10] R. A. Horn, C. R. Johnson, Topics in Matrix Analysis, Cambridge Univ. Press, (1991). [11] K. N. Majindar, Linear combinations of hermitian and real symmetric matrices, Journal of Lin. Alg. and Applic., 25, (1979), 95-105. [12] B. N. Parlett, The Symmetric Eigenvalue Problem, Prentice Hall, Englewood Cliff, N. J., (1980). [13] G. W. Stewart, On the sensitivity of eigenvalue problem Ax = λBx, SIAM J. Num. Anal., vol. 9, (1972). [14] J. I. Troutman, Variational Calculus with Elementary Convexity, Undergraduate Texts in Math., Spriger-Verlag, (1983). [15] F. Uhlig, A recurring theorem about pairs of quadratic forms and extentions: A survey, Jour. Lin. Alg. and Applic., 25, ( 1979), 219-237. [16] D. Watkins, Foundations of Matrix Computations, Wiley, (1991). [17] H. F. Weinberger, Variational Methods for Eigenvalue Approximations, SIAM, (1974).

73

Lihat lebih banyak...

Comentários

Copyright © 2017 DADOSPDF Inc.