ML Baseado Rencher - Linear Models in Statistics
-
Upload
andrea-garcia -
Category
Documents
-
view
58 -
download
7
description
Transcript of ML Baseado Rencher - Linear Models in Statistics
-
A P O S T I L A
LCE 5861-3 MODELOS LINEARES
Material preparado pelo Prof. Dr. Csar Gonalves de Lima
Linear Models in Statistics ALVIN C. RENCHER
Department of Statistics Brigham Young University, Provo, Utah A Wiley-Interscience Publication, 2000
JOHN WILEY & SONS, INC.
-
ii
C O N T E D O
1. INTRODUO .................................................................................................. 1 1.1. Modelo de Regresso Linear Simples ........................................................... 1 1.2. Modelo de Regresso Linear Mltipla .......................................................... 1 1.3. Modelos de Anlise de Varincia .................................................................. 3
2. LGEBRA DE MATRIZES ............................................................................. 4 2.1 Matrizes e vetores ........................................................................................... 4
2.1.1. Matrizes, vetores e escalares .................................................................. 4 2.1.2. Igualdade de matrizes ............................................................................. 5 2.1.3. Matriz transposta .................................................................................... 5 2.1.4. Alguns tipos especiais de matrizes ......................................................... 6
2.2. Operaes com matrizes ................................................................................ 7 2.2.1. Adio de duas matrizes ......................................................................... 7 2.2.2. Produto de duas matrizes ........................................................................ 8 2.2.3. Soma direta ........................................................................................... 14 2.2.4. Produto direto ou de Kronecker ........................................................... 15 2.2.5. Potncia de matriz quadrada ................................................................ 16
2.3. Matrizes particionadas ................................................................................. 17 2.4. Posto (rank) de uma matriz ......................................................................... 19 2.5. Inversa de uma matriz ................................................................................. 23 2.6. Matrizes positivas definidas ........................................................................ 25 2.7. Sistemas de equaes .................................................................................. 29 2.8. Inversas Generalizadas ................................................................................ 32
2.8.1. Definio e propriedades ...................................................................... 32 2.8.2. Inversas generalizadas e sistemas de equaes .................................... 36
2.9. Determinantes .............................................................................................. 37 2.10. Vetores ortogonais e matrizes ................................................................... 39 2.11. Trao de uma matriz .................................................................................. 41 2.12. Autovalores e autovetores ......................................................................... 42
2.12.2. Funes de uma matriz ....................................................................... 43 2.12.3. Produtos .............................................................................................. 44
-
iii
2.12.4. Matrizes simtricas ............................................................................. 45 2.12.5. Matriz positiva definida e positiva semidefinida ............................... 45
2.13. Matrizes idempotentes ............................................................................... 46 2.14 Derivadas de funes lineares e formas quadrticas .................................. 47 Lista de Exerccios Adicionais ........................................................................... 50
3. VETORES E MATRIZES ALEATRIOS ................................................... 54 3.1. Introduo .................................................................................................... 54 3.2. Mdia, varincia, covarincia e correlao ................................................. 55 3.3. Vetor de mdias e matriz de covarincia para vetores aleatrios ............... 57
3.3.1. Vetor de mdias .................................................................................... 57 3.3.2. Matriz de covarincias .......................................................................... 57 3.3.3. Varincia generalizada ......................................................................... 59 3.3.4. Distncia padronizada .......................................................................... 59
3.4. Matriz de correlaes .................................................................................. 59 3.5. Vetor de mdias e matriz de covarincia para vetores aleatrios particio-
nados ........................................................................................................... 60 3.6. Funes Lineares de vetores aleatrios ....................................................... 61
3.6.1. Mdia de uma funo linear ................................................................. 61 3.6.2. Varincias e covarincias de uma funo linear .................................. 62
4. DISTRIBUIO NORMAL MULTIVARIADA ......................................... 64 4.1. Funo densidade normal univariada .......................................................... 64 4.2. Funo densidade normal multivariada ...................................................... 64 4.3. Funes geradoras de momentos ................................................................. 66 4.4. Propriedades da distribuio normal multivariada ...................................... 68 4.5. Correlao parcial ........................................................................................ 72
5. DISTRIBUIO DE FORMAS QUADRTICAS ...................................... 74 5.1. Somas de quadrados .................................................................................... 74 5.2. Mdia e varincia de formas quadrticas .................................................... 75 5.3. Distribuio quiquadrado no central ......................................................... 78 5.4. Distribuies t e F no centrais ................................................................... 80
-
iv
5.4.1. Distribuio F no central .................................................................... 80 5.4.2. Distribuio t no central ..................................................................... 81
5.5. Distribuio de formas quadrticas ............................................................. 81 5.6. Independncia de formas lineares e formas quadrticas ............................. 82 Apndice A.5. Classificao de formas quadrticas .......................................... 85
6. REGRESSO LINEAR SIMPLES ................................................................ 86 6.1. Modelo ......................................................................................................... 86 6.2. Estimao de 0, 1 e 2 ............................................................................. 86 6.3. Teste de hipteses e intervalo de confiana para 1 .................................... 90 6.4. Coeficiente de determinao ....................................................................... 91
7. REGRESSO LINEAR MLTIPLA: ESTIMAO ................................. 93 7.1. Introduo .................................................................................................... 93 7.2. Modelo ......................................................................................................... 93 7.3. Estimao de e de 2 ................................................................................ 97
7.3.1. Estimador de mnimos quadrados de ................................................ 97 7.3.2. Propriedades dos estimadores de mnimos quadrados .................... 100 7.3.3. Um estimador para 2.......................................................................... 104
7.4. Geometria de mnimos quadrados ............................................................. 106 7.4.1. Espao de variveis ............................................................................ 106 7.4.2. Espao amostral .................................................................................. 107
7.5. O modelo na forma centrada ..................................................................... 108 7.6. O modelo normal ....................................................................................... 111
7.6.1. Suposies .......................................................................................... 111 7.6.2. Estimadores de mxima verossimilhana de e 2 ........................... 111 7.6.3. Propriedades de e 2 ...................................................................... 112
7.7. O coeficiente de determinao R2 na regresso com x-fixos ..................... 113 7.8. Mnimos quadrados generalizados: cov(y) = 2V ..................................... 115
7.8.1. Estimao de e 2 quando cov(y) = = 2V .................................. 116 7.8.2. Falha de especificao da estrutura de erros ...................................... 118
7.9. Falha na especificao do modelo ............................................................. 120 7.10. Ortogonalizao ....................................................................................... 122
-
v
8. REGRESSO MLTIPLA: TESTES DE HIPTESES E INTERVA-LOS DE CONFIANA .................................................................................. 126 8.1. Teste de regresso global .......................................................................... 126 8.2. Teste sobre um conjunto de s ................................................................. 129 8.3. Testes F baseados no coeficiente de determinao ................................... 134 8.4. Teste da hiptese linear geral H0: C = 0 e da hiptese H0: C = t ....... 134
8.4.1. O teste da hiptese H0: C = 0 ........................................................... 134 8.4.2. O teste da hiptese H0: C = t ............................................................ 138
8.5. Testes sobre j e a .................................................................................. 139 8.5.1. Testando um j ou uma combinao a ........................................... 139 8.5.2. Testar diversos js ou diversas combinaes ai ............................ 140
8.6. Intervalos de confiana e intervalos de predio ...................................... 143 8.6.1. Regio de confiana para ................................................................ 143 8.6.2. Intervalo de confiana para j ............................................................ 143 8.6.3. Intervalo de confiana para a .......................................................... 144 8.6.4. Intervalo de confiana para E(y) ........................................................ 144 8.6.5. Intervalo de predio para uma observao futura ............................ 145 8.6.6. Intervalo de confiana para 2 ............................................................ 146 8.6.7. Intervalos simultneos ........................................................................ 147
8.7. Testes da razo de verossimilhana .......................................................... 148
9. REGRESSO MLTIPLA: VALIDAO DO MODELO E DIAG-NSTICO ........................................................................................................ 150 9.1. Resduos e anlises grficas de diagnstico .............................................. 150 9.2. A matriz (que coloca) chapu ou hat matrix ............................................. 154 9.3. Outliers ...................................................................................................... 156 9.4. Observaes influentes e leverage ............................................................ 159
10. REGRESSO MLTIPLA: XS ALEATRIOS .................................... 162 10.1. Modelo de regresso normal multivariada............................................... 162 10.2. Estimao na regresso normal multivariada .......................................... 163 10.3. R2 na regresso normal multivariada ....................................................... 169 10.4. Testes e intervalos de confiana .............................................................. 172
-
vi
10.5. Efeito de cada varivel em R2 .................................................................. 176 10.6. Predio para dados no-normais ............................................................ 179 10.7. Correlaes parciais amostrais ................................................................ 180
11. MODELOS DE ANLISE DE VARINCIA ........................................... 184 11.1 Modelos de posto incompleto .................................................................. 184
11.1.1. Modelo com um fator (one-way model) ........................................... 184 11.1.2. Modelo com dois fatores (two way model) ...................................... 187
11.2. Estimao ................................................................................................ 190 11.2.1. Estimabilidade de .......................................................................... 190 11.2.2. Funes estimveis de ................................................................... 193
11.3. Estimadores ............................................................................................. 197 11.3.1. Estimadores de ........................................................................... 197 11.3.2. Um estimador de 2 .......................................................................... 201 11.3.3. Modelo normal ................................................................................. 202
11.4. Reparametrizao .................................................................................... 203 11.5. Condies marginais ............................................................................... 205 11.6. Testando hipteses .................................................................................. 208
11.6.1. Hipteses testveis ........................................................................... 208 11.6.2. Modelo completo e modelo reduzido ............................................... 209 11.6.3. Hiptese linear geral H0: C = 0 ...................................................... 212
11.7. Uma ilustrao de estimao e teste de hiptese .................................... 214 11.7.1. Funes estimveis ........................................................................... 214 11.7.2. Testando uma hiptese ..................................................................... 215 11.7.3. Ortogonalidade das colunas de X ..................................................... 217
12. ANLISE DE VARINCIA COM UM FATOR: CASO BALANCEA-DO ................................................................................................................... 221
12.1. O modelo com um fator .......................................................................... 221 12.2. Funes estimveis .................................................................................. 222 12.3. Estimao de parmetros ......................................................................... 222
12.3.1. Resolvendo o sistema de equaes normais ..................................... 222 12.3.1a. Condies marginais .................................................................. 223
-
vii
12.3.1b. Inversa generalizada ................................................................... 224 12.3.2. Um estimador para 2 ....................................................................... 225
12.4. Testando a hiptese H0: 1 = 2 = = k ............................................... 225 12.4.1. Modelo completo versus modelo reduzido ...................................... 226 12.4.2. Hiptese linear geral ......................................................................... 229
12.5. Esperana matemtica dos quadrados mdios ........................................ 232 12.5.1. Modelo completo versus modelo reduzido ...................................... 233 12.5.2. Hiptese linear geral ......................................................................... 235
12.6. Contrastes ................................................................................................ 236 12.6.1. Teste de hiptese para um contraste ................................................. 237 12.6.2. Contrastes ortogonais ....................................................................... 238 12.6.3. Contrastes polinomiais ortogonais ................................................... 243 Apndice: Programas no proc iml do SAS .................................................. 251
13. ANLISE DE VARINCIA COM DOIS FATORES: CASO BALAN-CEADO .......................................................................................................... 253
13.1. O modelo com dois fatores ...................................................................... 253 13.2. Funes estimveis .................................................................................. 254 13.3. Estimadores de e 2 .......................................................................... 258
13.3.1. Resolvendo o sistema de equaes normais e estimando ......... 258 13.3.1a. Condies marginais .................................................................. 258 13.3.1b. Inversa generalizada ................................................................... 259
13.3.2. Um estimador para 2 ....................................................................... 260 13.4. Testando hipteses .................................................................................. 260
13.4.1. Testa para a interao ....................................................................... 260 13.4.1a. A hiptese de interao .................................................................. 260 13.4.1b. Teste do modelo completo versus modelo reduzido baseado nas
equaes normais ........................................................................... 263 13.4.1c. Teste do modelo completo versus modelo reduzido baseado em
uma inversa generalizada ............................................................... 266 13.4.2. Testes para os efeitos principais ....................................................... 270
13.4.2a. Abordagem modelo completo versus modelo reduzido ............. 270 13.4.2b. Abordagem baseada na hiptese linear geral ............................. 275
-
viii
13.5. Esperana dos quadrados mdios ............................................................ 277 13.5.1. Abordagem baseada nas somas de quadrados .................................. 277 13.5.2. Abordagem baseada na forma quadrtica ........................................ 279 Apndice: Programa do proc iml do SAS .................................................... 283
14. ANLISE DE VARINCIA: DADOS DESBALANCEADOS ............... 287 14.1. Introduo ................................................................................................ 287 14.2. Modelo com um fator .............................................................................. 288
14.2.1. Estimao e teste de hiptese ........................................................... 288 14.2.2. Contrastes ......................................................................................... 291
14.3. Modelo com dois fatores ......................................................................... 294 14.3.1. Modelo incondicional ....................................................................... 295 14.3.2. Modelo condicional .......................................................................... 301 Apndice: Programas do proc iml do SAS .................................................. 306
15. ANLISE DE COVARINCIA ................................................................. 313 15.1. Introduo ................................................................................................ 313 15.2. Estimao e testes de hipteses ............................................................... 314
15.2.1. O modelo de anlise de covarincia ................................................. 314 15.2.2. Estimao ......................................................................................... 316 15.2.3. Testes de hipteses ........................................................................... 318
15.3. Modelo com um fator (one way) e com uma covarivel ......................... 318 15.3.1. O modelo .......................................................................................... 319 15.3.2. Estimao ......................................................................................... 319 15.3.3. Testes de hipteses ........................................................................... 320
15.3.3a. Tratamentos .............................................................................. 320 15.3.3b. Coeficiente angular (slope) ...................................................... 322 15.3.3c Homogeneidade dos coeficientes angulares .............................. 322
15.4. Modelo com dois fatores (two way) e uma covarivel ............................ 327 15.4.1 Testes para os efeitos principais e interao ..................................... 327 15.4.2 Teste para o coeficiente angular (slope) ............................................ 332 15.4.3 Teste para a homogeneidade dos coeficientes angulares (slopes) .... 333
15.5. Modelo one-way com mltiplas covariveis ........................................... 334
-
ix
15.5.1. O modelo .......................................................................................... 334 15.5.2. Estimao ......................................................................................... 335 15.5.3. Testando hipteses ........................................................................... 338
15.5.3a. Tratamentos ................................................................................ 338 15.5.3b. Vetor de coeficientes angulares (slopes) .................................... 339 15.5.3c. Homogeneidade dos vetores de coeficientes angulares ............. 339
15.6. Anlise de covarincia com modelos desbalanceados ............................ 342 Apndice Programas no proc iml .................................................................. 344
16. MODELOS DE EFEITOS ALEATRIOS E MODELOS DE EFEI-TOS MISTOS ............................................................................................... 313
16.1. Introduo ................................................................................................ 352 16.2. Estimao de e predio de a em y = X + Za + .......................... 355
16.2.1. Melhor estimador linear no-viesado (blue) de ......................... 355 16.2.2. Melhor preditor linear no-viesado (blup) do vetor aleatrio a ....... 356
16.3. Estimao de componentes de varincia ................................................. 358 16.3.1. Esperana dos quadrados mdios ..................................................... 359 16.3.2 Estimadores ANOVA ........................................................................ 361
16.4 Testes de hipteses ................................................................................... 362
-
Material elaborado pelo Prof. Csar Gonalves de Lima
1CAPTULO 1 INTRODUO Os mtodos estatsticos (modelos lineares) so amplamente usados como parte do processo de aprendizagem do mtodo cientfico. Na biologia, fsica e cincias sociais, como tambm nos negcios e engenharia, os modelos lineares so teis nos estgios de planejamento da pesquisa e na anlise dos dados resultantes. Nas sees 1.1, 1.2 e 1.3 ns daremos uma breve introduo aos modelos de regresso linear simples, mo-delos de regresso linear mltipla e modelos de anlise de varincia. 1.1. MODELO DE REGRESSO LINEAR SIMPLES Na regresso linear simples, ns nos preocupamos em modelar a relao entre duas variveis, por exemplo, rendimento e nmero de anos de educao, altura e peso de pessoas, comprimento e largura de envelopes, altitude e temperatura de ebulio da gua, dose de uma droga e resposta, quantidade de adubo e produo de gramneas. Para uma relao linear, ns usamos um modelo da forma:
y = 0 + 1x + (1.1) onde y a varivel dependente ou varivel resposta e x a varivel independente ou varivel preditora. A varivel aleatria o termo de erro no modelo. Nesse contex-to, o erro no significa engano ou equvoco, mas sim um termo estatstico que repre-senta flutuaes aleatrias, erros de medidas ou o efeito de fatores no controlados. A linearidade do modelo em (1.1) uma suposio. Geralmente, ns adiciona-mos outras suposies sobre a distribuio do erro, independncia dos valores obser-vados de y, assim por diante. Usando valores observados de x e y, ns estimamos 0 e 1 e fazemos inferncias tais como intervalos de confiana e testes de hipteses sobre 0 e 1. Ns tambm podemos usar o modelo estimado para prever ou predizer o va-lor de y para um particular valor de x. Estimao e procedimentos inferenciais para o modelo de regresso linear simples so desenvolvidos e ilustrados no Captulo 6. 1.2. MODELO DE REGRESSO LINEAR MLTIPLA Muitas vezes a resposta y influenciada por mais de uma varivel preditora. Por exemplo, a produo de uma colheita pode depender das quantidades de nitrognio, potssio e fosfato usadas. Essas variveis so controladas pelo experimentador, mas a produo tambm pode depender de variveis no controladas como aquelas associa-das com o tempo. Um modelo linear relacionando y a diversas variveis preditoras tem a forma
-
Material elaborado pelo Prof. Csar Gonalves de Lima
2y = 0 + 1x1 + 2x2 + + kxk + (1.2)
onde os parmetros 0, 1, 2, , k so chamados coeficientes de regresso. Como em (1.1), a variao aleatria em y no explicada pelos xs. Essa variao aleat-ria pode ser em parte devido a outras variveis que afetam y mas no so conhecidas ou no foram observadas.
O modelo (1.2) linear nos s, mas no necessariamente linear nos xs. Assim, o modelo:
y = 0 + 1x1 + 2 21x +3x2 + 4 seno(x2) + est includo na designao de modelos lineares, mas o modelo
y = 0 + 1 ( )02 xxe + no linear (nos parmetros). Um modelo fornece uma estrutura terica para um melhor entendimento de um fenmeno de interesse. Assim um modelo uma construo matemtica que ns acreditamos poder representar o mecanismo que gerou as observaes que temos em mos. O modelo postulado pode ser uma simplificao idealizada de uma situao real e complexa mas, em muitos desses casos, esses modelos empricos fornecem aproximaes teis das relaes entre as variveis. Essas relaes podem ser associa-tivas ou causais. Modelos de regresso tais como em (1.2) so usados para vrios propsitos, in-cluindo os seguintes:
1. Predio. Estimativas dos parmetros individuais 0, 1, 2, , k so de menor importncia para a predio que a influncia total dos xs sobre y. Entretanto, boas estimativas so necessrias para conseguirmos uma boa performance na predio.
2. Descrio ou Explorao dos Dados. O cientista ou engenheiro usa o modelo estimado para resumir ou descrever os dados observados.
3. Estimao dos Parmetros. Os valores das estimativas dos parmetros podem ter implicaes tericas para um modelo postulado.
4. Seleo de variveis. A nfase est na determinao da importncia de cada varivel preditora em modelar a variao em y. As variveis preditoras que es-to associadas com uma importante quantidade de variao em y so mantidas; aquelas que contribuem pouco podem ser deletadas.
5. Controle da sada. Se uma relao de causa-efeito entre y e x assumida, o modelo estimado deve ento ser usado para controlar as sadas de um processo variando as entradas. Por experimentao sistemtica, pode ser possvel conse-guir a sada tima.
Existe uma diferena fundamental entre os propsitos 1 e 5. Para a predio, ns necessitamos somente que as mesmas correlaes que prevaleceram quando os dados foram coletados, continuem no lugar quando as predies forem feitas. Mostrar
-
Material elaborado pelo Prof. Csar Gonalves de Lima
3que existe uma relao significativa entre y e os xs em (1.2) no necessariamente prova que a relao causal. Para estabelecer causalidade a fim de controlar a sada, o pesquisador deve escolher os valores dos xs no modelo e usar aleatorizao para evitar os efeitos de outras possveis variveis no explicativas. Isto , para verificar o efeito dos xs sobre y quando os xs so mudados, necessrio mud-los. Estimao e procedimentos inferenciais que contribuem para os cinco propsi-tos apresentados anteriormente so discutidos nos Captulos 7-10. 1.3. MODELOS DE ANLISE DE VARINCIA Em modelos de anlise de varincia, ns estamos interessados em comparar diversas populaes ou comparar diversas condies em um experimento. Modelos de anlise de varincia podem ser expressos como modelos lineares de valores restritos de x. Freqentemente os xs so 0s ou 1s. Por exemplo, suponha que um pesquisador de-seje comparar o rendimento de quatro catalisadores em um processo industrial. Se n observaes so obtidas para cada catalisador, um modelo para as 4n observaes pode ser expresso como:
yij = i + ij , i = 1, 2, 3, 4, j = 1, 2, , n (1.3) onde i a mdia correspondente ao i-simo catalisador. Uma hiptese de interesse H0: 1 = 2 = 3 = 4. O modelo em (1.3) pode ser expresso de uma forma alternativa como
yij = + i + ij , i = 1, 2, 3, 4, j = 1, 2, , n (1.4) Nesta forma, i o efeito do i-simo catalisador e a hiptese de interesse pode ser expressa como H0: 1 = 2 = 3 = 4 = 0. Suponha agora, que o pesquisador tambm deseje comparar o efeito de trs n-veis de temperatura e que n observaes so tomadas em cada uma das 12 combina-es catalisador-temperatura. Ento o modelo pode ser expresso como
yijk = ij + ijk = + i + j + ij + ijk (1.5) i = 1, 2, 3, 4, j = 1, 2, 3, k = 1, 2, , n
onde ij a mdia da (ij)-sima combinao catalisador-temperatura, i o efeito do i-simo catalisador, j o efeito do j-simo nvel de temperatura, ij a interao ou efeito conjunto do i-simo catalisador e j-simo nvel de temperatura. Nos exemplos que conduzem aos modelos (1.3), (1.4) e (1.5), o pesquisador escolhe os tipos de catalisador ou os nveis de temperatura e assim aplica diferentes tratamentos aos objetos ou unidades experimentais sob estudo. Em outros ajustes, ns comparamos as mdias de variveis medidas em grupos naturais de unidades, por exemplo, machos e fmeas de vrias reas geogrficas. Modelos de anlise de varincia podem ser tratados como um caso especial de modelos de regresso, mas mais conveniente analis-los separadamente. Isso feito nos Captulos 11-14. Tpicos relacionados, tais como anlise de covarincia e modelos mistos, sero cobertos nos Captulos 15 e 16.
-
Material elaborado pelo Prof. Csar Gonalves de Lima
4 CAPTULO 2. LGEBRA DE MATRIZES.
2.1. MATRIZES E VETORES 2.1.1. Matrizes, vetores e escalares. Uma matriz um arranjo retangular de nmero ou de variveis em linhas e colunas. Nesse texto estaremos considerando matrizes de nmeros reais, que sero denotadas por letras maisculas em negrito. Os seus elementos sero agrupados entre colchetes. Por exemplo:
A =
39211210
; B =
161413151210111111
; X =
101101011011
Para representar os elementos da matriz X como variveis, ns usamos:
X = (xij) =
434241
333231
232221
131211
xxx
xxx
xxx
xxx
A notao X = (xij) representa uma matriz por meio de um elemento tpico. O primeiro ndice indica a linha e o segundo ndice identifica a coluna. Uma matriz genrica X tem n linhas e p colunas. A matriz X do Exemplo 1 tem n = 4 linhas e p = 3 colunas e ns dizemos que X 4x3, ou que a dimenso de X 4x3. Para indicar a dimenso da matriz, podemos usar 34 X ou ( )3x4X .
Um vetor uma matriz com uma nica coluna e denotado por letras mins-culas, em negrito. Os elementos de um vetor so muitas vezes identificados por um nico ndice, por exemplo,
y =
3
2
1
yyy
Geralmente o termo vetor est associado a um vetor coluna. Um vetor linha expres-so como o transposto do vetor coluna, como por exemplo,
y = ty = [ ]321 ,, yyy = [ ]321 yyy (A transposta de uma matriz ser definida mais adiante).
Geometricamente, um vetor de n elementos est associado a um ponto no espa-o n-dimensional. Os elementos do vetor so as coordenadas do ponto. Em algumas situaes, ns estaremos interessados em calcular: (i) a distncia da origem ao ponto (vetor),
-
Material elaborado pelo Prof. Csar Gonalves de Lima
5 (ii) a distncia (d) entre dois pontos (vetores), ou (iii) o ngulo () entre as linhas formadas da origem at os dois pontos.
No contexto de matrizes e vetores, um nmero real chamado de um escalar. Assim, os nmeros 2,5, -9 e 3,14 so escalares. Uma varivel representando um esca-lar ser denotada por uma letra minscula e sem negrito. Por exemplo: c = 3,14 indi-ca um escalar.
2.1.2. Igualdade de Matrizes Duas matrizes (ou dois vetores) so iguais se tm a mesma dimenso e se os elemen-tos de posies correspondentes so iguais. Por exemplo:
731423
=
731423
mas
648925
648935
2.1.3. Matriz Transposta Se ns trocarmos de posio as linhas e as colunas de uma matriz A, a matriz resul-tante conhecida como a transposta de A e denotada por A ou tA . Formalmente, se nAp = (aij) ento a sua transposta dada por:
np A' = tA = (aij) = (aji) (2.3)
Por exemplo: Se A =
731423
A =
743213
a sua transposta.
A notao (aji) indica que o elemento da i-sima linha e j-sima coluna de A encon-trado na j-sima linha e i-sima coluna de A. Se A nxp ento A pxn.
Teorema 2.1.A. Se A uma matriz qualquer, ento (A) = A (2.4)
-
Material elaborado pelo Prof. Csar Gonalves de Lima
6 2.1.4 Alguns tipos especiais de matrizes Se a transposta de uma matriz A a mesma da matriz original, isto , se A = A ou, equivalentemente, (aji) = (aij), ento dizemos que a matriz A simtrica. Por exem-plo,
A =
9767102623
simtrica. evidente que toda matriz simtrica quadrada.
A diagonal de uma matriz quadrada pAp= (aij) consiste dos elementos a11, a22, , app, ou seja, diag(A) = (aii). No exemplo anterior, a diagonal da matriz A forma-da pelos elementos 3, 10 e 9.
Se a matriz nAn contm zeros em todas as posies fora da diagonal ela uma matriz diagonal, como por exemplo,
D =
4000000000300008
que tambm pode ser denotada como D = diag(8, 3, 0, 4)
Ns usamos a notao diag(A) para indicar a matriz diagonal com os mesmos ele-mentos da diagonal de A, como por exemplo,
A =
9767102623
diag(A) =
9000100003
Uma matriz diagonal com o nmero 1 em cada posio da sua diagonal cha-mada de matriz identidade e denotada por I, como por exemplo,
I(3) = diag(1, 1, 1) =
100010001
-
Material elaborado pelo Prof. Csar Gonalves de Lima
7 Uma matriz triangular superior uma matriz quadrada com zeros abaixo da
diagonal, como por exemplo,
T =
8000140062005327
Um vetor de 1s denotado por j:
j =
1
11
M
Uma matriz quadrada de 1s denotada por J, como por exemplo,
J(3x3) =
111111111
Ns denotamos um vetor de zeros por 0 e uma matriz de zeros por ou , por exemplo,
0 =
000
, = =
000000000
.
2.2. OPERAES COM MATRIZES
2.2.1 Adio de duas matrizes Se duas matrizes tm a mesma dimenso, sua soma encontrada adicionando os ele-mentos correspondentes. Assim, se A(nxp) e B(nxp), ento C = A + B tambm nxp e encontrada como C = (cij) = (aij + bij). Por exemplo,
582437
+
2436511
=
31252218
-
Material elaborado pelo Prof. Csar Gonalves de Lima
8 A diferena D = A B entre as matrizes A e B definida similarmente: D = (dij) = (aij bij). Duas propriedades importantes da adio de matrizes so dadas a seguir:
Teorema 2.2A. Se A e B so nxp, ento: (i) A + B = B + A (2.9) (ii) (A + B) = A + B (2.10)
2.2.2 Produto de duas matrizes Para que o produto AB de duas matrizes seja possvel, o nmero de colunas da matriz A deve ser igual ao nmero de linhas de B. Neste caso, dizemos que as matrizes A e B so conformes. Ento, o (ij)-simo elemento do produto C = AB definido como:
cij = k
kjikba (2.11)
que igual soma dos produtos dos elementos da i-sima linha de A pelos elementos da j-sima coluna de B. Assim, ns multiplicamos todas as linhas de A por todas as colunas de B. Se A (nxm) e B (mxp) ento C = AB (nxp). Por exemplo,
A(2x3) =
564312
e B(3x2) =
836241
Ento
2AB2 = 2C2 =
++++
++++
)8)(5()6)(6()4)(4()3)(5()2)(6()1)(4()8)(3()6)(1()4)(2()3)(3()2)(1()1)(2(
=
92313813
3BA3 = 3D3 =
495138363828232518
Se A nxm e B mxp, onde n p, ento o produto AB definido, mas BA no definido. Se A nxp e B pxn, ento AB nxn e BA pxp. Neste caso, certamen-te, AB BA, como ilustrado no exemplo anterior. Se A e B so nxn ento AB e BA tm o mesmo tamanho, mas, em geral:
AB BA (2.12) A matriz identidade I(n) o elemento neutro da multiplicao de matrizes. Isto
quer dizer que, se A n x n ento AI = IA = A. A multiplicao de matrizes no comutativa e algumas manipulaes familia-
res com nmeros reais no podem ser feitas com matrizes. Entretanto, a multiplicao de matrizes distributiva em relao soma ou subtrao:
-
Material elaborado pelo Prof. Csar Gonalves de Lima
9 A(B C) = AB AC (2.13) (A B)C = AC BC (2.14)
Usando (2.13) e (2.14) ns podemos expandir produtos como (A B)(C D): (A B)(C D) = (A B)C (A B)D = AC BC AD + BD (2.15)
A multiplicao envolvendo vetores segue as mesmas regras das matrizes. Su-ponha A(nxp), b(px1), c(px1) e d(nx1). Ento: Ab um vetor coluna nx1 dA um vetor linha de dimenso 1xp bc um escalar correspondendo soma de produtos bc uma matriz pxp cd uma matriz pxn
Desde que bc uma soma de produtos (um escalar!) tem-se que bc = cb: bc = b1c1 + b2c2 + + bpcp cb = c1b1 + c2b2 + + cpbp bc = cb (2.16)
A matriz cd dada por
cd =
pc
c
c
M
2
1
[d1 d2 dn] =
nppp
n
n
dcdcdc
dcdcdcdcdcdc
L
MOMM
L
L
21
22212
12111
(2.17)
Similarmente:
bb = [b1 b2 bp]
pb
bb
M
2
1
= 21b +
22b + +
2pb =
=
pb
1i
2i (2.18)
bb =
pb
bb
M
2
1
[b1 b2 bp] =
221
22212
12121
ppp
p
p
bbbbb
bbbbbbbbbb
L
MOMM
L
L
(2.19)
Assim, bb uma soma de quadrados e bb uma matriz quadrada e simtrica.
-
Material elaborado pelo Prof. Csar Gonalves de Lima
10 A raiz quadrada da soma de quadrados dos elementos de um vetor bpx1 igual distncia da origem ao ponto b e referida como norma euclidiana, ou comprimento do vetor b:
comprimento de b = || b || = bb' = =
p
iib
1
2 (2.20)
Se j um vetor nx1 de 1s como definido em (2.6), ento por (2.18) e (2.19), ns temos que:
jj = n, jj =
111
111111
L
MOMM
L
L
= J(nxn) (2.21)
onde Jnxn uma matriz quadrada de 1s como ilustrada em (2.7), Se a um vetor nx1 e A uma matriz nxp, ento
aj = ja = =
n
iia
1 (2.22)
jA = [ ] i ipi ii i aaa L21 e Aj =
j nj
j jj j
a
a
a
M
2
1
(2.23)
Assim, aj = ja a soma dos elementos em a, jA contem as somas das colunas de A e Aj contem as somas das linhas de A. Note que em aj, o vetor j nx1; em jA, o vetor j nx1 e em Aj, o vetor j px1.
Exemplo: Seja a matriz A =
045246154321
e o vetor a =
8152
ento:
i) j'A = [ ]111
045246154321
= [ ]81348 (totais das colunas de A)
ii) Aj =
045246154321
1111
=
11166
(totais das linhas de A)
-
Material elaborado pelo Prof. Csar Gonalves de Lima
11
iii) aj = [ ]8152
1111
= ja = [ ]1111
8152
= 16 (total dos elementos de a)
O produto de um escalar por uma matriz obtido multiplicando-se cada ele-mento da matriz pelo escalar:
cA = (caij) =
nmnn
m
m
cacaca
cacaca
cacaca
L
MOMM
L
L
21
22221
11211
. (2.24)
Desde que caij = aijc o produto de um escalar por uma matriz comutativo: cA = Ac (2.25)
A transposta do produto de duas matrizes igual ao produto das transpostas em ordem reversa.
Teorema 2.2B. Se A nxp e B pxm, ento: (AB) = BA (2.26)
Prova: Seja C = AB. Ento por (2.11), temos que C = (cij) =
=
p
kkjikba
1
Por (2.3), a transposta de C = AB dada por: (AB) = C = (cij) = (cji)
=
=
p
kkijkba
1 =
=
p
kjkkiab
1 = BA.
Para ilustrar os passos dessa prova, vamos usar as matrizes A2x3 e B3x2:
AB =
232221
131211
aaa
aaa
3231
2221
1211
bbbbbb
=
++++
++++
322322221221312321221121
321322121211311321121111
babababababababababababa
-
Material elaborado pelo Prof. Csar Gonalves de Lima
12
(AB) =
++++
++++
322322221221321322121211
312321221121311321121111
babababababababababababa
=
++++
++++
233222222112133212221112
233122212111133112211111
abababababababababababab
(AB) =
322212
312111
bbbbbb
2313
2212
2111
aa
aa
aa
= BA
Corolrio 1. Se A, B e C so conformes, ento (ABC) = CBA.
Exemplo: Seja y = [y1, y2, , yn] um vetor de pesos de n frangos de corte. Para calcularmos a mdia e a varincia dos pesos desses frangos, ns usamos:
y = =
n
iiy
n 1
1 s
2 = ( )
=
n
ii yy
n 1
2
11
Matricialmente, a mdia pode ser calculada por y = n
1 jy, onde j um vetor nx1 de 1s e n = jj. Para calcularmos a varincia precisamos, primeiramente, calcular o vetor de desvios:
y y = y y j = y jn
1 jy = y n
1 jjy = y n
1 Jy =
JI
n
1 y
Onde I a matriz identidade nxn e J uma matriz nxn de 1s. Para calcularmos a soma de quadrados de desvios fazemos:
( )=
n
ii yy
1
2 =
t
n
yJI 1
JI
n
1 y
= yt
n
JI 1
JI
n
1 y = y
IJ II'n
1 IJ'
n
1 +
JJ'2
1n
y
Mas J = J, II = I, IJ = J; JI = J = J e jj = n, ento:
( )=
n
ii yy
1
2 = y
J In
2 +
jj'jj'2
1n
y = y
J In
2 +
j'j )(12 nn y
= y
J In
2 +
J
n
1 y = y
JI
n
1 y
Ento, a varincia pode ser calculada por:
s2 = ( )
=
n
ii yy
n 1
2
11
=
11n
y J Iy'
n
1
-
Material elaborado pelo Prof. Csar Gonalves de Lima
13
Supondo que A nxm e B mxp, seja tia a i-sima linha da matriz A e bj, a j-sima coluna
da matriz B, de tal forma que:
A =
nmnn
m
m
aaa
aaa
aaa
L
MOMM
L
L
21
22221
11211
=
tn
t
t
a
a
a
M
2
1
, B =
mpmm
p
p
bbb
bbbbbb
L
MOMM
L
L
21
22221
11211
= [b1, b2, , bp]
Ento, por definio, o (ij)-simo elemento de AB tia bj:
AB =
ptn
tn
tn
pttt
pttt
bababa
babababababa
L
MOMM
L
L
21
22212
12111
=
),,,(
),,,(),,,(
21
212
211
ptn
pt
pt
b b ba
b b bab b ba
L
M
L
L
=
Ba
BaBa
tn
t
t
M
2
1
=
tn
t
t
a
a
a
M
2
1
B (2.27)
A primeira coluna de AB pode ser expressa em termos de A como
1
12
11
ba
baba
tn
t
t
M =
tn
t
t
a
a
a
M
2
1
b1 = Ab1
De forma anloga, a segunda coluna de AB Ab2 e assim por diante. Assim AB pode ser escrita em termos das colunas de B:
AB = A[b1, b2, , bp] = [Ab1, Ab2, , Abp] (2.28)
Qualquer matriz A pode ser multiplicada pela sua transposta para formar AA ou AA. Algumas propriedades desses produtos so dadas no prximo Teorema.
Teorema 2.2C. Seja A uma matriz nxp. Ento AA e AA tm as seguintes proprie-dades: (i) AA pxp e obtida como produto das colunas de A. (ii) AA nxn e obtida como produto das linhas de A. (iii) Ambas as matrizes AA e AA so simtricas. (iv) Se AA = ento A = .
-
Material elaborado pelo Prof. Csar Gonalves de Lima
14 Seja A uma matriz quadrada n x n e D = diag(d1, d2, , dn). No produto DA, a i-sima linha de A multiplicada por di e em AD, a j-sima coluna de A multipli-cada por dj. Por exemplo, se n = 3, ns temos:
DA =
3
2
1
000000
dd
d
333231
232221
131211
aaa
aaa
aaa
=
333323313
232222212
131121111
adadadadadadadadad
(2.29)
AD =
333231
232221
131211
aaa
aaa
aaa
3
2
1
000000
dd
d =
333322311
233222211
133122111
adadadadadadadadad
(2.30)
DAD =
332332233113
233222222112
133112211121
adaddaddaddadaddaddaddad
(2.31)
Vale notar que DA AD. Entretanto, no caso especial onde a matriz diagonal a matriz identidade, (2.29) e (2.30) temos:
IA = AI = A (2.32)
Se A retangular, (2.32) continua valendo, mas as duas identidades so de di-menses diferentes.
Se A uma matriz simtrica e y um vetor, o produto:
yAy = i
iii ya2
+ 2 ji
jiij yya (2.33)
chamado de forma quadrtica. Se x nx1, y px1 e A nxp, o produto: xAy =
ijjiij yxa (2.34)
chamado de forma bilinear.
2.2.3. Soma Direta Dadas as matrizes A(mxn) e B(rxs) definimos a sua soma direta como
A B =
B00A
= C(m+r,n+s)
-
Material elaborado pelo Prof. Csar Gonalves de Lima
15 Algumas propriedades da soma direta de matrizes:
(i) A (A) (ii) Se as dimenses so favorveis, ento:
(A B) + (C D) = (A + C) (B + D) (A B)(C D) = AC BD
Exemplo: Sejam as matrizes
A = [ ]151110 , B =
1453
, C = [ ]151110 Ento,
A B =
140005300000151110
A C =
151110000000151110
(Perceba que A+C = )
2.2.4. Produto direto ou de Kronecker Dadas as matrizes A(mxn) e B(rxs) definimos o produto direto ou produto de Kronecker de A por B como a matriz C(mr x ns) de tal forma que:
C(mr x ns) = A B =
BBB
BBBBBB
mn2m1m
n22221
n11211
aaa
aaa
aaa
L
MOMM
L
L
Algumas propriedades interessantes do produto direto de matrizes: (i) A B B A , em geral (ii) Se u e v so vetores, ento u v = v u = vu. (iii) Se D(n) uma matriz diagonal e A uma matriz qualquer, ento:
D A = d11A d22A dnnA (iv) Se as dimenses so favorveis
(A B)(C D) = AC BD
-
Material elaborado pelo Prof. Csar Gonalves de Lima
16 Exemplo: Sejam as matrizes:
A(2x2) =
4321
, B(2x3) =
653011
, y(3x1) =
011
.
Ento
A B =
24201218159044033
12106653022011
, B A =
2418201512912610563004343002121
A y =
004343002121
y A =
000043214321
2.2.5 Potncia de matriz quadrada Dada uma matriz quadrada A e um nmero k Z (conjunto dos nmeros inteiros e positivos), definimos a k-sima potncia da matriz A como:
kA = 43421 Lk vezes
AAAA
Em relao sua segunda potncia, uma matriz quadrada A, ser chamada de:
(i) idempotente, se 2A = A. (ii) nilpotente, se 2A = . (iii) unipotente, se 2A = I.
Teorema. Se P(n) uma matriz idempotente e se I(n) a matriz identidade de ordem n, ento a matriz I P idempotente.
-
Material elaborado pelo Prof. Csar Gonalves de Lima
17 2.3. MATRIZES PARTICIONADAS Muitas vezes conveniente particionar uma matriz em submatrizes. Por exemplo, uma partio de uma matriz A em quatro submatrizes (quadradas ou retangulares) de dimenses apropriadas, pode ser indicada simbolicamente como:
A =
2221
1211
AAAA
Para ilustrar, seja a matriz A(4x5) particionada como:
A =
61213256397204348527
=
2221
1211
AAAA
Onde:
A11 =
043527
, A12 =
7248
, A21 =
213639
e A22 =
6125
Se duas matrizes A e B so conformes, e se A e B so particionadas de tal for-ma que as submatrizes sejam apropriadamente conformes, ento o produto AB pode ser encontrado usando a maneira usual de multiplicao (linha-por-coluna) tendo as submatrizes como se fossem elementos nicos; por exemplo:
AB =
2221
1211
AAAA
2221
1211
BBBB
=
++
++
2222122121221121
2212121121121111
BABABABABABABABA
(2.35)
Se B trocada por um vetor b particionado em dois conjuntos de elementos e se A correspondentemente particionada em dois conjuntos de colunas, ento (2.35) fica:
Ab = [A1, A2]
2
1
bb
= A1b1 + A2b2 (2.36)
Onde o nmero de colunas de A1 igual ao nmero de elementos de b1 e A2 e b2 so similarmente conformes.
A multiplicao particionada em (2.36) pode ser estendida para colunas indivi-duais de A e elementos individuais de b:
-
Material elaborado pelo Prof. Csar Gonalves de Lima
18
Ab = [a1, a2, , ap]
pb
bb
M
2
1
= b1a1 + b2a2 + + bpap (2.37)
Assim, Ab pode ser expressa como uma combinao linear de colunas de A, na qual os coeficientes so os elementos de b. Ns ilustramos (2.37) no seguinte exemplo:
Exemplo 2.3. Sejam:
A =
234012326
, b =
124
Ab =
201017
Usando uma combinao linear de colunas de A como em (2.37), ns obtemos: Ab = b1a1 + b2a2 + b3a3
= 4
426
+ 2
312
+ (1)
203
=
16824
+
624
203
=
201017
Por (2.28) e (2.29), as colunas do produto AB so combinaes lineares das co-lunas de A. Os coeficientes para a j-sima coluna de AB so os elementos da j-sima coluna de B.
O produto de um vetor linha por uma matriz, aB, pode ser expresso como uma combinao linear das linhas de B, na qual os coeficientes so os elementos de a:
aB = [a1, a2, , an]
tn
t
t
b
bb
M
2
1
= a1t1b + a2
t2b + + an
tnb (2.38)
Por (2.27) e (2.38), as linhas do produto AB so combinaes lineares das linhas de B. Os coeficientes da i-sima linha de AB so os elementos da i-sima linha de A.
Finalmente, notamos que se uma matriz A particionada como A = [A1, A2], ento:
A = [A1, A2] =
t
t
2
1
AA
(2.39)
-
Material elaborado pelo Prof. Csar Gonalves de Lima
19 2.4 POSTO (RANK) DE UMA MATRIZ Antes de definirmos o posto (ou rank) de uma matriz, ns introduziremos a noo de independncia linear e dependncia. Um conjunto de vetores {a1, a2, , ap} dito linearmente dependente (l.d.) se pudermos encontrar um conjunto de escalares c1, c2, , cp (nem todos nulos) de tal forma que:
c1a1 + c2a2 + + cpap = 0 (2.40) Se no encontrarmos um conjunto de escalares c1, c2, , cp (nem todos nulos) que sa-tisfaam (2.40), o conjunto de vetores {a1, a2, , ap} dito linearmente independente (l.i.). Por (2.37), podemos reescrever essa definio da seguinte forma:
As colunas de A so linearmente independentes se Ac = 0 implica em c = 0. Observe que se um conjunto de vetores inclui um vetor nulo, o conjunto de vetores linearmente dependente. Se (2.40) satisfeita, ento existe pelo menos um vetor ai que pode ser expres-so como uma combinao linear dos outros vetores do conjunto. Entre vetores linear-mente independentes no existem redundncias desse tipo.
Definio: O posto (rank) de qualquer matriz A (quadrada ou retangular) definido como o nmero de colunas (linhas) linearmente independentes de A
Pode-se mostrar que o nmero de colunas l.i. de qualquer matriz igual ao nmero de linhas l.i. dessa matriz.
Se a matriz A tem um nico elemento diferente de zero, com todos os demais elementos iguais a zero, ento rank(A) = 1. O vetor 0 e a matriz tm posto zero. Se a matriz retangular A(nxp) de posto p, onde p < n, ento A tem o maior posto possvel e dito ter posto coluna completo.
Em geral, o maior posto possvel de uma matriz A(nxp) o min(n, p). Assim, em uma matriz retangular, as linhas, as colunas ou ambas so linearmente dependentes. Ns ilustramos esse fato no prximo exemplo.
Exemplo 2.4(a). A matriz
A =
425321
tem posto 2, porque as duas linhas so linearmente independentes, pois nenhuma linha mltipla da outra. Conseqentemente, pela definio de posto, o nmero de colunas l.i. tambm 2. Portanto, as trs colunas de A so l.d. e por (2.40) existem constantes c1, c2 e c3 (nem todas nulas) tais que:
-
Material elaborado pelo Prof. Csar Gonalves de Lima
20
c1
51
+ c2
22
+ c3
43
=
00
(2.41)
Por (2.37) ns escrevemos (2.41) na forma
425321
3
2
1
c
c
c
=
00
ou Ac = 0 (2.42)
A soluo (no trivial) para (2.42) dada por qualquer mltiplo de c =
121114
. Neste
caso o produto Ac = 0, mesmo com A 0 e c 0. Isso s possvel por causa da de-pendncia linear dos vetores-colunas de A.
Nem sempre fcil perceber que uma linha (ou coluna) uma combinao li-near de outras linhas (ou colunas). Nesses casos pode ser difcil calcular o posto de uma matriz. Entretanto, se conseguirmos obter a forma escalonada cannica (f.e.c.) da matriz, o seu posto corresponder ao nmero de linhas (ou colunas) que tenham o nmero 1 como lder. A obteno da f.e.c. de uma matriz feita atravs de operaes elementares em suas linhas (ou colunas).
Definio: So chamadas de operaes elementares nas linhas da matriz A (e de modo similar nas suas colunas):
(i) trocar a posio de duas linhas da matriz. (ii) multiplicar uma linha da matriz por um escalar k 0 (li = kli). (iii) somar a uma linha da matriz um mltiplo de outra linha (li = li + klj).
Teorema: Uma matriz A equivalente por linhas a uma matriz B se B pode ser obti-da de A aplicando-se uma seqncia de operaes elementares sobre as suas linhas.
Definio: Dizemos que uma matriz A(nxm) est na sua forma escalonada cannica ou reduzida se ocorrer simultaneamente que:
(a) o primeiro elemento no nulo de cada linha no nula o nmero 1 (piv); (b) toda coluna que tem um piv, tem todos os outros elementos nulos; (c) o piv da linha i +1 ocorre direita do piv da linha i (i = 1, 2, , n1). (d) todas as linhas nulas (formadas inteiramente por zeros) ocorrem abaixo das
linhas no nulas.
-
Material elaborado pelo Prof. Csar Gonalves de Lima
21 Definio: Dizemos que uma matriz est na forma escalonada se ela satisfaz as pro-priedades (c) e (d), mas no necessariamente as propriedades (a) e (b).
Das matrizes apresentadas a seguir, B no est na forma escalonada, A e C es-to nas suas formas escalonadas cannicas e D, na forma escalonada.
A =
000010001
, B =
0010010010000001
, C =
00002121
, D =
100030304
Teorema. Dada uma matriz real A(nxp) sempre possvel obtermos a sua forma esca-lonada cannica (f.e.c.) atravs de operaes elementares.
Assim, calcular o posto da matriz A o mesmo que calcular o posto da f.e.c. de A, pois so equivalentes. Portanto, calcular o posto da f.e.c. de A o mesmo que contar o seu nmero de 1s pivs.
Exemplo. Vamos obter a f.e.c. da matriz A do Exemplo 2.4(a):
A =
425321
(i) Fazendo l2 = l2 5l1, ns obtemos:
425321
~
11120321
.
(ii) Fazendo l2 = l2 /12, ns obtemos:
11120321
~
12/1110321
.
(iii) Fazendo l1 = l1 + 2l2, obtemos:
12/1110321
~
12/11106/701
Ento a f.e.c. de A a matriz
12/11106/701
e o rank(A) = 2.
Definio: Dizemos que uma matriz quadrada est na forma de Hermite (Graybill 1969, p.120) se satisfaz as seguintes condies:
(a) uma matriz triangular superior;
-
Material elaborado pelo Prof. Csar Gonalves de Lima
22 (b) tem apenas valores zero ou um na sua diagonal; (c) se tem o valor zero na diagonal, os elementos restantes na linha so zeros; (d) se tem o valor um na diagonal, os elementos restantes da coluna em que apare-
ce o nmero um, so nulos.
Definio: Dizemos que uma matriz quadrada est na forma de Echelon (Graybill, 1969, p.286) se ela satisfaz as condies de uma forma de Hermite e apresenta as linhas de zeros abaixo das linhas que no so nulas.
Ns podemos estender (2.42) para produtos de matrizes. possvel encontrar matrizes A 0 e B 0, tais que:
AB = 0, (2.43) Por exemplo,
4221
3162
=
0000
.
Ns tambm podemos explorar a dependncia linear das linhas ou colunas de uma matriz para criar expresses tais como AB = CB, onde A C. Assim em uma equao matricial, ns no podemos, em geral, cancelar uma matriz de ambos os lados da equao. Uma exceo a essa regra ocorre quando as matrizes envolvidas so quadradas e B uma matriz no-singular (ser definida na Seo 2.5).
Exemplo 2.4(b). Ns ilustramos a existncia de matrizes A, B e C tais que AB = CB, onde A C. Sejam as matrizes:
A =
102231
, B =
011021
, C =
465112
AB = CB =
4153
.
O teorema seguinte d um caso geral e dois casos especiais para o posto do produto de duas matrizes.
Teorema 2.4A. (i) Se as matrizes A e B so conformes, ento rank(AB) rank(A) e rank(AB)
rank(B). (ii) A multiplicao por uma matriz no-singular (ver Seo 2.5) no altera o posto
da matriz, isto , se B e C so no-singulares rank(AB) = rank(CA) = rank(A). (iii) Para qualquer matriz A, rank(AA) = rank(AA) = rank(A) = rank(A).
-
Material elaborado pelo Prof. Csar Gonalves de Lima
23 Prova: (i) Todas as colunas de AB so combinaes lineares das colunas de A (ver um co-
mentrio no Exemplo 2.3) conseqentemente, o nmero de colunas l.i. de AB menor ou igual ao nmero de colunas l.i. de A, e rank(AB) rank(A). Similar-mente, todas as linhas de AB so combinaes lineares das linhas de B [ver comentrio em (2.38)] e da, rank(AB) rank(B).
(ii) Se B no singular, existe uma matriz -1B tal que B -1B = I [ver (2.45) a seguir]. Ento, de (i) ns temos que:
rank(A) = rank(AB -1B ) rank(AB) rank(A). Assim ambas as desigualdades tornam-se igualdades e rank(A) = rank(AB). Simi-
larmente, rank(A) = rank(CA) para C no-singular.
2.5. INVERSA DE UMA MATRIZ Uma matriz quadrada de posto completo dita no-singular. Uma matriz A,
no-singular, tem inversa nica, denotada por A1, com a propriedade que: A A1 = A1A = I (2.45)
Um algoritmo simples (mas trabalhoso se a dimenso da matriz grande!) para obteno da inversa de uma matriz consiste em justapor matriz A uma matriz iden-tidade de mesma ordem. Opera-se simultaneamente sobre as linhas das duas matrizes at que no lugar da matriz A aparea a sua f.e.c. (neste caso, uma matriz identidade). Nesse momento, no lugar da matriz identidade estar a inversa A1 de A. Ou seja:
[A | I ] ~ ~ [I | A1]
Exemplo 2.5. Seja a matriz quadrada: A =
6274
.
(1) Fazendo l2 = l2 (1/2) l1:
10620174
~
12/12/500174
(2) Fazendo l2 = (2/5)l2:
12/12/500174
~
5/25/1100174
(3) Fazendo l1 = l1 + (7) l2:
-
Material elaborado pelo Prof. Csar Gonalves de Lima
24
5/25/1100174
~
5/25/1105/145/1204
(4) Fazendo l1 = (1/4) l1:
5/25/1105/145/1204
~
5/25/11010/75/301
Ento
10620174
~ ~
5/25/11010/75/301
A1 =
4.02.07.06.0
Se a matriz B no-singular e AB = CB, ento ns podemos multiplicar direita por B1 os dois lados da igualdade, obtendo:
AB = CB ABB1 = CBB1 A = C
Importante: Se a matriz B singular ou retangular, ela no pode ser cancelada nos dois lados da igualdade AB = CB.
Similarmente, se A no-singular ento o sistema Ax = c tem a soluo nica: x = A1c (2.47)
Teorema 2.5A. Se A no singular, ento A no singular e a sua inversa pode ser encontrada como:
(A) 1 = (A1) (2.48)
Teorema 2.5B. Se A e B so matrizes no singulares de mesma dimenso, ento AB no-singular e
(AB)1 = B1A1 (2.49)
Se a matriz A simtrica, no-singular e particionada como:
A =
2221
1211
AAAA
e se B = A22 A21(A11)1A12, ento supondo que (A11)1 e B1 existem, a inversa de A dada por
A1 =
11-1121
1
112
1-11
1-1121
112
1-11
1-11
BAABBAAAABAAA
(2.50)
-
Material elaborado pelo Prof. Csar Gonalves de Lima
25 Como um caso especial de (2.50), consideremos a matriz no singular:
A = ( )
2212
1211
at
a
aA
onde A11 quadrada, a22 um escalar e a12 um vetor. Ento se (A11)1 existe, a inversa de A pode ser expressa como:
A1 = b1
+
1)()(
1-1112
121-
111-
1112121-
111-
11
AaaAAaaAA
t
tb (2.51)
onde b = a22 (a12)t(A11)1a12. Como um outro caso especial de (2.50) ns temos:
A =
22
11
AA
que tem a inversa
A1 =
122
111
AA
(2.52)
Se uma matriz quadrada da forma B + cc no singular, onde c um vetor e B uma matriz no singular, ento:
(B + cc)1 = B1 cBc'
Bcc'B1
11
1
+ (2.53)
2.6 MATRIZES POSITIVAS DEFINIDAS Formas quadrticas foram introduzidas em (2.33). Por exemplo, a forma quadrtica 3 21y +
22y + 2
23y + 4 1y 2y + 5 1y 3y 6 2y 3y pode ser expressa como:
3 21y + 22y + 2
23y + 4 1y 2y + 5 1y 3y 6 2y 3y = yAy
onde
y =
3
2
1
yyy
, A =
200610
543.
Entretanto, essa forma quadrtica pode ser expressa em termos da matriz simtrica:
21 (A + A) =
232/53122/523
.
-
Material elaborado pelo Prof. Csar Gonalves de Lima
26 Em geral, qualquer forma quadrtica yAy pode ser expressa como:
yAy = y
+
2A'A y (2.54)
Assim a matriz-ncleo da forma quadrtica pode sempre ser escolhida como uma matriz simtrica (e nica!).
Exemplo. A varincia definida como s2 = 1
1n
y J Iy'
n
1 = yAy uma
forma quadrtica e a sua matriz ncleo simtrica:
A = 1
1n
nnn
nnn
nnn
1111
1111
1111
L
MMM
L
L
=
( ) ( )( ) ( )
( ) ( )
nnnnn
nnnnn
nnnnn
11
11
1
111
11
11
111
L
MMM
L
L
As somas de quadrados encontradas na anlise de regresso (Captulos 6 a 10) e anlise de varincia (Captulos 11 a 14) podem ser expressas na forma yAy, onde y um vetor de observaes. Tais formas quadrticas so positivas (ou no mnimo no-negativas) para todos os valores de y.
Se a matriz simtrica A tem a propriedade de yAy > 0 para todos os possveis vetores de observaes y, com exceo de y = 0, ento a forma quadrtica yAy dita positiva definida e A dita matriz positiva definida.
Similarmente, se yAy 0 para todos os possveis vetores de observaes y, com exceo de y = 0, ento a forma quadrtica yAy dita positiva semidefinida e A dita matriz positiva semidefinida.
Exemplo 2.6. Para ilustrar uma matriz positiva definida, considere:
A =
3112
A forma quadrtica associada
yAy = 2 21y 2 1y 2y + 322y = 2( 1y 0,5 2y )2 + (5/2) 22y
que claramente positiva a menos que 1y e 2y sejam ambos iguais a zero.
-
Material elaborado pelo Prof. Csar Gonalves de Lima
27 Para ilustrar uma matriz positiva semidefinida, considere:
(2 1y 2y )2 + (3 1y 3y )2 + (3 2y 2 3y )2 que pode ser expresso como yAy, com
A =
56361023213
Se 2 1y = 2y , 3 1y = 3y e 3 2y = 2 3y , ento (2 1y 2y )2 + (3 1y 3y )2 + (3 2y 2 3y )2 = 0. Assim yAy = 0 para qualquer mltiplo de y = [1, 2, 3]. Para todos os outros casos, yAy > 0 (com exceo de y = 0).
Teorema 2.6A. (i) Se A positiva definida, ento todos os elementos aii da sua diagonal so posi-
tivos. (ii) Se A positiva semidefinida, ento todos aii 0. (Ver prova na pgina 23 do livro do Rencher)
Teorema 2.6B. Seja P uma matriz no-singular. (i) Se A positiva definida, ento PAP positiva definida. (ii) Se A positiva semidefinida, ento PAP positiva semidefinida. (Ver prova na pgina 23 do livro do Rencher)
Corolrio 1. Seja A(pxp) uma matriz positiva definida e seja a matriz B(kxp) de posto k p. Ento a matriz BAB positiva definida.
Corolrio 2. Seja A(pxp) uma matriz positiva definida e seja a matriz B(kxp). Se k > p ou se rank(B) = r, onde r < k e r < p, ento a matriz BAB positiva semidefinida.
Teorema 2.6C. Uma matriz simtrica A positiva definida se e somente se existe uma matriz no singular P tal que A = PP. (Ver prova na pgina 23 do livro do Rencher)
Corolrio 1. Uma matriz positiva definida no-singular.
-
Material elaborado pelo Prof. Csar Gonalves de Lima
28 Um mtodo de fatorar uma matriz positiva definida A em um produto PP chamado de decomposio de Cholesky [ver Seber (1977, pg.304-305)], pelo qual A pode ser fatorado de modo nico em A = TT, onde T uma matriz no singular e triangular superior.
Para qualquer matriz quadrada ou retangular B, a matriz BB positiva defi-nida ou positiva semidefinida.
Teorema 2.6D. Seja a matriz B(nxp). (i) Se rank(B) = p, ento BB positiva definida. (ii) Se rank(B) < p, ento BB positiva semidefinida. Prova:
(i) Para mostrar que yBBy > 0 para y 0, ns notamos que yBBy = (By)(By) uma soma de quadrados e portanto, positiva definida, a menos que By = 0. Por (2.37) ns podemos expressar By na forma:
By = y1b1 + y2b2 + + ypbp Essa combinao linear no igual a 0 (para qualquer y 0) porque rank(B) = p
e as colunas de B so l.i. (ii) Se rank(B) < p, ento ns podemos encontrar y 0 tal que
By = y1b1 + y2b2 + + ypbp = 0 porque as colunas de B so l.d. [ver (2.40)]. Da, yBBy 0.
Note que se B uma matriz quadrada, a matriz B2 = BB no necessariamente positiva semidefinida. Por exemplo, seja a matriz:
B =
2121
Ento:
B2 =
2121
, BB =
8442
Neste caso, B2 no positiva semidefinida, mas BB positiva semidefinida, porque yBBy = 2(y1 2y2)2 0.
Teorema 2.6E. Se A positiva definida, ento A1 positiva definida.
Prova: Pelo Teorema 2.6C, A = PP, onde P no singular. Pelos Teoremas 2.5A e 2.5B, A1 = (PP)1 = P1(P)1 = P1(P1), que positiva definida pelo Teore-ma 2.6C.
-
Material elaborado pelo Prof. Csar Gonalves de Lima
29 Teorema 2.6F. Se A positiva definida e particionada na forma
A =
2221
1211
AAAA
onde A11 e A22 so quadradas, ento A11 e A22 so positivas definidas.
Prova: Ns podemos escrever A11 como A11 = [I, 0] A
0I
, onde I tem a mesma di-
menso de A11. Ento, pelo Corolrio 1 do Teorema 2.6B, A11 positiva defi-nida.
2.7 SISTEMAS DE EQUAES O sistema de equaes de n equaes (lineares) e p incgnitas
a11x1 + a12x2 + + a1pxp = c1
a21x1 + a22x2 + + a2pxp = c2
(2.55) an1x1 + an2x2 + + anpxp = cn
pode ser escrito na forma matricial como Ax = c (2.56)
onde A nxp, x px1 e c nx1. Note que: Se n p ento os vetores x e c so de tamanhos diferentes. Se n = p e A no-singular, ento por (2.47), existe um nico vetor soluo x =
A1c. Se n > p, tal que A tenha mais linhas que colunas (mais equaes do que incgni-
tas), ento, geralmente, o sistema Ax = c no tem soluo. Se n < p, tal que A tenha menos linhas que colunas, ento o sistema Ax = c tem
um nmero infinito de solues. Se o sistema (2.56) tem uma ou mais vetores solues, ele chamado de sistema
consistente. Se no tem soluo, ele chamado de sistema inconsistente.
Para ilustrar a estrutura de um sistema consistente, suponha que A seja pxp tenha posto r < p. Ento as linhas de A so linearmente dependentes e existe algum b tal que [ver (2.38)]:
bA = b1 t1a + b2 t2a + + bptpa = 0
-
Material elaborado pelo Prof. Csar Gonalves de Lima
30 Ento, ns tambm podemos ter bc = b1c1 + b2 c2+ + bp cp = 0, porque a multipli-cao de Ax = c por b (de ambos os lados) d:
bAx = bc ou 0x = bc. Por outro lado, se bc 0, no existe x tal que Ax = c. Portanto, para que Ax = c seja consistente, a mesma relao (qualquer que seja) que existe entre as linhas de A deve existir entre os elementos (linhas) de c. Isso formalizado comparando o posto de A com o posto da matriz aumentada [A, c]. A notao [A, c] indica que c foi justaposta matriz A como uma coluna adicional.
Teorema 2.7A O sistema de equaes Ax = c consistente (tem no mnimo uma soluo) se e somente se rank(A) = rank[A, c]. Prova: Suponha que rank(A) = rank[A, c], de tal forma que justapor no altera o
posto da matriz A. Ento c uma combinao linear das colunas de A; isto , existe pelo menos um x tal que
x1a1 + x2a2 + + xpap = c
que, por (2.38) pode ser escrito como Ax = c. Assim, x uma soluo do siste-ma Ax = c. Por outro lado, suponha que existe um vetor soluo x tal que Ax = c. Em geral, tem-se que rank(A) rank[A, c] [ver Harville (1997, p.41)]. Mas desde que existe um x tal que Ax = c, ns temos:
rank[A, c] = rank[A, Ax] = rank[A(I, x)] rank(A) [Teorema 2.4A(i)]
Por isso, rank(A) rank[A, c] rank(A)
e da ns temos que rank(A) = rank[A, c].
Um sistema de equaes consistente pode ser resolvido pelos mtodos usuais apresentados nos cursos bsicos de lgebra (mtodo da eliminao de variveis, por exemplo). No processo, uma ou mais variveis podem terminar como constantes arbi-trrias, gerando assim um nmero infinito de solues. Um mtodo alternativo para resolver o sistema ser apresentado na Seo 2.8.2.
Exemplo 2.7(a) Considere o sistema de equaes: x1 + 2x2 = 4 x1 x2 = 1 x1 + x2 = 3
ou
111121
2
1
x
x =
314
-
Material elaborado pelo Prof. Csar Gonalves de Lima
31 A matriz aumentada :
[A, c] =
311111421
que tem rank[A, c] = 2 porque a terceira coluna igual soma de duas vezes a pri-meira coluna com a segunda coluna. Desde que rank[A, c] = 2 = rank(A), existe ao menos uma soluo para o sistema. Se adicionarmos duas vezes a primeira equao segunda equao, o resultado um mltiplo da terceira equao. Assim, a terceira equao redundante e as duas primeiras podem ser resolvidas para obter a soluo nica x = [2, 1].
0
1
2
3
4
0 1 2 3 4 5x1
x2
Figura 2.1 Trs linhas representando as equaes do sistema do Exemplo 2.7(a)
A Figura 2.1 mostra as trs linhas que representam as trs equaes do sistema. Note que as trs linhas cruzam no ponto de coordenadas (2, 1), que a soluo nica do sistema de trs equaes.
Exemplo 2.7(b). Se trocarmos o nmero 3 por 2 na terceira equao do Exemplo 2.7(a), a matriz aumentada fica
[A, c] =
211111421
que tem posto 3, j que nenhuma combinao linear das colunas 0. Como rank[A,c] = 3 rank(A) = 2, o sistema inconsistente. As trs linhas que representam as trs equaes so apresentadas na Figura 2.2, onde ns percebemos que as trs linhas no tm um ponto comum de interseo. Para encontrar a melhor soluo aproximada, uma abordagem consiste em usar o mtodo dos mnimos quadrados, que consiste em buscar os valores de x1 e x2 que minimizam (x1 + 2x2 4)2 + (x1 x2 1)2 + (x1 + x2 2)2 = 0.
-
Material elaborado pelo Prof. Csar Gonalves de Lima
32
0
1
2
3
4
0 1 2 3 4 5x1
x2
Figura 2.2 Trs linhas representando as equaes do sistema do Exemplo 2.7(b)
Exemplo 2.7(c) Considere o sistema: x1 + x2 + x3 = 1
2x1 + x2 + 3x3 = 5 3x1 + 2x2 + 4x3 = 6
A terceira equao a soma das duas primeiras, mas a segunda no um mltiplo da primeira. Assim rank(A) = 2 = rank[A, c] e o sistema consistente. Resolvendo as duas primeiras equaes para x1 e x2 em termos de x3, ns obtemos:
x1 = 2x3 + 4, x2 = x3 3 O vetor soluo pode ser expresso como:
x =
+
3
3
3
342
x
x
x
= x3
112
+
034
onde x3 uma constante arbitrria. Geometricamente, x uma linha representando a interseo dos dois planos correspondentes s duas primeiras equaes.
2.8. INVERSA GENERALIZADA Vamos considerar inversas generalizadas daquelas matrizes que no tm inversas no sentido usual [ver (2.45)]. Uma soluo de um sistema consistente de equaes Ax =c pode ser expresso em termos de uma inversa generalizada de A.
2.8.1 Definio e Propriedades Uma inversa generalizada de uma matriz A nxp qualquer matriz A, que satisfaz:
AAA = A (2.57)
-
Material elaborado pelo Prof. Csar Gonalves de Lima
33 Uma inversa generalizada no nica exceto quando A no-singular, neste caso A = A1. Uma inversa generalizada que satisfaz (2.57) tambm chamada de inversa condicional.
Toda matriz (quadrada ou retangular) tem uma inversa condicional. Isso ga-rantido mesmo para vetores. Por exemplo:
x =
4321
ento 1x = [1, 0, 0, 0] uma inversa generalizada de x que satisfaz (2.57). Outros exemplos so 2x = [0, 1/2, 0, 0], 3x = [0, 0, 1/3, 0] e 4x = [0, 0, 0, 1/4]. Para cada ix , ns temos que:
x ix x = x 1 = x, i = 1, 2, 3. Nessa ilustrao, x um vetor coluna e ix um vetor linha. Esse modelo generali-zado no seguinte teorema.
Teorema 2.8A. Se A nxp ento qualquer inversa generalizada A pxn.
Exemplo 2.8.1. Seja:
A =
423101322
(2.58)
Como a terceira linha de A a soma das duas primeiras linhas, e a segunda linha no um mltiplo da primeira, o rank(A) = 2. Sejam
1A =
000012/1010
,
2A =
0002/12/30010
(2.59)
Facilmente podemos verificar que A 1A A = A e A
2A A = A.
Teorema 2.8B. Suponha que A nxp de posto r e que A particionada como
A =
2221
1211
AAAA
Onde A11 rxr de posto r. Ento a inversa generalizada de A dada por
A =
A 111
Onde as trs matrizes nulas 0 tm dimenses apropriadas para que A seja pxn. (Ver prova na pg. 30 no livro do Rencher)
-
Material elaborado pelo Prof. Csar Gonalves de Lima
34 Corolrio 1. Suponha A (nxp) de posto r e que A particionado como no Teorema 2.8B, onde A22 rxr de posto r. Ento a inversa generalizada de A dada por
A =
122A000
onde as trs matrizes nulas so de dimenses apropriadas, tais que A pxn.
A submatriz no-singular no precisa estar na posio A11 ou A22, como no Teorema 2.8B e no seu corolrio. O Teorema 2.8B pode ser estendido para o seguinte algoritmo para encontrar uma inversa condicional A, para qualquer matriz A (nxp) de posto r [ver Searle, 1982, p.218]:
1. Encontre qualquer submatriz no-singular C(rxr). No necessrio que os ele-mentos de C ocupem posies (linhas e colunas) adjacentes em A.
2. Encontre C1 e a sua transposta (C1). 3. Substitua em A os elementos de C pelos elementos de (C1). 4. Substitua todos os outros elementos de A por zeros. 5. Transponha a matriz resultante.
Exemplo. Calcular uma inversa generalizada (condicional) de X =
101101011011
Usando o algoritmo de Searle (e lembrando que o posto da matriz X 2), escolhemos convenientemente:
C =
1001
C1 =
1001
(C1) =
1001
000100010000
X =
010000100000
uma inversa condicional de X
Vale lembrar que escolhendo outras matrizes C e usando o algoritmo, podemos en-contrar outras inversas condicionais de X.
Teorema 2.8C. Seja A (nxp) de posto r, seja A uma inversa generalizada de A e seja (AA) uma inversa generalizada de AA. Ento: (i) posto(AA) = posto(AA) = posto(A) = r.
-
Material elaborado pelo Prof. Csar Gonalves de Lima
35 (ii) (A) uma inversa generalizada de A; isto (A) = (A). (iii) A = A(AA)AA e A = AA(AA)A. (iv) (AA)A uma inversa generalizada de A, isto , A = (AA)A. (v) A(AA)A simtrica, rank[A(AA)A] = r e invariante escolha de
(AA); isto , A(AA)A permanece a mesma, para qualquer (AA).
Uma inversa generalizada de uma matriz simtrica no necessariamente si-mtrica. Entretanto, tambm verdade que uma inversa generalizada simtrica de uma matriz simtrica, sempre pode ser encontrada; ver Problema 2.45. Neste livro, ns assumimos que as inversas generalizadas de matrizes simtricas tambm so simtricas.
Alm da inversa generalizada (condicional) definida em (2.57) existem outras, como a inversa de mnimos quadrados (Amq) e a inversa de Moore-Penrose (A+) que muito til em demonstraes envolvendo modelos lineares.
Definio: Dada a matriz A(nxp) ento toda matriz mqA (pxn) que satisfaz as duas condies seguintes, uma inversa de mnimos quadrados da matriz A: (a) AAmqA = A (b) AAmq uma matriz simtrica
Teorema. Toda matriz do tipo Amq = (AA)A uma inversa de mnimos qua-drados de A [qualquer que seja a inversa condicional (AA)].
Exemplo. Obter uma inversa de mnimos quadrados de X =
101101011011
Primeiramente calculamos XX =
202022224
. Escolhendo C =
2002
e usando o al-
goritmo de Searle, obtemos:
(XX) =
5,00005,00000
-
Material elaborado pelo Prof. Csar Gonalves de Lima
36 Ento uma inversa de mnimos quadrados de X igual a:
Xmq = (XX)X =
5,05,000005,05,00000
Vale observar que escolhendo outras matrizes C e, correspondentemente, cal-culando outras inversas condicionais de XX, podemos encontrar outras inversas de mnimos quadrados da matriz X.
Definio: Dada a matriz A (nxp) de posto r, ento a matriz A+(pxn), de posto r, que satisfaz s quatro condies seguintes, definida como a inversa generalizada de Moore-Penrose da matriz A: (a) AA+A = A (b) A+AA+ = A+ (c) A A+ simtrica (d) A+A simtrica
Teorema 2. Para cada matriz A (nxp) existe sempre uma e s uma matriz A+ que satisfaz as condies de Moore-Penrose.
A obteno da inversa de Moore-Penrose bastante trabalhosa. Geralmente elas so obtidas atravs de algum pacote estatstico. No proc iml do SAS, por exemplo, ela obtida com o comando ginv.
2.8.2. Inversas Generalizadas e Sistemas de Equaes Uma soluo para um sistema de equaes pode ser expressa em termos de uma in-versa generalizada.
Teorema 2.8D. Se o sistema de equaes Ax = c consistente e se A uma inversa generalizada de A, ento x = Ac uma soluo. Ver prova na pg.32 do livro do Rencher.
Vale lembrar mais uma vez que diferentes escolhas de A, resultaro em diferentes solues para Ax = c.
-
Material elaborado pelo Prof. Csar Gonalves de Lima
37 Teorema 2.8E. Se o sistema de equaes Ax = c consistente, ento todas as poss-veis solues podem ser obtidas das duas seguintes maneiras: (i) Use uma A especfica em x = Ac + (I AA)h e use todos os possveis valo-
res para o vetor arbitrrio h. (ii) Use todas as possveis inversas A em x = Ac. Ver prova em Searle (1982, p.238)
Uma condio necessria e suficiente para que o sistema Ax = c seja consistente pode ser dado em termos de uma inversa generalizada (ver Graybill 1976, p.36).
Teorema 2.8F. O sistema de equaes Ax = c consistente se e somente se para qualquer inversa generalizada A de A
AAc = c. Ver prova na pg. 33 do livro do Rencher.
Observe que o Teorema 2.8F fornece uma alternativa ao Teorema 2.7A para decidir se um sistema de equaes consistente.
2.9. DETERMINANTES O determinante de uma matriz A (nxn) uma funo escalar de A definida como a soma algbrica de todos os seus n! possveis produtos elementares. Denota-se geral-mente por
(A) = | A | = det(A) = =
!
1
n
iip
Cada produto elementar do tipo pi = a1_ a2_ a3_ an_ em que, nos espaos (ndices) so colocados os nmeros de alguma permutao simples do conjunto {1, 2, , n}.
Em cada produto pi existe um e um s elemento de cada linha e coluna. Cada produto elementar recebe o sinal + ou , conforme o nmero de inverses
envolvidas em pi seja par ou mpar, respectivamente.
Essa definio no muito til para calcular o determinante de uma matriz, exceto para o caso de matrizes 2x2 ou 3x3. Para matrizes maiores, existem programas espe-cficos (proc iml do SAS, Mapple e MathCad por exemplo) para calcular os deter-minantes.
-
Material elaborado pelo Prof. Csar Gonalves de Lima
38
Exemplo. Seja a matriz A =
333231
232221
131211
aaa
aaa
aaa
=
765413102
Como n = 3, temos 3! = 6 permutaes, a saber:
i pi Permutao No de inverses Sinal Valor de pi 1 a11 a22 a33 1 2 3 0 + +p1 = 14 2 a11 a23 a32 1 3 2 1 p2 = 48 3 a12 a21 a33 2 1 3 1 p3 = 0 4 a12 a23 a31 2 3 1 2 + +p4 = 0 5 a13 a21 a32 3 1 2 2 + +p5 = 18 6 a13 a22 a31 3 2 1 3 p6 = 5
det(A) = =
6
1iip = 49
Teorema 2.9A.
(i) Se D = diag(d1, d2, , dn) ento det(D) = =
n
iid
1
(ii) O determinante de uma matriz triangular o produto dos elementos da diagonal. (iii) Se A singular, det(A) = 0. Se A no-singular, det(A) 0. (iv) Se A positiva definida, det(A) > 0. (v) det(A) = det(A) (vi) Se A no singular, det(A1) = 1/det(A) Teorema 2.9B. Se a matriz A particionada como
A =
2221
1211
AAAA
,
e se A11 e A22 so quadradas e no singulares (mas no necessariamente do mesmo tamanho) ento
det(A) = |A11| |A22 A21(A11) 1A12| (2.70) = |A22| |A11 A12(A22) 1A21| (2.71)
Note a analogia de (2.70) e (2.71) com o caso do determinante de uma matriz A, 2x2: det(A) = a11 a22 a21 a12 = a11 (a22 a21 a12/ a11) = a22 (a11 a12 a21/ a22)
-
Material elaborado pelo Prof. Csar Gonalves de Lima
39 (ver os Corolrios 1 a 4 nas pginas 35 e 36 do livro do Rencher)
Teorema 2.9C. Se A e B so quadradas e de mesmo tamanho, ento o determinante do produto igual ao produto dos determinantes:
|AB| = |A| |B| (2.76)
Corolrio 1. |AB| = |BA| (2.77)
Corolrio 2. |A2| = |A|2 (2.77)
2.10. VETORES ORTOGONAIS E MATRIZES Dois vetores nx1 a e b so ditos ortogonais se
a'b = a1b1 + a2b2 + + anbn = 0 (2.79) Note que o termo ortogonal se aplica aos dois vetores e no a um nico vetor. Geometricamente, dois vetores ortogonais so perpendiculares um ao outro. Para mostrar que os vetores a e b so perpendiculares podemos calcular o ngulo formado entre eles.
cos() = ))(( bb'aa'ba'
(2.80)
Quando = 90, ab = 0 porque cos(90) = 0. Assim a e b so perpendiculares quan-do ab = 0.
Exemplo. Sejam os vetores a =
24
e b =
21
. Ento ab = 0 cos() = 0 o n-gulo formado entre eles de 90, ou seja, os vetores a e b so perpendiculares.
Se aa = 1, dizemos que o vetor a est normalizado. Um vetor b pode ser nor-malizado dividindo-o pelo seu comprimento (ou norma), bb' . Assim
c = bb'
b (2.81)
est normalizado, porque cc = 1.
-
Material elaborado pelo Prof. Csar Gonalves de Lima
40 Um conjunto de vetores c1, c2,, cp de dimenses px1 que so normalizados (cici = 1, para toto i) e mutuamente ortogonais (cicj = 0, para todo i j) dito ser um conjunto ortonormal de vetores. Se a matriz C = [c1, c2,, cp] pxp tem colunas orto-gonais e normalizadas, C chamada matriz ortonormal. Desde que os elementos de CC so produtos de colunas de C [ver Teorema 2.2C(i)], uma matriz ortonormal C tem a propriedade:
CC = I (2.82)
Pode ser mostrado que uma matriz ortonormal C tambm satisfaz CC = I (2.83)
Assim, uma matriz ortonormal C tem linhas ortonormais como tambm colunas ortonormais. evidente que de (2.82) e (2.83), C = C1, se C ortonormal.
Exemplo 2.10. Para ilustrar uma matriz ortonormal, partimos de:
A =
111021111
Que tem colunas mutuamente ortogonais, mas que no so ortonormais. Para norma-lizar as trs colunas, ns as dividimos pelos seus respectivos comprimentos, 3 , 6 e 2 , obtendo assim a matriz:
C =
21613106231216131
cujas colunas so ortonormais. Note que as linhas de C tambm so ortonormais, tal que C satisfaz (2.83) e (2.82). A multiplicao de um vetor por uma matriz ortogonal tem o efeito de rotacio-nar os eixos; isto , se um ponto x transformado para z = Cx, onde C uma matriz ortonormal, ento a distncia da origem a z a mesma que a distncia da origem a x:
zz = (Cx)(Cx) = xCCx = xx (2.84) Aqui, a transformao de x para z uma rotao.
Teorema 2.10A. Se uma matriz C (pxp) ortonormal e se A (pxp) uma matriz qualquer, ento: (i) |C| = +1 ou 1 (ii) |CAC| = |A| (iii) 1 cij 1, onde cij qualquer elemento da matriz C
-
Material elaborado pelo Prof. Csar Gonalves de Lima
41 2.11. TRAO DE UMA MATRIZ O trao de uma matriz (nxn) A = (aij) uma funo escalar definida como a soma dos elementos da diagonal de A; isto ,
tr(A) = =
n
i iia1
Por exemplo, se A =
953632248
tr(A) = 8 + (3) + 9 = 14.
Teorema 2.11A. (i) Se A e B so (nxn) ento
tr(A B) = tr(A) tr( B) (2.85) (ii) Se A (nxp) e B (pxn), ento
tr(AB) = tr(BA) (2.86) Note que em (2.86) n pode ser menor, igual ou maior que p (iii) Se A (nxp)
tr(AA) = =
p
jj
tj