Apostila filho 2003 nota metodológica sobre modelos lineares mistos

32
UNIVERSIDADE FEDERAL DO PARANÁ DEPARTAMENTO DE ESTATÍSTICA Nota Metodológica sobre Modelos Lineares Mistos Professor Jomar Antonio Camarinha Filho CURITIBA - PARANÁ SETEMBRO/2003

Transcript of Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Page 1: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

UNIVERSIDADE FEDERAL DO PARANÁ

DEPARTAMENTO DE ESTATÍSTICA

Nota Metodológica sobre Modelos Lineares Mistos

Professor Jomar Antonio Camarinha Filho

CURITIBA - PARANÁ

SETEMBRO/2003

Page 2: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Mistos i

ÍNDICE

MODELOS LINEARES MISTOS ...............................................................................................................................1

1. INTRODUÇÃO.............................................................................................................................................................1

2. DERIVAÇÃO DAS EQUAÇÕES DE MODELOS MISTOS...........................................................................3

3. SOLUÇÕES PARA OS EFEITOS FIXOS E PREDIÇÕES DOS EFEITOS ALEATÓRIOS ...............5

3.1 ALGUMAS PROPRIEDADES DAS SOLUÇÕES PARA OS EFEITOS FIXOS................................................................. 7

3.2. ALGUMAS PROPRIEDADES DA PREDIÇÃO PARA OS EFEITOS ALEATÓRIOS...................................................... 9

4. ESPERANÇAS MATEMÁTICAS DOS QUADRADOS MÉDIOS .............................................................11

5. TESTES DE HIPÓTESES .......................................................................................................................................13

5.1. EFEITOS FIXOS....................................................................................................................................................... 13

5.2. EFEITOS ALEATÓRIOS........................................................................................................................................... 15

6. ESTIMAÇÃO DE COMPONENTES DE VARIÂNCIAS ..............................................................................16

6.1. DADOS BALANCEADOS................................................................................................................................ 16

6.2. DADOS DESBALANCEADOS ....................................................................................................................... 17

6.2.1 - MÉTODO ANOVA.....................................................................................................................................18

6.2.2 - MÉTODO I DE HENDERSON................................................................................................................18

6.2.3 - MÉTODO II DE HENDERSON ..............................................................................................................19

6.2.4 - MÉTODO III DE HENDERSON .............................................................................................................20

6.2.5 - MÉTODO DA MÁXIMA VEROSSIMILHANÇA - ML.........................................................................23

6.2.6 - MÉTODO DA MÁXIMA VEROSSIMILHANÇA RESTRITA - REML...............................................25

6.2.7 - ESTIMADOR QUADRÁTICO NÃO-VIESADO DE NORMA MÍNIMA-MINQUE ........................26

6.2.8 - ESTIMADOR QUADRÁTICO NÃO-VIESADO DE VARIÂNCIA MÍNIMA -MIVQUE ................27

6.2.9 - MÉTODO MINQUE ITERATIVO I-MINQUE (Iterative MINQUE) ...............................................27

BIBLIOGRAFIA.............................................................................................................................................................28

Page 3: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 1

MODELOS MISTOS

1. Introdução

Um modelo linear que apresenta somente fatores de efeitos fixos, além do erro

experimental, que é sempre aleatório, é denominado modelo fixo. Esse tipo de modelo já

foi amplamente estudado, existindo inúmeros livros abordando seus aspectos teóricos e

aplicados, em vários níveis de complexidade, pode-se citar: SEARLE (1971), que enfatiza

dados desbalanceados; RAO (1973), aspectos matemáticos; GRAYBILL (1976), dados

balanceados; NETER, WASSERMAN e KUTNER (1985), dentre outros.

Os modelos que apresentam apenas fatores de efeitos aleatórios, exceto a constante

µ, que é sempre fixa, é denominado modelo aleatório.

Um modelo misto é aquele que apresenta tanto fatores de efeitos fixos como

aleatórios, além do erro experimental e da constante µ.

Quando um modelo é considerado misto, sua análise de variância apresenta

algumas peculiaridades, como a composição das esperanças matemáticas dos quadrados

médios, cujo conhecimento permite o estabelecimento correto dos testes de hipóteses,

(HICKS, 1973). Caso o interesse do pesquisador resida na estimação dos componentes de

variância, métodos adequados devem ser utilizados (HENDERSON,1953;

CUNNINGHAM e HENDERSON, 1968; THOMPSON,1969; PATERSSON e

THOMPSON,1971).

Outro motivo de se adotar um modelo linear misto é a possibilidade de se fazer a

predição de efeitos aleatórios, na presença de efeitos fixos, através dos BLUP’s (best linear

unbiased prediction) que são de grande valia em genética e melhoramentos.

Para melhor compreensão das definições acima, considere o seguinte exemplo:

Suponha um experimento no qual são avaliados 5 híbridos de milho (a, b, c, d, e),

em 3 localidades no delineamento inteiramente casualizado com 4 repetições. Um modelo

para análise deste experimento pode ser:

ijkjiijk ey +γ+β+µ= no qual,

Richard
Realce
Richard
Nota
Mas adicionando tantas variáveis com erro aleatório, a confiança dos resultados não vai cair?
Page 4: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 2

yijk é o valor observado da parcela que recebeu a k-ésima repetição do tratamento i, no

local j;

µ é uma constante inerente a todas as observações;

β i é o efeito do híbrido i;

γj é o efeito do local j;

eijk é o erro aleatório associado a observação yijk .

Supõem-se que β i e γj são independentes.

Neste experimento estão sendo avaliados dois fatores: híbridos com cinco níveis e

locais com três níveis. Os efeitos desses fatores podem ser classificados como fixos ou

aleatórios, em função do interesse do pesquisador. Se um determinado fator é considerado

de efeito fixo, naturalmente, o interesse do pesquisador será estimar e testar hipóteses

sobre combinações lineares dos níveis do mesmo. Por outro lado, caso o efeito desse fator

seja considerado aleatório, o interesse residirá na estimação de componentes de variâncias

e covariâncias associada a esse fator, uma vez que seus níveis são considerados como

sendo uma amostra aleatória de certa população, a qual se deseja avaliar.

No intuito de ilustrar melhor esses conceitos, considere as seguintes situações

referentes ao experimento em questão:

i) O pesquisador deseja inferir qual, dentre os três locais estudados, apresenta melhor

produtividade. Note que ele está interessado apenas nos três locais estudados, e quer

saber qual deles é o melhor. Nesta situação, o efeito de locais é considerado fixo,

sendo então estimadas e testadas hipóteses sobre combinações lineares dos níveis

deste fator, como por exemplo: β1 - β2 = 0 (se estimável).

ii) Uma outra possibilidade a ser considerada é o caso do pesquisador estar interessado

apenas em verificar se existe uma variabilidade entre os locais, em relação à produção

de milho. Neste caso, os níveis estudados (três locais) são apenas uma amostra

aleatória da população de locais nos quais poder-se-ia plantar milho. Nessa situação, o

efeito de locais é considerado aleatório, não havendo portanto interesse em se testar

combinações lineares de seus níveis, mas sim, estimar e testar sua variabilidade (por

meio de seus componentes de variância).

No exemplo anterior, suponha que o pesquisador esteja interessado em verificar

qual o melhor dos híbridos avaliados e se existe uma variabilidade de sua produção em

Richard
Nota
Aplicando esses parâmetros ao trabalho dos ratos, quais seriam os erros aleatórios associados? (eles não são infinitos?) - Ou somente considerar o efeito da falta de repetição anual?
Richard
Realce
Page 5: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 3

relação ao local onde foi cultivado, nesse caso ter-se-ia um modelo misto com híbridos

fixo e locais aleatório.

2. Derivação das equações de modelos mistos

Seja o modelo:

ijkjiijk ey +γ+β+µ= ,

no qual

ijky é a observação referente à k-ésima repetição do nível i de uma fonte de efeitos fixos ao

nível j de uma fonte de efeitos aleatórios;

µ é uma constante inerente a todas observações;

iβ é o efeito do nível i do fator fixo; i = 1, ..., p;

jγ é o efeito do nível j, do fator aleatório, no nível i do fator fixo, j = 1, ..., q;

ijke é erro aleatório associado a observação ijky .

Que em termos matriciais pode ser escrito como:

eZXy +γ+β=

em que,

ny1 é o vetor de observações;

nXp+1 é a matriz de incidência dos efeitos fixos (conhecida);

p+1β1 é o vetor de efeitos fixos desconhecidos;

nZq é a matriz de incidência dos efeitos aleatórios (conhecida);

qγ1 é o vetor de efeitos aleatórios desconhecidos;

ne1 é o vetor de erros aleatórios.

Assumindo-se que os efeitos aleatórios e os erros (resíduos) têm distribuição

normal com média zero e são não correlacionados, com matrizes de variâncias e

covariâncias dadas por:

Var (γ) = E(γγ’) = D e

Richard
Realce
Richard
Nota
Se assume para todos os erros esperados a distribuição normal padrão?
Page 6: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 4

Var (e) = E(ee’) = R

Deste modo, tem-se que:

V = Var (y) = Var ( eZX +γ+β ) = ZDZ’+ R

Assume-se ainda que V é não singular, e

E(y) = E( eZX +γ+β ) = Xβ ,

assim,

)R'ZDZ;X(N~y +β

A derivação das equações de modelos mistos pode ser feita pela minimização da

soma de quadrados dos resíduos ou pela maximização da função densidade de

probabilidade conjunta de y e γ. Aqui será adotada a segunda forma, considerando que a

distribuição seja normal.

A função densidade de probabilidade de y é dada por:

( )[ ]

( )( ) ( )[ ]β−+β− −−

+π=γ xYR'ZDZ'Xy

2/12/n

12

1e

R'ZDZ)2(

1,yf

A função densidade de probabilidade conjunta de y e γ pode ser escrita como o

produto entre a função densidade condicional de y, dado γ, e a função densidade de

probabilidade de γ.

)(f)/y(f),y(f γ⋅γ=γ

[ ] [ ])0()D()'0()ZXy()R()'ZXy( 12

1

21

21

12

1

21

2n

e]D[)2(

1e

]R[)2(

1),y(f −γ−γ−γ−β−γ−β−− −−

π⋅

π=γ

Para se proceder à maximização de f(y,γ), pode-se usar o artifício da transformação

por logaritmo. Isso é possível, visto que, sendo f(y,γ) e log [f(y,γ)] funções contínuas e

crescentes no espaço R+, seus pontos de máximo são coincidentes dentro do espaço de

[β’γ’] e ZDZ’+ R. Assim, fazendo-se L= log[f(y,γ)], tem-se:

Page 7: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 5

)D'ZR'Z'XR'X'

ZR'X'2ZR'y2XR'y2yR'y(21

)DlogR(log21

)2log(n221

L

111

1111

γγ+γγ+ββ+

γβ+γ−β−−+−π=

−−−

−−−−

Derivando-se L em relação a β e γ, e tornando-se tais derivadas identicamente

nulas, obtêm-se:

=

γ+γ+β+−

γ+β+−=

γ∂∂

β∂∂

−−−−

−−−

0

0

ˆDˆZR'ZXR'ZyR'Z

ˆZR'XXR'XyR'X

L

L

11o11

1o11

=

γ+γ+β−

γ+β−

−−−

−−

yR'Z

yR'X

ˆDˆZR'ZXR'Z

ˆZR'XXR'X1

1

11o1

1o1

=

γβ

+γ− −

−−−

−−

yR'Z

yR'X

ˆDˆZR'ZXR'Z

ZR'XXR'X1

1o

111

11

Essas são as equações de modelos mistos (MME), que permitem obter soluções

para os efeitos fixos (βo) e predições para os efeitos aleatórios ( γ )

3. Soluções para os efeitos fixos e predições dos efeitosaleatórios

A solução do sistema de equações de modelos mistos pode ser obtida por absorção

ou por obtenção da matriz inversa por partição. Em ambos os casos, os resultados serão:

{ } y]R'Z)DZR'Z(ZRR['XX]R'Z)DZR'Z(ZRR['X 111111111111o −−−−−−−−−−−−− +−+−=β

)Xy(R'Z)DZR'Z(ˆ o1111 β−+=γ −−−− .

Page 8: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 6

Outra alternativa para se obter soluções para os efeitos fixos é pelo uso de um

modelo linear generalizado, ignorado-se os efeitos aleatórios, como a seguir:

Dado o modelo

eZXy +γ+β= ,

anteriormente descrito, e com Var (y) = ZDZ’+ R, tem-se que o sistema de equações

normais generalizada é dado por:

yV'XXV'X 1o1 −− =β ,

cuja solução é:

yV'X)XV'X( 11o −−−=β

e a predição de γ seria obtida por:

)Xy(V'DZˆ o1 β−=γ −

V-1 = R-1- R-1Z(Z’R-1Z +D-1)-1Z’R-1

Segundo SEARLE (1971), a desvantagem de se utilizar a segunda opção, que

envolve o cálculo de V-1 é de ordem computacional, uma vez que a dimensão de V é igual

ao número de observações, que muitas das vezes, principalmente na área de melhoramento

genético, chega a ser de algumas centenas. No caso de modelos fixos, V usualmente

assume a forma Inσ2 ou, é pelo menos diagonal. Nesse caso a obtenção de V-1 é simples.

Mas em geral, V = ZDZ’+R não é diagonal, e deste modo a obtenção de V-1 não é fácil.

Segundo MARTINS et all. (1993), obter R-1Z(Z’R-1Z+D-1)-1Z’R-1 é mais simples. Pois R-1

pode ser facilmente obtida por 10RI −⊗ , onde R0 é a matriz de variância e covariância

residual q x q, entre as q médias que compõem uma observação. D-1 por 1o

1 DA −− ⊗ , em

que Do é a matriz de variância e covariância, q x q, entre os efeitos aleatórios nas q

medidas que compõem uma observação, e A é a matriz de correlação, n x n, entre os

efeitos aleatórios das n observações. Apesar da matriz A não possuir estrutura simples,

como ocorre na maioria das vezes, para aplicações em melhoramento animal, existem

Page 9: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 7

algoritmos eficientes para obtenção direta de A-1 (HENDERSON, 1975; 1976 e 1988;

QUAAS, 1976). Mesmo assim persiste a necessidade de se obter (Z’R-1Z + D-1)-1 , que, a

despeito de possuir as mesmas dimensões de V, pode ser obtida por processos iterativos

com a vantagem de rápida convergência em razão da dominância dos elementos da

diagonal causada pela adição de D-1 a Z’R-1Z. Nos casos de distribuição multivariada,

elementos dominantes podem estar fora da diagonal. Nesses casos, processos que usam

iteração em blocos garantem a rápida convergência, porque os elementos dominantes

passarão a estar nos blocos (QUAAS e POLLAK, 1980).

3.1 Algumas propriedades das soluções para os efeitos fixos

a) A solução βo, obtida pelas MME é também uma solução de Mínimos Quadrados

Generalizados (GLS), utilizando o modelo que ignora os efeitos aleatórios.

Prova:

Foi visto que uma solução de mínimos quadrados generalizados para y = Xβ + e é:

yV'X)XV'X( 11o −−−=β .

Das equações de modelos mistos (MME),

=

γβ

+γ− −

−−−

−−

yR'Z

yR'X

ˆDˆZR'ZXR'Z

ZR'XXR'X1

1o

111

11

,

tem-se que:

{ } y]R'Z)DZR'Z(ZRR['XX]R'Z)DZR'Z(ZRR['X 111111111111o −−−−−−−−−−−−− +−+−=β

)Xy(R'Z)DZR'Z(ˆ o1111 β−+=γ −−−− ,

substituindo γ em:

yR'XˆZR'XXR'X 11o1 −−− =γ+β ,

Page 10: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 8

tem-se:

yR'X)Xy(R'Z)DZR'Z(ZR'XXR'X 1o11111o1 −−−−−−− =β−++β

yR'XXR'Z)DZR'Z(ZR'XyR'Z)DZR'Z(ZR'XXR'X 1o1111111111o1 −−−−−−−−−−−− =β+−++β

y]R'Z)DZR'Z(ZR'XR'X[]XR'Z)DZR'Z(ZR'XXR'X[ 111111o111111 −−−−−−−−−−−− +−=β+−

y]R'Z)DZR'Z(ZRR['XX]R'Z)DZR'Z(ZRR['X 111111o111111 −−−−−−−−−−−− +−=β+−

y]R'Z)DZR'Z(ZRR['X}X]R'Z)DZR'Z(ZRR['X{ 111111111111o −−−−−−−−−−−−− +−+−=β

sabendo-se que 1111111 R'Z)DZR'Z(ZRRV −−−−−−− +−= , (HENDERSON et all, 1959)

então,

yV'X)XV'X( 11o −−−=β

b) A variância de βo e dada por:

]yV'X)XV'X[(Var)(Var 11o −−−=β .

= (X’V-1X)-X’V-1Var(y)V-1X(X’V-1X)-

= (X’V-1X)-X’V-1VV-1X(X’V-1X)-

= (X’V-1X)-X’V-1X(X’V-1X)-

Uma vez que X’V-1X é uma matriz simétrica, a escolha apropriada de uma inversa

generalizada também simétrica, leva à igualdade (SEARLE, 1971):

= (X’V-1X)-X’V-1X(X’V-1X)- = (X’V-1X)- ,

Page 11: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 9

e assim,

−−=β )XV'X()(Var 1o = {X’[R-1-R-1Z(Z’R-1Z+ D-1)-1Z’R-1]X}-

= [X’R-1-X’R-1Z(Z’R-1Z+ D-1)-1Z’R-1X]-.

c) Para um dado conjunto p de funções estimáveis, linearmente independentes,

estabelecidas por uma matriz conhecida λ, a variância de λ’βo, (BLUE) de λ’β é dada

por:

Var (λ’βo) = λ’Var (βo) λ

= λ’ [(X’V-1X)-X’V-1X(X’V-1X)-] λ

= λ’ [X’R-1-X’R-1Z(Z’R-1Z+ D-1)-1Z’R-1X]- λ .

3.2. Algumas propriedades da predição para os efeitos aleatórios

a) O preditor γ é o Melhor Preditor Linear Não-Viesado (BLUP) de γ.

Segundo MARTINS et all. (1993), o termo predição refere-se a fatores aleatórios e

a Melhor Predição Linear Não-Viesada pode ser, resumidamente, definida como resultado

da regressão dos efeitos de um fator aleatório (γ) em função das observações (y) corrigidas

para os efeitos dos fatores fixos (Xβ), como dado na seguinte expressão;

γ = DZ’(ZDZ’ + R)-1(y - Xβo)

= DZ’V-1(y - Xβo)

Observa-se que o termo DZ’(ZDZ’ + R)-1 é o conjunto de coeficientes de regressão

de γ em função de y, uma vez que DZ’ é a matriz de covariâncias entre γ e y. (ZDZ’ + R)-1

Page 12: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 10

é a inversa da matriz de variância de y, enquanto o termo (y - Xβo) contém os valores das

observações, y, corrigidas para os efeitos fixos Xβ .

Pelas MME, γ é dado por

γ = (Z’R-1Z + D-1)-1Z’R-1(y - Xβo).

Então, se a igualdade:

DZ’(ZDZ’+ R)-1 = (Z’R-1Z + D-1)-1Z’R-1

for verdadeira, γ , obtido pelas MME, é o BLUP de γ. A prova desta igualdade foi

apresentada por HENDERSON et all. (1959).

b) A variância de γ é dada por

Var ( γ ) = Var [DZ’V-1(y - Xβo)]

= DZ’V-1Var(y - Xβo)V-1ZD’

= DZ’V-1[Var(y) - 2Cov(y,βo’X’) + Var (Xβo)] V-1ZD’;

mas Cov (y,βo’X’) = Var (Xβo); então,

Var( γ ) = DZ’V-1[Var(y) - Var (Xβo)] V-1ZD’

= DZ’V-1[V - X(X’V-1X)- X’ ] V-1ZD’

= DZ’ [V-1 - V-1 X(X’V-1X)- X’ V-1]ZD’

Pode-se notar que a expressão

V-1 - V-1 X(X’V-1X)- X’ V-1

é o complemento do projetor ortogonal de y no espaço coluna de X, o que significa que

Page 13: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 11

[V-1 - V-1 X(X’V-1X)- X’ V-1]y = y - Xβo

obs. V-1 = R-1- R-1Z(Z’R-1Z +D-1)-1Z’R-1

c) A variância do erro de predição é dada por:

Var (γ - γ ) = Var (γ ) - 2 Cov (γ, γ ’) + Var( γ ),

mas, Cov (γ, γ ’) = Var( γ ), então,

Var (γ - γ ) = Var (γ ) - Var( γ )

= D - DZ’ [V-1 - V-1 X(X’V-1X)- X’ V-1]ZD’

d) A correlação entre os valores reais e preditos é máxima.

Segundo HENDERSON (1977 e 1984) dentre uma classe de funções lineares que

gera predições não viciadas, o BLUP maximiza a correlação (γ - γ ) .

4. Esperanças matemáticas dos quadrados médios

Dado o modelo:

y = Xβ + e,

com Var(y) = V,

tem-se que a esperança de uma forma quadrática y’Qy é dada por:

E(y’Qy) = tr (QV) + E(y’)QE(y).

SEARLE (1971) apresenta a dedução da expressão da esperança matemática de uma forma

quadrática para modelos mistos, como mostrado a seguir

Dado o modelo misto:

Y=Xθ + e,

Page 14: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 12

Em que θ’ = [β’1 γ’A γ’B ... γ’k ]

No qual,

β’1 contém todos os efeitos fixos do modelo, inclusive a constante (µ)

γ’ representa um conjunto de efeitos aleatórios dos fatores A, B, ... , K respectivamente,

este modelo pode ser escrito na forma:

y = X1β1 + XA γA + XB γB ... XK γk + e

eXXyk

Aiii11 +γ+β= ∑

=

Assumindo-se que os efeitos do modelo são independentes, com média zero e

covariâncias entre os efeitos aleatórios nulas, tem-se que:

E(y) = X1β1

V = Var(y) = 2k

Ai

|'iii IX)(VarX σ+γ∑

=

Assumindo-se que os efeitos aleatórios são não correlacionados e têm variâncias

uniformes ( 2iσ ), então,

V = Var(y) = 2k

Ai

2i

|'ii IXX σ+σ∑

=

,

E a esperança matemática de uma forma quadrática y’Qy é;

E(y’Qy) = (X1β)’QX1β + )Q(tr)XX(tr 2k

Ai

|'ii

2i σ+σ∑

=

A partir da expressão acima, torna-se possível a obtenção das esperanças

matemáticas dos quadrados médios, que são de grande valia na determinação dos

Page 15: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 13

testadores adequados para as hipóteses tanto sobre efeitos aleatórios quanto fixos, nos

modelos mistos.

5. Testes de hipóteses

Conhecendo-se as expressões das esperanças matemáticas dos quadrados médios,

pode-se facilmente identificar os quadrados médios dos denominadores (testadores),

quando da realização do teste F. Uma vez que a esperança do quadrado médio do

denominador apropriado deve ser aproximadamente igual à esperança do quadrado médio

do numerador, a menos do efeito a ser testado, como exemplificado a seguir:

F. V. E (QM)

A 2A

2AB

2 7143,1 φ+σ+σ

B 2B

2AB

2 6526,27684,1 σ+σ+σ

A*B 2AB

2 7143,1 σ+σ

Resíduo 2σ

Para se testar 2Aφ = 0 o denominador apropriado será o QM (A*B). Para se testar

se 02AB =σ o denominador adequado será o QMRes.

Outras alternativas são:

5.1. Efeitos fixos

Para inferências relativas aos parâmetros de efeitos fixos e aleatórios no modelo

misto, considera-se as combinações lineares estimáveis da seguinte forma:

γβ

L .

Funções dessa natureza são ditas estimáveis se a parte fixa β satisfaz a exigência de

estimabilidade, uma vez que qualquer combinação linear de γ é estimável. Tipicamente,

Page 16: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 14

inferência sobre efeitos fixos é o foco e neste caso, a porção γ de L é assumida igual a

zero.

Inferências estatísticas são obtidas para testar as hipóteses:

φ=

γβ

L:H

ou para a construção de intervalos estimados.

Quando L consiste de apenas uma linha, uma estatística t pode ser construída como

segue:

'LCL

ˆ

ˆL

t

γβ

=

Sob a pressuposição de normalidade de γ e ε , t tem uma distribuição t exata

somente para dados exibindo certos tipos de balanceamento e para alguns casos especiais

desbalanceados. Em geral t é somente aproximadamente distribuída e seus graus de

liberdade devem ser estimados.

Se considerarmos ν como graus de liberdade estimado, o intervalo de confiança

associado é o seguinte:

'LCLtˆ

ˆL 2/,ˆ αν±

γβ ,

em que, 2/,ˆt αν é o percentil (1 - α/2)% da distribuição νt . Quando o rank de L é maior que

1, deve-se considerar a seguinte estatística F :

( ))L(rank

ˆ

ˆLLC'L'L

ˆ

ˆ

F

1'

γβ

γβ

=

Análogo a t, F em geral tem uma distribuição F aproximada com rank (L) graus de

liberdade no numerador e ν graus de liberdade no denominador.

As estatísticas t e F permitem fazer inferências sobre os efeitos fixos, estimados

para o modelo de variância e covariância selecionado. Uma alternativa é a estatística 2χ

associado com o teste da razão de verossimilhança. Essa estatística compara dois modelos

com efeitos fixos, um como caso especial do outro. Ela só é calculada quando comparamos

diferentes modelos covariância, embora deva-se usar ML e não REML por que falta o

Page 17: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 15

termo associado com verossimilhança restrita que depende da especificação dos efeitos

fixos.

5.2. Efeitos aleatórios

Para inferências relativas aos parâmetros de efeitos aleatórios do modelo, pode-se

usar estatísticas fundamentadas na verossimilhança. Uma dessas estatísticas é a Z de Wald,

que é calculada com o parâmetro estimado dividido por seu erro padrão assintótico. Os

erros padrões assintóticos são obtidos a partir da inversa da matriz de derivada segunda da

verossimilhança, em relação a cada um dos parâmetros de efeito aleatório. A estatística Z

de Wald é válida para grandes amostras, mas ela pode ser incerta para pequenos conjuntos

de dados e para parâmetros tais como componentes de variância, que apresentam uma

distribuição assimétrica ou distribuição amostral limite.

Uma alternativa melhor é a razão de verossimilhança 2χ . Essa estatística compara

dois modelos de covariância, um como caso especial do outro. Para realizar esse teste,

ajusta-se o modelo completo e o modelo reduzido e então subtrai-se os valores

correspondentes a -2 vezes o log verossimilhança. Pode-se usar o ML ou REML para

construir esta estatística que testa se o modelo completo é melhor do que o modelo

reduzido.

A estatística 2χ calculada desta forma tem uma distribuição amostral, que é 2χ ,

sendo que os graus de liberdade são dados pela diferença no número de parâmetros entre

os dois modelos. Um exemplo comum desse caso ocorre no teste para se verificar se um

componente de variância é igual a 0.

Uma possibilidade final para obter inferências relativas aos parâmetros de

covariância é simular ou reamostrar dados do modelo e construir distribuições amostrais

empíricas dos parâmetros.

Page 18: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 16

6. Estimação de componentes de variâncias

Componentes de variância são as variâncias associadas aos efeitos aleatórios de um

modelo, sendo que o seu conhecimento é de grande importância em genética e

melhoramento, pois a população e o método de melhoramento a serem utilizados

dependem de algumas informações que podem ser obtidas a partir desses componentes.

No caso de modelos mistos, a solução das MME, depende do conhecimento da

matriz de variâncias e covariâncias V, cuja estrutura é conhecida, porém, via de regra, seus

componentes não o são. Desse modo, torna-se necessário substituí-los por suas estimativas.

Existem vários métodos de estimação de componentes de variâncias, dentre os

quais podemos destacar: o Método da Análise da Variância, os Métodos de Henderson,

MINQUEO, MIVQUE, Máxima Verossimilhança (ML) e Máxima Verossimilhança

Restrita (REML).

Considerando-se que a estimação dos componentes de variância é um tópico muito

extenso e complexo para um relato completo e detalhado, optou-se por apresentar nesse

trabalho um breve levantamento dos métodos disponíveis na literatura. Começando com

dados balanceados, por ser o caso mais simples, e fornecendo subsídios para muitas

metodologias para o tratamento de dados desbalanceados. Para um estudo mais

aprofundado recomenda-se SEARLE (1992).

6.1. DADOS BALANCEADOS

A estimação dos componentes de variância para dados balanceados é quase sempre

feita pelo método da análise de variância, ANOVA. Esse método obtêm estimadores

igualando-se as somas de quadrados, ou quadrados médios, de um quadro de análise de

variância aos seus respectivo valores esperados, que são combinações lineares dos

componentes de variância. Portanto, esse método produz equações lineares dos

componentes de variância, cujas soluções são tomadas como os estimadores dos referidos

componentes.

A aplicação do método ANOVA para dados balanceado, para qualquer modelo é

direta e detalhes para muitos casos particulares estão disponíveis em diversos textos. Em

quase todos os casos os cálculos exigidos são fáceis. Além disso, nenhuma suposição da

Page 19: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 17

distribuição dos dados, além das suposições básicas sobre as variâncias e covariâncias já

mencionadas é exigida.

Os estimadores ANOVA apresentam muitas propriedades, são sempre não-viesados

e têm variância mínima. Como uma desvantagem pode-se citar o fato de que esse método

não exclui a ocorrência de estimativas negativas. Claramente, uma estimativa negativa de

um parâmetro, uma variância, que por definição é positiva é um "embaraço". Contudo, isso

pode acontecer até mesmo com dados reais. Maiores detalhes dessas e outras propriedades

dos estimadores são apresentadas em SEARLE (l971 e 1987).

6.2. DADOS DESBALANCEADOS

O principal problema com a estimação dos componentes de variância para dados

desbalanceados ocorre porque muitos métodos de estimação estão disponíveis e escolher

um deles pode não ser uma questão tão simples.

Em decorrência do avanço tecnológico, da facilidade em adquirir e utilizar os

recursos da área de informática, a escolha prática tem estado entre um dos dois métodos

fundamentados na máxima verossimilhança, até que ocorra maior aceitação de outras

metodologias.

Serão apresentados, resumidamente, os seguintes métodos:

*ANOVA Análise de Variância

*Método de Henderson I

*Método de Henderson II

*Método de Henderson III

*ML: Máxima Verossimilhança

*REML: Máxima Verossimilhança Restrita

*MINQUE: Estimador Quadrático Não-Viesado de Norma Mínima

*MIVQUE. Estimador Quadrático Não-Viesado de Variância Mínima

* I-MINQUE: Estimador Quadrático Não-Viesado de Norma Mínima Iterativo

Page 20: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 18

6.2.1 - MÉTODO ANOVA

O princípio do método ANOVA usado com dados balanceados pode ser

generalizado para dados desbalanceados. A generalização é usar qualquer forma quadrática

em lugar das somas de quadrados.

Seja o vetor de componentes de variância que serão estimados e seja q um vetor da

mesma ordem de σ2, de qualquer forma quadrática linearmente independente das

observações. Suponha que q é tal que:

E(q) = Cσ2

para alguma matriz C não singular,

σ2 = C-1q

é um estimador não-viesado de σ2.

A matriz de dispersão de 2σ é:

( ) ( ) ′=σ −− 112 CqvarCˆvar

em que os elementos de var (q) são variâncias e covariâncias das formas quadráticas

usadas como elementos de q. SEARLE (l987) apresenta esse método e discute as suas

vantagens e desvantagens.

6.2.2 - MÉTODO I DE HENDERSON

HENDERSON (1953) descreve três métodos para estimar componentes de

variância que são exatamente três diferentes maneiras de usar o método ANOVA geral.

Eles diferem somente nas diferentes formas quadráticas que nem sempre são as somas de

quadrados usadas em q. Os métodos podem produzir estimativas negativas.

No método I, as formas quadráticas usadas são análogas às somas de quadrados

usadas para dados balanceados, a analogia é tal que somas de quadrados em dados

balanceados se tornam, para dados não balanceados, em formas quadráticas que não são

necessariamente, somas de quadrados, pois nem sempre são não negetivas, devido à

estrutura não balanceada dos dados. Assim, por exemplo, para o modelo:

ijkijjiijky ε+γ+β+α+µ=

com i = 1, 2, ..., I; j = 1, 2, ..., J; k = 1, 2, ..., n, as somas de quadrados,

Page 21: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 19

( ) 22

i

2i

i

yIJyJnyynJi ••••••••••

−=− ∑∑

se tornam, para dados desbalanceados,

( ) 22

ii

2i

ii ynynyyn

i ••••••••••••••−=− ∑∑

O Método I de Henderson utiliza o lado direito dessa equação.

A soma de quadrados para a interação, para dados balanceados é

( )∑ ∑∑ ∑∑∑ •••••••••••••••••+−−=+−−

i i j

2

j

2

i

22

j

2jiijij yIJnyInyJnynyyyyn

jiij

A expressão, análoga a esse lado direito, para dados desbalanceados, utilizada pelo

Método I de Henderson é:

∑∑ ∑ ∑ ••••••••••••+−−

i j i j

22jj

2ii

2ijij ynynynyn

O método I de Henderson consiste em igualar os quadrados médios às suas

esperanças matemáticas e resolver o sistema de equações formado. Esse método fornece

estimativas não-viesadas, com variância mínima, quando os dados são balanceados ou o

modelo é aleatório e os efeitos não correlacionados.

O método I de Henderson não pode ser usado para modelos mistos. Pode ser

adaptado a um modelo misto, alterando o modelo e tratando os efeitos fixos como não

existentes ou como aleatórios, neste caso os estimadores dos componentes de variância dos

verdadeiros efeitos aleatórios são não-viesados.

6.2.3 - MÉTODO II DE HENDERSON

O Método II de Henderson, é projetado para ter a facilidade computacional do

Método I e ampliar seu uso removendo a limitação do método I, que não pode ser usado

para modelos mistos. O método tem duas partes. Primeiro faz a suposição temporária que

os efeitos aleatórios são fixados, e para o modelo y = Xβ + Zγ + e como anteriormente

definido, resolve as equações normais:

′′

=

γβ

′′′′

yZ

yX

ˆºˆ

ZZXZ

ZXXX

Page 22: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 20

para βº. Então considera o vetor de dados ajustado para βº, isto é z = y - Xβº. Sob certas

condições, SEARLE (1968), o modelo para z será: z = lµº + Zγ + Ke em que µº difere de

µ e K é conhecido. Então aplica-se o Método I para z.

Portanto, o método II de Henderson, consiste em estimar, em primeiro lugar, os

efeitos fixos, então, aplica o Método I para os resíduos restantes. Para que os estimadores

resultantes sejam não tendenciosos. É necessário que os resíduos dependam apenas dos

fatores aleatórios, a menos de uma constante que pode ser incluída no modelo. SEARLE

(l968) fazendo estudo dos métodos de Henderson, mostrou as condições que deve

satisfazer um estimador dos efeitos fixos para que os resíduos não dependam desses

efeitos. Há dois inconvenientes nesse método. Um deles é o fato de não haver uma única

solução e outra limitação consiste em não poder adotar modelos que incluam interações

entre os efeitos fixos e aleatórios (SEARLE, 1968).

6.2.4 - MÉTODO III DE HENDERSON

O Método III de Henderson, também chamado método de ajuste de constantes, usa

as reduções nas somas de quadrados do modelo completo e de submodelos para estimar os

componentes de variância.

Para deduzir o método, considere o modelo

y = Xβº + Zγ + e = Wθ + e

A matriz W pode ser particionada como [W1W2], e θ' pode ser particionada como

[ ]21 θ′θ′ de acordo com W, ou seja o modelo é rescrito como:

y = W1θ1 + W2θ2 + e

Note que nenhuma suposição é feita sobre o particionamento de W e θ no que se

refere a efeitos fixos ou aleatórios.

Chamando R(θ1,θ2) e R(θ1), respectivamente, às respectivas reduções nas somas de

quadrados do modelo completo e do submodelo y = W1θ1 +e, tem-se:

Page 23: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 21

R(θ1θ2) = R(θ1,θ2) - R(θ1)

e portanto

E[R(θ1θ2) = E[R(θ1,θ2)] - E[R(θ1)]

Mas R(θ1,θ2) = y'W(W'W)-W'y e R(θ1) = y'W1(W1'W1)-W1y

Isto é,

R(θ1,θ2) e R(θ1) são formas quadráticas de y, e tem-se:

E[R(θ1,θ2)] = E[y'W(W'W)-W'y]

= tr[W(W'W)-W'var(y)] + E(y')W(W'W)-W'E(y)

Mas, E(y) = E(Wθ + e) = WE(θ) e var(y) = (Wθ + e) = Wvar(θ)W' + 2eσ I

Logo:

E[R(θ1,θ2)] = tr[W(W'W)-W'Wvar(θ)W' + W(W'W)-W' 2eσ I] + E(θ')W'W(W'W)-W'WE(θ)

= tr[W'Wvar(θ)] + 2eσ tr[W(W'W)-W' + E(θ')W'WE(θ)

= tr{W'W[E(θθ')-E(θ)E(θ')]} + 2eσ tr[W(W'W)-W'] +tr(E(θ')W'WE(θ)}

Portanto,

E[R(θ1,θ2)] = tr{W'WE(θθ')} + 2eσ tr[W(W'W)-W']

ou

( )[ ] ( ) ( )WrEWWWWWWWW

tr,RE 2e

1212

211121 σ+

θ′θ

′′′′

=θθ

onde r(W) é o posto da matriz W.

De modo análogo:

E[R(θ1)] = tr{W'W1(W1'W1)-W1'WE(θθ')} + 2eσ tr[W1(W1'W)-W1']

( )[ ] ( ) ( ) ( )12e

21111212

21111 WrE

WWWWWWWW

WWWWtrRE σ+

θ′θ

′′′′

′′=θ −

Portanto R(θ2θ1) = R(θ1,θ2) - R(θ1) é dado por:

Page 24: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 22

( )[ ] ( ) ( ) ( ) ( )[ ]12e

21111212 WrWrE

WWWWWWtrRE −σ+

θ′θ

′′′φ

φφ=θθ −

ou E[R(θ2θ1)] = tr{W2'[I-W1(W1'W1)-W1']W2E(θ2θ2')} + 2eσ [r(W) - r(W1)]

Note que [R(θ2θ1)] não envolve θ1 e portanto E[R(θ2θ1)] não depende do vetor

de efeitos θ1, sejam eles fixos ou aleatórios.

Assim, o Método III de Henderson, consiste em encontrar os estimadores para os

componentes de variância, montando um sistema de equações a partir das diferenças entre

as reduções do modelo completo e um submodelo. Igualando-as, assim, às suas respectivas

esperanças.

Para modelos mistos esse método é particularmente vantajoso porque, se tomar o

vetor θ1 como o vetor dos efeitos fixos e θ2 como vetor dos efeitos aleatórios, E[R(θ2θ1)]

não conterá termos devido a esses efeitos fixos, a esperança é apenas função de 2eσ e das

variâncias dos efeitos aleatórios em θ2, ou seja, os próprios componentes que se deseja

estimar.

Para exemplificar o método, considere o modelo

y = µ1 + X1α + X2β + X3γ + e

onde µ é uma constante, α é o vetor de efeitos fixos, β e γ são os vetores de efeitos

aleatórios.

Nesse caso, a matriz W pode ser escrita como W=[1 X1 X2 X3] e

R(µ,α,β ,γ) = y'W(W'W)-W'y com r(W) = r

Considere os submodelos, dados por:

y = µ1 + e

y = µ1 + X1α +e

y = µ1 + X1α + X2β + e

Sejam as reduções correspondentes:

( ) ( ) ( ) Jyyn1

y1n1yy1111yR 1 ′=′′=′′′=µ −− com r(W1) = r(J) = 1

( ) ( ) yWWWWy,R 1111 ′′′=αµ com W1 = [1 X1] e r(W1) = q

Page 25: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 23

( ) ( ) yWWWWy,,R 1111 ′′′=βαµ − com W1= [1 X1 X2] e r(W1) = s

Então obtém-se, sucessivamente os componentes de variância pelo seguinte conjunto de

equações:

Soma de Quadrados Esperanças

( )( ) ( )( ) ( )αµ−γβαµ

βαµ−γβαµ

γβαµ−= ∑

,R,,,R

,,R,,,R

,,,RySQE 2 ( )( )

( ) 2e

23

22

2e

21

2e

qrhh

srh

rn

σ−+σ+σ

σ−+σ

σ−

γβ

γ

A partir dessas três equações calcula-se 222 ˆ,ˆ,ˆ γβ σσσ e . Os fatores h1, h2 e h3 são

obtidos pela expressão:

E[R(θ2θ1)] = tr(W2'(I-W1(W1'W1)-W1')W2E(θ2θ2')) + I 2ˆ eσ [r(W) - r(W1)]

em que, as matrizes W1 e W2 são especificadas para cada equação.

Não é necessário utilizar a quarta equação dada por R(µ,α,β ,γ) - R(µ) cuja

esperança seria ( ) 2e

26

25

24 1nhhh σ−+σ+σ+σ γβα , Pois, supondo-se α como efeito fixo,

não se considera a existência de 2σσ .

O Método III pode ser usado para qualquer modelo misto e produz estimadores que

não são viesados.

6.2.5 - MÉTODO DA MÁXIMA VEROSSIMILHANÇA - ML

A estimação por máxima verossimilhança é uma método bem conhecido, originado

por Fischer em 1925. Esse método foi o primeiro a ser aplicado em modelos mistos geral

por HARTLEY e RAO (1967)

O Método da Máxima Verossimilhança consiste em maximizar a função densidade

de probabilidade das observações, em relação aos efeitos fixos e aos componentes de

variância.

Seja o modelo misto (1), dado por:

y = Xβ +Zγ + e

Assumindo que os efeitos aleatórios γi, i = 1, ..., r e e têm distribuição normal com média

zero e matrizes de variâncias e covariâncias mi I2σ , ..., i=1, ..., r e ne I2σ , respectivamente, o

Page 26: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 24

vetor y terá distribuição normal multivariada, com média Xβ e matriz de variâncias e

covariâncias, V, ou seja, y ~ N(Xβ , V) com:

∑∑==

σ′=σ+σ′=r

0i

2lii

r

1i

2e

2lii ZZIZZV com 2

e20 σ=σ e Z0=I

A função de verossimilhança é:

( ) ( ) ( )12 2 11

2 exp2

n

L V y X V y Xπ β β− − −′ = − − − sendo V o determinante da matriz V.

Maximizando L em relação aos elementos de β e aos componentes de variância, os

2s,iσ que ocorrem em V, obtém-se um sistema de equações que, resolvido, produzem os

estimadores de ML de β e { } rl0l

2l

2 ==σ=σ . Essas equações podem ser escritas como:

yV~X~XV~X 11 −− ′=β′

e as equações são:

( ) ( ) ( )β−′β−=′ −−− ~XyV~ZZV~~XyZZV~tr 1ii

1ii

1

para i = 0, 1, ..., r

As equações acima têm de ser resolvidas para 2~e~ σβ , os elementos implícitos

em V~

. Claramente essas equações são não lineares nos elementos 2σ~ , contudo uma vez

obtido os valores 2s,l

~σ , eles podem ser usados para obter β~ . Essas equações são resolvidas

numericamente, por iteração. Por conveniência escreve-se:

P = V-1-V-1X(X'V-1X)-X'V-1

e

2l

r

0lii

11 zzVVVI σ′== ∑=

−−

Assim, o conjunto das r + 1 equações anteriores pode ser descrito como:

( ) ( )yP~

ZZP~

y~ZZV~

ZZV~

tr ii2ljj

1ii

1 ′′=σ′′ −−

Page 27: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 25

Fornecendo uma visualização mais fácil de um processo iterativo que as anteriores.

Pode-se utilizar um valor inicial para 2σ~ em P~eV~ , e resolver as equações acima e

repetir o processo até que o critério de convergência seja satisfeito.

O Método da Máxima Verossimilhança é iterativo e fornece sempre estimativas

não negativas de componentes de variância, mas estas são viesadas porque o método não

considera a perda de graus de liberdade resultante da estimação dos efeitos fixos do

modelo.

6.2.6 - MÉTODO DA MÁXIMA VEROSSIMILHANÇA RESTRITA - REML

Esse processo é uma variante do processo de máxima verossimilhança, para

modelos mistos e foi utilizada por PATTERSON e THOMPSON (1971) para

delineamentos em blocos.

Os estimadores REML são obtidos maximizando a parte da função de

verossimilhança que é invariante ao parâmetro de locação: isto é, em termos do modelo

misto y = Xβ+Zγ + e, é invariante para Xβ . Ou de outra maneira, os estimadores REML

maximizam a função de verossimilhança de um vetor de combinações lineares das

observações que são invariantes para Xβ . Seja Ly esse vetor. Então Ly = LXβ + Lzγ + Le

é invariante a Xβ , se e somente se, LX = 0. Mas LX = 0, se e somente se, L = TM

para M = I - X(X'X)-X' e algum T. Claramente, L deve ser de posto linha completo; e

assim T também. Portanto rL = rT , e rL ≤ rM com rM = n - rX.

As equações para a estimação REML de σ2, para i, j = 0, 1, ..., r são:

( ) ( )yP~

ZZP~

yZZP~

ZZP~

tr ii2ljjii ′′=σ′′

Note que essas equações são similares às equações ML, exceto por P~ em vez de

1~−V .

No Método da Máxima Verossimilhança Restrita, cada observação é dividida em

duas partes independentes uma referente aos efeitos fixos e outras aos efeitos aleatórios, de

maneira que a função densidade de probabilidade das observações é dada pela soma das

funções densidade de probabilidade de cada parte. A maximização da função densidade de

probabilidade da parte referente aos efeitos aleatórios, em relação aos componentes de

variância, elimina o viés resultante da perda de graus de liberdade na estimação dos efeitos

fixos do modelo.

Page 28: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 26

As equações REML com dados balanceados são idênticas aos estimadores ANOVA

que são não-viesados e de variância mínima. O estimador REML leva em conta os graus de

liberdade envolvidos nas estimativas dos efeitos fixos, ao passo que os estimadores ML

não. No caso de dados desbalanceados os estimadores ML e os estimadores REML são

viesados SEARLE (1987).

Os estimadores ML e REML dos componentes de variância não são formas

explicitas, isto é, o estimador de cada componente está em função dos estimadores dos

outros componentes, e só podem ser encontrados por métodos numéricos iterativos.

6.2.7 - ESTIMADOR QUADRÁTICO NÃO-VIESADO DE NORMA MÍNIMA-

MINQUE

RAO (l970, 1971 a, b, 1972) descreve um método de estimação que é derivado de

modo que o estimador minimize a norma euclidiana da matriz núcleo, que seja uma forma

quadrática das observações e que seja não-viesado. Seu desenvolvimento envolve álgebra

extensiva e seu conceito utiliza valores escolhidos, a priori, para os componentes de

variância desconhecidos.

A estimação dos componentes de variância pelo método MINQUE, é feita com

base na equação MINQUE, a seguir:

( ) ( )yPVPyˆVPVPtr wiw2ljwiw ′=σ

sendo σ o vetor de componentes de variância.

( ) 1W

1W

1W

1Ww V'XXV'XVVP −−−−− −=

Vw é uma estimativa a priori da matriz de variâncias e covariâncias.

Este método tem duas vantagens: não envolve a suposição de normalidade como

ML e REML. E as equações de MINQUE têm soluções explícitas (não tem de ser

resolvidas iterativamente).

Por outro lado, a solução depende do conhecimento a priori dos valores dos

componentes de variância a serem estimados, ou seja, depende de valores estimados a

priori usados em Vw. Assim, diferentes valores de Vw podem levar a diferentes estimativas

para um mesmo conjunto de dados. Obtém-se portanto “um” estimador MINQUE e não

“o” estimador MINQUE.

Page 29: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 27

Um relacionamento importante, que existe entre REML e MINQUE é que se o

valor inicial no processo iterativo REML é Vw, então a primeira solução é uma estimativa

MINQUE.

6.2.8 - ESTIMADOR QUADRÁTICO NÃO-VIESADO DE VARIÂNCIA MÍNIMA -

MIVQUE

O método MINQUE não exige nenhuma suposição sobre a forma da distribuição da

variável aleatória y. Mas se a suposição usual de normalidade é satisfeita, o estimador

MINQUE tem a propriedade de ser uma forma quadrática não-viesada das observações

com variância mínima, ou seja, é um estimador quadrático não-viesado de variância

mínima, MIVQUE. SEARLE (1987).

SWALLOW e MONAHAN (l984) descrevem o procedimento MIVQUE

concordância com os valores estimados a priori Vw , MIVQUE(A) e MIVQUE(0).

O estimador MIVQUE(A) usa as equações REML tomando as estimativas

ANOVA como valores a priori. Embora a teoria MIVQUE especifique, que os valores a

priori devam ser independentes dos dados, a literatura justifica o uso das estimativas

ANOVA em decorrência da facilidade de obtenção.

O estimador MIVQUE0 é o MIVQUE com a suposição a priori de que a matriz de

variâncias e covariâncias é a matriz identidade.

6.2.9 - MÉTODO MINQUE ITERATIVO I-MINQUE (Iterative MINQUE)

O estimador MINQUE utiliza valores estimados a priori em Vw, ou seja, uma

estimativa a priori para V, matriz de variâncias e covariâncias. Nenhuma iteração está

envolvida. No entanto, obtida uma solução, por exemplo 1V~ , existe a idéia de usá-la como

uma nova estimativa em Vw, a partir da qual um novo conjunto de equações pode ser

estabelecido e resolvido, produzindo 2V~ e assim sucessivamente. Isto leva a usar as

equações MINQUE iterativamente.

Além disso, BROWN (l976) mostra que sem suposição de normalidade sobre y, as

soluções I- MINQUE têm propriedades de normalidade para grandes amostras.

Page 30: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 28

Bibliografia

BROWN, K.G. Asymptotic behavior of MINQUE-type estimators of variance

components. The Annals of Statistics,4, p.746-54, 1976.

CUNNINGHAM,E.P. ; HENDERSON,C.R. an iterative procedure for estimating fixed

effects and variance components in mixed model situations Biometrics 24:13-25,

1968.

GRAYBIL,F.A. Theory and application of the linear model. Duxbury, North State,

Massachusetts, 1976, __p.

HARTLEY,H.O. ; RAO, J.N.K. Maximum likelihood estimation for the mixed analysis of

variance model. Biometrika, 54, p. 93-108, 1967.

HENDERSON,C.R. A simple method for computing the inverse of a numerator

relationship matrix used in prediction of breeding values. Biometrics 32(3) :69-83,

1976.

HENDERSON,C.R. Estimation of variance and covariance components, Biometrics,

17:226-52, 1953

HENDERSON,C.R. Rapid method for computing the inverse of a relationship matrix. J.

Dairy Sci.,58(11):1727-30, 1975.

HENDERSON,C.R. Use of an average numerator relationship matrix for multiple-sire

joining. J. Anim. Sci.,66:1614-21, 1988.

HENDERSON,C.R.; KEMPTHORNE,O.; SEARLE,S.R.; VON KROISIG,C.M. The

estimation of environmental and genetic trends from records subject to culling.

Biometrics 15(6):192-218, 1959.

HICKS,C.R. Fundamental concepts in the design of experiment 2nd ed. New York, Holt,

Rinehart and Winston, 1973. 349p.

MARTINS,E.N.;LOPES,P.S.;SILVA,M. de A.; REGAZZI.A. J. Modelo linear misto

UFV, Imprensa Universitária, 1993, 46p.

NETER,J.;WASSERMAN,W.; KUTNER,M.H. Applied linear statistical models,

regression, analysis of variance and experimental designs. Richard D. Irwing, Inc.

1985, 1127p.

PATTERSON,H.D. ; THOMPSON,R. Recovery of inter-block information when block

sizes are unequal. Biometrika, 58(3): 545-54, 1971.

Page 31: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 29

PERRI, S. H . V., Ajuste de Modelos Mistos de Classificação Dupla: Procedimentos do

Sistema Estatístico “SAS”. Tese apresentada à Escola Superior de Agricultura “Luiz

de Queiroz”, 1998.

QUAAS,R.L. Computing the diagonal elements and inverse of a large numerator

relationship matrix Biometrics, 32(12):949-53, 1976

QUAAS,R.L.; POLLAK,E.J. Mixed equations methodology for farm and ranch beed cattle

testing programs. J.Anim. Sci., 53(6):1277-87, 1980

RAO,C.R. Estimation of heteroscedastic variance in linear models. Journal of the

American Statistical Association, 65, p.161-72, 1970.

RAO,C.R. Estimation of variance and covariance components – MINQUE Theory. Journal

of Multivariate Analysis, 1, p.257-75, 1971 a.

RAO,C.R. Estimation of variance and covariance components in linear models. Journal of

Multivariate Analysis, 67, p.112-15, 1972.

RAO,C.R. Linear statistical inference and its applications 2nd ed. New York, John

Wiley & Sons, 1973 __p.

RAO,C.R. Minimum variance quadratic unbiased estimation of variance components.

Journal of Multivariate Analysis, 1, p.445-56, 1971 b.

SEARLE, S.R. Another look at Henderson’s methods of estimating variance components.

Biometrics, 24, p. 749-78, 1968.

SEARLE, S.R. Linear Models for Unbalanced data. New York: John Wiley, 1987. 536p.

SEARLE, S.R. Linear models. New York, John Wiley & Sons, 1971. 532p.

SEARLE, S.R. Variance Component. New York, John Wiley & Sons, 1992. 501p.

SWALLOW, W.H. ; MONAHAN, J.F. Monte Carlo comparison of ANOVA, MINQUE,

REML, and ML estimators of variance components. Technometrics, 26, p.47-57,

1984.

THOMPSON, R. Iterative estimation of variance components for non-orthogonal data.

Biometrics, 26: 767-73, 1969.

Page 32: Apostila filho 2003 nota metodológica sobre modelos lineares mistos

Modelos Misto Prof. Jomar 30