Resumos de Probabilidades e Estat stica€¦ · Resumos de Probabilidades e Estat stica Jo~ao...
Transcript of Resumos de Probabilidades e Estat stica€¦ · Resumos de Probabilidades e Estat stica Jo~ao...
Resumos de Probabilidades e Estatıstica
Joao Brazuna
2. Nocoes Basicas de Probabilidade
2.1. Axiomatica de Kolmogorov
Sendo F uma σ-algebra de Ω, define-se medida de probabilidade comoP : F → [0, 1] tal que:
1. P (A) ≥ 0, ∀A ∈ F ;
2. P (Ω) = 1;
3. Se A ∩B = ∅ entao P (A ∪B) = P (A) + P (B).
2.2. Propriedades
• P (A) = 1− P (A)
• P (∅) = 0
• 0 ≤ P (A) ≤ 1, ∀A ∈ F• P (A ∪B) = P (A) + P (B)− P (A ∩B)
• P (A ∪B) = P (A ∩B)
• P (A ∩B) = P (A ∪B)
• Se A ⊆ B entao P (A) ≤ P (B)
2.3. Probabilidade Condicionada
P (A|B) =P (A ∩B)
P (B)
denota a probabilidade de A ocorrer, sabendo que B ocorreu. Garante-se assim que
P (A|A) =P (A ∩A)
P (A)=P (A)
P (A)= 1.
2.4. Independencia Estocastica
Os acontecimentos A e B dizem-se independentes se e so se
P (A ∩B) = P (A)P (B)
o que se denota por A⊥⊥ B e e equivalente a
P (A|B) = P (A).
2.5. Lei das Probabilidades Totais
2.5.1. Caso Simples
P (A) = P (A ∩B) + P (A ∩B) =
= P (A|B)P (B) + P (A|B)P (B)
2.5.2. Caso Geral
Se Bini=1 for uma particao de Ω, isto e,
n⋃i=1
Bi = Ω e
Bi ∩Bj = ∅, ∀i 6= j entao
P (A) =
n∑i=1
P (A|Bi)P (Bi) .
2.6. Lei das Probabilidades Compostas
2.6.1. Casos Simples
P (A ∩B) = P (A)P (B|A)
P (A ∩B ∩ C) = P (A)P (B|A)P (C|A ∩B)
Desenvolvendo as formulas da probabilidade condicionada, os denomi-nadores cortam.
2.6.2. Caso Geral
P (A1 ∩ · · · ∩An) = P (A1)P (A2|A1) · · ·P (An|A1 ∩ · · · ∩An−1)
2.7. Teorema de Bayes
Consiste na dupla aplicacao da formula da probabilidade condicionada,permitindo obter P (A|B) a partir de P (B|A).
P (A|B) =P (B|A)P (A)
P (B)
3. Variaveis Aleatorias e Distribuicoes Discretas
3.1. Funcao (Massa) de Probabilidade
fX(x) = P (X = x)
3.2. Funcao de Distribuicao
FX(x) = P (X ≤ x) =
x∑k=−∞
P (X = k)
3.3. Valor Esperado
E(X) =
+∞∑x=−∞
xP (X = x)
• E[g(X)] =∑+∞x=−∞ g(x)P (X = x)
• E(X2)
=
+∞∑x=−∞
x2 P (X = x)
• E(aX) = aE(x), ∀a ∈ R;
• E(X + Y ) = E(X) + E(Y );
• Se X⊥⊥ Y entao E(XY ) = E(X)E(Y ).
3.4. Variancia
V ar(X) = E(X2)− E2(X)
• V ar(aX) = a2V ar(X), ∀a ∈ R;
• V ar(X + Y ) = V ar(X) + V ar(Y ) + 2Cov(X,Y );
• Se X⊥⊥ Y entao V ar(X + Y ) = V ar(X) + V ar(Y ).
3.5. Moda e Quantis
mo = arg maxx
P (X = x)
χp :
P (X ≤ χp) ≥ pP (X ≥ χp) ≥ 1− p
me = χ 12
:
P (X ≤ me) ≥ 1
2
P (X ≥ me) ≥ 12
3.6. Distribuicao Uniforme Discreta
Todos os casos possıveis tem igual probabilidade.
X ∼ Unif(1, ..., n)⇔ P (X = x) =
1n, se x ∈ 1, ..., n
0, caso contrario
E(X) =n+ 1
2e V ar(x) =
n2 − 1
12
3.7. Distribuicao de Bernoulli
Ha apenas dois casos possıveis: sucesso (1) ou insucesso (0).
X ∼ Bern(p)⇔ P (X = x) =
p, se x = 1
1− p, se x = 0
0, caso contrario
E(X) = p e V ar(X) = p(1− p)3.8. Distribuicao Binomial
1. Ha n repeticoes de uma prova de Bernoulli;
2. A probabilidade de sucesso em cada prova e constante igual a p(extraccoes com reposicao);
3. As provas sao independentes umas das outras.
A variavel aleatoria X que conta o numero de sucessos obtidosnas n repeticoes de uma prova de Bernoulli e tal que
X ∼ Bin(n, p)⇔ P (X = x) =
(nx
)px(1− p)n−x, se x ∈ 0, 1, ..., n
0, caso contrario.
E(X) = np e V ar(X) = np(1− p)
3.9. Distribuicao Geometrica
1. Ha repeticoes de uma prova de Bernoulli;
2. A probabilidade de sucesso em cada prova e constante igual a p;
3. As provas sao independentes umas das outras.
A variavel aleatoria X que conta o numero de provas de Bernoulli rea-lizadas ate se obter o 1o sucesso e tal que
X ∼ Geom(p)⇔ P (X = x) =
p(1− p)x−1, se x ∈ N0, caso contrario
.
E(X) =1
pe V ar(X) =
(1− p)p2
3.10. Distribuicao Hipergeometrica
1. Sao realizadas n provas de Bernoulli num universo com N ele-mentos, N dos quais sao sucessos;
2. A probabilidade de sucesso em cada prova nao e constante (ex-traccoes sem reposicao);
3. As provas nao sao independentes umas das outras.
A variavel aleatoria X que conta o numero de sucessos obtidosnas n provas de Bernoulli e tal que
X ∼ Hipergeom(N,M,n)⇔
P (X = x) =
(Mx )(N−M
n−x )(Nn)
, se x ∈
max 0, n−N +M , ...,min n,M
0, caso contrario.
E(X) = nM
Ne V ar(X) = n
M
N
N −MN
N − nN − 1
Se n << 0.1N , podemos aproxima-la pela distribuicao binomial. Aprobabilidade de sucesso p e entao a razao entre o numero de sucessose a dimensao do universo.
Xa∼ Bin
(n, p =
M
N
)
3.11. Distribuicao de Poisson
Modela eventos de chegada de servicos (como autocarros a uma pa-ragem, cliques num anuncio na Internet,...) a uma taxa constante λdurante um determinado intervalo de tempo.
X ∼ Poi(λ)⇔ P (X = x) =
e−λλx
x!, se x ∈ N0
0, caso contrario
E(X) = V ar(X) = λ
Caso o perıodo de tempo mude, a taxa λ tambem deve ser alterada namesma proporcao (se numa hora se espera 3 clientes, em duas horasesperam-se 6). Pode ser util considerar a famılia de variaveis aleatorias
X(t) ∼ Poi(λt).
4. Variaveis Aleatorias e Distribuicoes Contınuas
4.1. Funcao (Massa) de Probabilidade
P (X = x) = 0, ∀x ∈ R
4.2. Funcao Densidade de Probabilidade
fX(x) = F ′X(x)
satisfazendo fX(x) ≥ 0, ∀x ∈ R e
∫ +∞
−∞fX(x) = 1.
fX(x) da um valor aproximado da probabilidade de ocorrencia de va-lores proximos de x.
4.3. Funcao de Distribuicao
FX(x) = P (X ≤ x) =
∫ x
−∞fX(t) dt
4.4. Valor Esperado
E(X) =
∫ +∞
−∞x fX(x) dx
• E[g(X)] =∫ +∞−∞ g(x)fX(x) dx
• E(X2)
=∫ +∞−∞ x2 fX(x) dx
4.5. Distribuicao Uniforme Contınua
X ∼ Unif([a, b])⇔ fX(x) =
1b−a , se x ∈ [a, b]
0, caso contrario
E(X) =a+ b
2e V ar(x) =
(b− a)2
12
4.6. Distribuicao Exponencial
Modela tempos de vida ou de espera.
X ∼ Exp(λ)⇔ fX(x) =
λ e−λx, se x ≥ 0
0, se x < 0
E(X) =1
λe V ar(X) =
1
λ2
Se N ∼ Poi(λ) der o numero de ocorrencias num determinado inter-valo de tempo entao X ∼ Exp(λ) da o tempo de espera entre duasocorrencias consecutivas.
4.7. Distribuicao Normal
X ∼ N(µ, σ2
)⇔ fX(x) =
1√2πσ2
e− (x−µ)2
2σ2
E(X) = µ e V ar(X) = σ2
Z =X − µσ
∼ N(0, 1), ϕ(z) = fZ(z) =1√2πe−
z2
2 , Φ(z) = FZ(z)
5. Distribuicoes Conjuntas de Probabilidades e Complementos
5.1. Vectores Aleatorios Discretos
5.1.1. Funcao de Probabilidade Conjunta
f(X,Y )(x, y) = P (X = x, Y = y)
5.1.2. Funcao de Distribuicao Conjunta
F(X,Y )(x, y) = P (X ≤ x, Y ≤ y) =
x∑i=−∞
y∑j=−∞
P (X = i, Y = j)
5.1.3. Funcoes de Probabilidade Marginais
Obtem-se somando na variavel irrelevante.
P (X = x) =
+∞∑y=−∞
P (X = x, Y = y)
P (Y = y) =
+∞∑x=−∞
P (X = x, Y = y)
Tendo as funcoes de probabilidade marginais, as funcoes de distribuicaomarginais obtem-se somando como no caso univariado.
5.1.4. Esperanca, Independencia e Correlacao
E(XY ) =
+∞∑x=−∞
+∞∑y=−∞
xy P (X = x, Y = y)
X⊥⊥ Y ⇔ P (X = x, Y = y) = P (X = x)P (Y = y), ∀(x, y) ∈ R2
Cov(X,Y ) = E(XY )− E(X)E(Y )
Cov(aX, bY ) = abCov(X,Y )
Cov(X,X) = V ar(X)
Corr(X,Y ) =Cov(X,Y )√V ar(X)V ar(Y )
∈ [−1, 1]
X⊥⊥ Y ⇒ Cov(X,Y ) = 0, mas Cov(X,Y ) = 0 6⇒ X⊥⊥ Y5.1.5. Funcoes de Probabilidade Marginais
• Funcao de Probabilidade Marginal de X condicional a Y = y:
P (X = x|Y = y) =P (X = x, Y = y)
P (Y = y)
• Funcao de Probabilidade Marginal de Y condicional a X = x:
P (Y = y|X = x) =P (X = x, Y = y)
P (X = x)
5.1.6. Funcoes de Distribuicao Marginais Condicionais
• Funcao de Distribuicao Marginal de X condicional a Y = y:
P (X ≤ x|Y = y) =
x∑i=−∞
P (X = i|Y = y)
• Funcao de Distribuicao Marginal de Y condicional a X = x:
P (Y ≤ y|X = x) =x∑
j=−∞
P (Y = j|X = x)
5.1.7. Valor Esperado e Variancia Condicionais
E(X|Y = y) =
+∞∑x=−∞
xP (X = x|Y = y) V ar(X|Y = y) = E(X2|Y = y
)− E2(X|Y = y)
E(Y |X = x) =
+∞∑y=−∞
y P (Y = y|X = x) V ar(Y |X = x) = E(Y 2|X = x
)− E2(Y |X = x)
E(X|Y ) e uma nova variavel aleatoria com o mesmo suporte de Y .
5.2. Vectores Aleatorios Contınuos
5.2.1. Funcao Densidade de Probabilidade Conjunta
f(X,Y )(x, y)
5.2.2. Funcao de Distribuicao Conjunta
F(X,Y )(x, y) =
∫ x
−∞
∫ y
−∞f(X,Y )(u, v) du dv
5.2.3. Funcoes Densidade de Probabilidade Marginais
Obtem-se integrando na variavel irrelevante.
fX(x) =
∫ +∞
−∞f(X,Y )(x, y) dy
fY (y) =
∫ +∞
−∞f(X,Y )(x, y) dx
Tendo as funcoes densidade de probabilidade marginais, as funcoes dedistribuicao marginais obtem-se integrando como no caso univariado.
5.2.4. Esperanca, Independencia e Correlacao
E(XY ) =
∫ +∞
−∞
∫ +∞
−∞xy f(X,Y )(x, y) dx dy
X⊥⊥ Y ⇔ f(X,Y )(x, y) = fX(x)fY (y), ∀(x, y) ∈ R2
Cov(X,Y ) = E(XY )− E(X)E(Y )
Cov(aX, bY ) = abCov(X,Y )
Cov(X,X) = V ar(X)
Corr(X,Y ) =Cov(X,Y )√V ar(X)V ar(Y )
∈ [−1, 1]
X⊥⊥ Y ⇒ Cov(X,Y ) = 0, mas Cov(X,Y ) = 0 6⇒ X⊥⊥ Y
X ∼ N(µ1, σ
21
)⊥⊥Y ∼ N
(µ2, σ
22
)⇔ X⊥⊥ Y
5.2.5. Funcoes Densidade de Probabilidade Marginais
• Funcao Densidade de Probabilidade Marginal de X condicionala Y = y:
fX|Y=y(x) =f(X,Y )(x, y)
fY (y)
• Funcao Densidade de Probabilidade Marginal de Y condicionala X = x:
fY |X=x(y) =f(X,Y )(x, y)
fX(x)
5.2.6. Funcoes de Distribuicao Marginais Condicionais
• Funcao de Distribuicao Marginal de X condicional a Y = y:
FX|Y=y(x) =
∫ x
−∞fX|Y=y(u) du
• Funcao de Distribuicao Marginal de Y condicional a X = x:
FY |X=x(y) =
∫ y
−∞fY |X=x(v) dv
5.2.7. Valor Esperado e Variancia Condicionais
E(X|Y = y) =
∫ +∞
−∞x fX|Y=y(x) dx
E(Y |X = x) =
∫ +∞
−∞y fY |X=x(y) dy
V ar(X|Y = y) = E(X2|Y = y
)− E2(X|Y = y)
V ar(Y |X = x) = E(Y 2|X = x
)− E2(Y |X = x)
E(X|Y ) e uma nova variavel aleatoria com o mesmo suporte de Y .
5.3. Desigualdade de Chebyshev
Seja X uma variavel aleatoria, com E(X) = µ e V ar(X) = σ2. Entao, P (|X − µ| ≥ cσ) ≤ 1
c2.
5.4. Teorema do Limite Central
5.4.1. Para Somas de Variaveis Aleatorias
Seja Sn =
n∑i=1
Xi. Se:
1. X1, ..., Xn forem variaveis aleatorias independentes e
identicamente distribuıdas (i.i.d.) a X;
2. E(Sn) = E
n∑i=1
Xi
=n∑i=1
E(Xi) =i.d.
nE(X) < +∞;
3. V ar(Sn) = V ar
n∑i=1
Xi
=indep.
n∑i=1
V ar(Xi) =i.d.
nV ar(X) < +∞,
entaoSn − E(Sn)√V ar(Sn)
a∼ N(0, 1).
5.4.2. Para Medias de Variaveis Aleatorias
Seja X =1
n
n∑i=1
Xi. Se:
1. X1, ..., Xn forem variaveis aleatorias independentes e
identicamente distribuıdas (i.i.d.) a X;
2. E(X) = E
1
n
n∑i=1
Xi
=1
nE
n∑i=1
Xi
=1
n
n∑i=1
E(Xi) =i.d.
=1
n× nE(X) = E(X) < +∞
3. V ar(X) = V ar
1
n
n∑i=1
Xi
=1
n2V ar
n∑i=1
Xi
=indep.
=1
n2
n∑i=1
V ar(Xi) =i.d.
1
n2× nV ar(X) =
V ar(X)
n< +∞
entaoX − E(X)√V ar(X)
a∼ N(0, 1).
6. Estimacao PontualUma amostra aleatoria de X e um conjunto de variaveis aleatorias independentes e identicamente distribuıdas (i.i.d.) a X.
Uma estatıstica e uma qualquer funcao da amostra aleatoria.Um estimador e uma funcao da amostra aleatoria que toma valores no mesmo espaco parametrico (por exemplo, um estimador da variancia
deve ter suporte em R+0 ).
6.1. Erro Quadratico Medio e Eficiencia
Seja T um estimador do parametro θ. O seu erro quadratico medio e
EQMθ(T ) = E[(T − θ)2
]= V ar(T ) + [ E(T )− θ︸ ︷︷ ︸
enviesamento
]2
Um estimador e mais eficiente se o seu erro quadratico medio for menor.Se o enviesamento for nulo, isto e, se E(T ) = θ, o estimador diz-secentrado.
6.2. Comparacao da Eficiencia de Estimadores
Sejam T1 e T2 estimadores de θ. A eficiencia relativa de T1 com respeitoa T2 na estimacao de θ e
eθ(T1, T2) =EQMθ(T2)
EQMθ(T1).
Se eθ(T1, T2) > 1 entao o numerador e maior, logo T1 e mais eficienteque T2.Se eθ(T1, T2) < 1 entao o denominador e maior, logo T2 e mais eficienteque T1.
6.3. Estimacao por Maxima Verosimilhanca
Seja X = (X1, ..., Xn) amostra aleatoria de X, x = (x1, ..., xn) respectiva amostra observada e θ um parametro.
6.3.1. Calculo da Estimativa de Maxima Verosimilhanca
Para se encontrar a estimativa de maxima verosimilhanca de θ bastapercorrer os seguintes passos:
1. Funcao de Verosimilhanca:
L(θ|x) = f(X1,...,Xn)(x1, ..., xn|θ) =i.i.d.
n∏i=1
fX(xi|θ)
2. Funcao de Log-verosimilhanca:
logL(θ|x) = log
n∏i=1
fX(xi|θ) =
n∑i=1
log fX(xi|θ)
3. Maximizacao:
(a) Derivar a funcao de log-verosimilhanca em ordem a θ e en-contrar o seu zero θ:
θ = arg maxθ
logL(θ|x), ou seja, e solucao de∂ logL(θ|x)
∂θ= 0
(b) Confirmar, que o valor encontrado e um maximo, isto e, ve-rificar que a segunda derivada avaliada no ponto encontradoe negativa:
∂2 logL(θ|x)
∂θ2
∣∣∣∣θ=θ
< 0
Entao, θ e a estimativa de maxima verosimilhanca de θ. Para se obtero estimador basta escrever a amostra aleatoria no lugar da amostraobservada.
6.3.2. Propriedades dos Estimadores de Maxima Vero-similhanca
• Invariancia:Se θ for o estimador de maxima verosimilhanca de θ entao g(θ)e o estimador de maxima verosimilhanca de g(θ).
g(θ) = g(θ)
Ou seja, se X for o estimador de maxima verosimilhanca de µentao o estimador de maxima verosimilhanca de µ2 sera X.
• Suficiencia;
• Consistencia.
6.4. Distribuicoes Amostrais
Se X1, ..., Xn ∼i.i.d.
X entao
E(X) = E(X) e V ar(X) =V ar(X)
n.
S2 =1
n− 1
n∑i=1
(Xi −X)2 =
n∑i=1
X2i − nX
2
n− 1
7. Estimacao por Intervalos
7.1. Metodo da Variavel Fulcral
Para construir um intervalo de confianca para o parametro θ, centrado na estimativa pontual, utilizando o metodo da variavel fulcral, bastaseguir o modelo abaixo, a esquerda. A direita, ilustramos com um exemplo do calculo do intervalo de confianca para o valor medio de uma
populacao normal, isto e, com X1, ..., Xn amostra aleatoria de X ∼ N(µ, σ2
), com variancia conhecida σ2 = 4 e media da amostra observada
x = 7, de dimensao n = 25.Intervalo de Confianca a 1− α para θ
1. Variavel Fulcral:
Encontrar uma variavel fulcral T , isto e, uma variavel que:
• Dependa do parametro desconhecido a estimar;
• Tenha distribuicao conhecida;
• Nao dependa de mais parametros desconhecidos.
Intervalo de Confianca a 95% para µ
1. Variavel Fulcral:
Z =X − µ√σ2/n
∼ N(0, 1)
2. Quantis:
Sendo 1−α o nıvel de confiancado intervalo, procuramos doisvalores a e b tais que
P (a < T < b) = 1− α
A escolha mais frequente con-siste em centrar este intervalo,resolvendo o sistema:
a : FT (a) = α2
b : FT (b) = 1− α2
⇔
⇔
a = F−1
T
(α2
)b = F−1
T
(1− α
2
)Caso a distribuicao sejasimetrica (normal ou t-Student,por exemplo), basta calcular be, nesse caso, a = −b.
−b b0 t
fT (t)
1− α α2
α2
Distribuicoes Normal ou t-Student
a b0 t
fT (t)
1− α
α2
α2
Distribuicao do Qui-Quadrado
2. Quantis:a : Φ(a) = 0.05
2
b : Φ(b) = 1− 0.052
⇔
⇔
a = −bb = Φ−1(0.975)
⇔
⇔
a = −1.96
b ' 1.96 −b b0 z
ϕ(z)
1− α α2
α2
3. Intervalo de Confianca Aleatorio:
Encontrados os valores de a e b tais que P (a < T < b) = 1 − α,queremos inverter a desigualdade
a < T < b
de modo a que o parametro a estimar fique no centro, encon-trando assim o intervalo de confianca aleatorio ICA1−α(θ).
3. Intervalo de Confianca Aleatorio:
a < Z < b⇔ −1.96 <X − µ√σ2/n
< 1.96⇔
⇔− 1.96
√σ2
n< X − µ < 1.96
√σ2
n⇔
⇔−X − 1.96
√σ2
n< −µ < −X + 1.96
√σ2
n⇔
⇔X − 1.96
√σ2
n< µ < X + 1.96
√σ2
n⇔
⇔ICA95%(µ) =
[X − 1.96
√σ2
n,X + 1.96
√σ2
n
]4. Intervalo de Confianca:
Substituindo, no intervalo de confianca aleatorio, a amostraaleatoria pela amostra observada, encontra-se o intervalo de con-fianca IC1−α(θ).
4. Intervalo de Confianca:
IC95%(µ) =
[x− 1.96
√σ2
n, x+ 1.96
√σ2
n
]=
=
[7− 1.96
√4
25, 7 + 1.96
√4
25
]=
= [−6.216, 7.784]
7.2. Nıveis de Confianca Usuais
90%, 95% e 99%.
7.3. Lista de Variaveis Fulcrais
7.3.1. Intervalos de Confianca para a Media de uma Po-pulacao
• Populacao Normal:
– com variancia conhecida:
X − µσ/√n∼ N(0, 1)
– com variancia desconhecida:
X − µS/√n∼ t(n−1)
• Populacao Qualquer (eventualmente ate normal), com amostrasuficientemente grande (n >> 30):
– com variancia conhecida:
X − µσ/√n
a∼ N(0, 1)
– com variancia desconhecida:
X − µS/√n
a∼ N(0, 1)
7.3.2. Intervalos de Confianca para a Variancia de umaPopulacao Normal
(n− 1)S2
σ2
a∼ χ2(n−1)
7.3.3. Intervalos de Confianca para a Diferenca deMedias de duas Populacoes
• Populacoes Normais Independentes:
– com variancias conhecidas:
(X1 −X2)− (µ1 − µ2)√σ21n1
+σ22n2
∼ N(0, 1)
– com variancias desconhecidas mas iguais:
(X1 −X2)− (µ1 − µ2)√(n1−1)S2
1+(n2−1)S22
n1+n2−2
(1n1
+ 1n2
) ∼ t(n1+n2−2)
• Populacoes Independentes Quaisquer (eventualmente ate nor-mais), com amostras suficientemente grandes (n1 >> 30 en2 >> 30):
– com variancias conhecidas:
(X1 −X2)− (µ1 − µ2)√σ21n1
+σ22n2
a∼ N(0, 1)
– com variancias desconhecidas:
(X1 −X2)− (µ1 − µ2)√S21n1
+S22n2
a∼ N(0, 1)
7.3.4. Intervalos de Confianca para Proporcoes (Po-pulacoes de Bernoulli)
X − p√X(1−X)
n
a∼ N(0, 1)
8. Testes de Hipoteses
8.1. Construcao
Para construir um teste de hipoteses o parametro θ, basta seguir o modelo abaixo, a esquerda. A direita, ilustramos com um exemplo de um
teste de hipoteses bilateral para o valor medio de uma populacao normal, isto e, com X1, ..., Xn amostra aleatoria de X ∼ N(µ, σ2
), com
variancia conhecida σ2 = 4 e media da amostra observada x = 7, de dimensao n = 25.Teste de Hipoteses ao Nıvel de Significancia α para θ
1. Hipoteses:
H0 : θ = θ0 vs. H1 :
θ < θ0 (unilateral a esquerda)
θ 6= θ0 (bilateral)
θ > θ0 (unilateral a direita)
Teste de Hipoteses Bilateral ao Nıvel de Significancia 5%para µ
1. Hipoteses:H0 : µ = 6 vs. H1 : µ 6= 6
2. Estatıstica de Teste:
Tal como nos intervalos de confianca, procuramos uma variavelfulcral T para θ. Ao substituirmos θ por θ0 (valor que pretende-mos testar), obtemos a estatıstica de teste T0, da qual devemoscalcular o seu valor observado t0 e cuja distribuicao so e conhe-cida sob a validade de H0.
2. Estatıstica de Teste:
Z =X − µσ/√n∼ N(0, 1) e variavel fulcral para µ, logo
Z0 =X − 6
σ/√n∼
sobH0
N(0, 1)
e estatıstica de teste, com valor observado
z0 =x− 6
σ/√n
=7− 6
2/√
25= 2.5
3. Regiao Crıtica ou Valor-p:
(a) Regiao Crıtica:
a 0 t
fT (t)
1− αα
Unilateral a Esquerda
−b b0 t
fT (t)
1− α α2
α2
Bilateral
b0 t
fT (t)
1− αα
Unilateral a Direita
a0 t
fT (t)
1− α
α
Unilateral a Esquerda
a b0 t
fT (t)
1− α
α2
α2
Bilateral
b0 t
fT (t)
1− α
α
Unilateral a Direita
De forma semelhante ao calculo dos quantis, queremos:
a : FT (a) = α︸ ︷︷ ︸Unilateral a Esquerda
,
a : FT (a) = α
2
b : FT (b) = 1− α2︸ ︷︷ ︸
Bilateral
, b : FT (b) = 1− α︸ ︷︷ ︸Unilateral a Direita
RCα =]−∞, a[︸ ︷︷ ︸Unilateral a Esquerda
, RCα =]−∞, a[∪]b,+∞[︸ ︷︷ ︸Bilateral
, RCα =]b,+∞[︸ ︷︷ ︸Unilateral a Direita
(b) Valor-p:O valor-p de um teste e o menor nıvel de significancia parao qual se rejeita a hipotese nula.
p = P (T ≤ −|t0|)︸ ︷︷ ︸Unilateral a Esquerda
, p = 2P (T ≥ |t0|)︸ ︷︷ ︸Bilateral
, p = P (T ≥ |t0|)︸ ︷︷ ︸Unilateral a Direita
3. Regiao Crıtica ou Valor-p:
(a) Regiao Crıtica:a : Φ(a) = 0.05
2
b : Φ(b) = 1− 0.052
⇔
⇔
a = −bb = Φ−1(0.975)
⇔
⇔
a = −1.96
b ' 1.96 −b b0 z
ϕ(z)
1− α α2
α2
RC5% =]−∞,−1.96[∪]1.96,+∞[
(b) Valor-p:
p = P (Z0 ≥ 2.5) = 1−P (Z0 < 2.5) = 1−Φ(2.5) ' 0.0062
4. Decisao:
(a) Com base na Regiao Crıtica:Se t0 ∈ RCα devemos rejeitar H0 ao nıvel de significancia α
Se t0 /∈ RCα nao devemos rejeitar H0 ao nıvel de significancia α
(b) Com base no Valor-p:Devemos rejeitar H0 aos nıveis de significancia α ≥ pNao devemos rejeitar H0 aos nıveis de significancia α < p
4. Decisao:
(a) Com base na Regiao Crıtica:Como z0 = 2.5 ∈ RC5%, devemos rejeitar H0 ao nıvel designificancia α = 5%.
(b) Com base no Valor-p:Devemos rejeitar H0 a todos os nıveis de significanciaα ≥ 0.62% (o que inclui todos os usuais) e nao rejeitar paraα < 0.62%.
8.2. Nıvel de Significancia (Hipotese Simples)
α = P (rejeitar H0|H0 e verdadeira)
8.3. Nıveis de Significancia Usuais
1%, 5% e 10%.
8.4. Relacao entre Intervalos de Confianca e Testes de Hipoteses Bilaterais
Testar H0 : θ = θ0 vs. H1 : θ 6= θ0 ao nıvel de significancia α e equivalente a verificar se θ0 ∈ IC1−α(θ).
8.5. Lista de Estatısticas de Teste
8.5.1. Teste a Media de uma Populacao
• Populacao Normal:
– com variancia conhecida:
X − µ0
σ/√n
∼sobH0
N(0, 1)
– com variancia desconhecida:
X − µ0
S/√n
∼sobH0
t(n−1)
• Populacao Qualquer (eventualmente ate normal), com amostrasuficientemente grande (n >> 30):
– com variancia conhecida:
X − µ0
σ/√n
a∼sobH0
N(0, 1)
– com variancia desconhecida:
X − µ0
S/√n
a∼sobH0
N(0, 1)
8.5.2. Teste a Variancia de uma Populacao Normal
(n− 1)S2
σ20
a∼sobH0
χ2(n−1)
8.5.3. Teste a Diferenca de Medias de duas Populacoes
• Populacoes Normais Independentes:
– com variancias conhecidas:
(X1 −X2)− (µ0)√σ21n1
+σ22n2
∼sobH0
N(0, 1)
– com variancias desconhecidas mas iguais:
(X1 −X2)− (µ0)√(n1−1)S2
1+(n2−1)S22
n1+n2−2
(1n1
+ 1n2
) ∼sobH0
t(n1+n2−2)
• Populacoes Independentes Quaisquer (eventualmente ate nor-mais), com amostras suficientemente grandes (n1 >> 30 en2 >> 30):
– com variancias conhecidas:
(X1 −X2)− (µ0)√σ21n1
+σ22n2
a∼sobH0
N(0, 1)
– com variancias desconhecidas:
(X1 −X2)− (µ0)√S21n1
+S22n2
a∼sobH0
N(0, 1)
8.5.4. Intervalos de Confianca para Proporcoes (Po-pulacoes de Bernoulli)
X − p0√p0(1−p0)
n
a∼sobH0
N(0, 1)
8.5.5. Teste de Ajustamento do Qui-Quadrado
k∑i=1
(Oi − Ei)2
Ei
a∼sobH0
χ2(k−β−1)
Para o calculo do valor observado da estatıstica de teste, bastapreencher-se a tabela abaixo:i Classe i oi p
0i = P (Pertencer a classe i|H0) e0
i = n p0i
......
......
...
n
E necessario que e0i > 5 em pelo menos 80% das classes. Caso contrario,
as classes com menores e0i devem ser agrupadas.
8.5.6. Teste de Independencia do Qui-Quadrador∑i=1
s∑j=1
(Oij − Eij)2
Eij
a∼sobH0
χ2(r−1)(s−1)
9. Introducao a Regressao Linear Simples
9.1. Modelo de Regressao Linear Simples
Seja Y uma variavel aleatoria, relacionada por um modelo de regressaolinear simples com a variavel determinıstica x. Consideremos umaamostra com n observacoes.
Yi = β0 + β1xi + εi, , ∀i ∈ 1, ..., n
Suponhamos que:
• E(εi) = 0, ∀i ∈ 1, ..., n;• V ar(εi) = σ2, ∀i ∈ 1, ..., n (variancia constante, mas de valor
desconhecido);
• Corr(εi, εj) = 0 , ∀i 6= j.
Sejam β0 e β1 as estimativas de mınimos quadrados de β0 e β1, res-pectivamente.
β1 =
n∑i=1
xiyi − nx yn∑i=1
x2i − nx2
, β0 = y − β1x
Entao, a resposta esperada e
E(Yi|xi) = E(β0 + β1xi + εi) = β0 + β1xi, ∀i ∈ 1, ..., n
portanto
y = E(Yi|x) = β0 + β1x
e a estimativa de mınimos quadrados da recta de regressao, para
x ∈[
min1,...,n
xi, max1,...,n
xi
].
9.2. Parametros de Regressao e Interpretacao
O modelo de regressao linear simples tem 3 parametros:
• β1: o declive da recta de regressao (ou coeficiente angular),indicando quantas unidades Y aumenta ou diminui quando xaumenta uma unidade;
• β0: a ordenada na origem da recta de regressao, indicando ovalor de Y quando x = 0 (so tem significado se0 ∈ [ min
1,...,nxi, max1,...,n
xi] para que nao existam erros de extra-
polacao):
• σ2: variancia dos erros do modelo de regressao.
9.3. Coeficiente de Determinacao
r2 =
(n∑i=1
xiyi − nx y
)2
(n∑i=1
x2i − nx2
)×
(n∑i=1
y2i − ny2
) ∈ [0, 1]
avalia a qualidade do ajuste do modelo de regressao linear aos dados(quanto mais proximo de 1, melhor sera o ajuste).
9.4. Inferencias
Na necessidade de fazer inferencias, supoe-se adicionalmente que
εi ∼i.i.d.
N(
0, σ2)
situacao em que as estimativas de mınimos quadrados coincidem comas de maxima verosimilhanca. A de σ2 e
σ2 =
n∑i=1
y2i − ny2 −
(β1
)2(
n∑i=1
x2i − nx2
)n− 2
.
9.4.1. Inferencias sobre β1
Para construir intervalos de confianca ou para testar o valor de β1 (de-clive da recta de regressao ou coeficiente angular), utiliza-se a variavelfulcral
β1 − β1√σ2
n∑i=1
x2i−nx2
∼ t(n−2).
Testar a significancia do modelo consiste em testar
H0 : β1 = 0 vs. H1 : β1 6= 0.
Se β1 = 0 nao ha significancia de regressao (valor de y e o mesmo,qualquer que seja x).
9.4.2. Inferencias sobre β0
Para construir intervalos de confianca ou para testar o valor de β0
(ordenada na origem da recta de regressao), utiliza-se a variavel fulcral
β0 − β0√√√√√ 1n
+ x2n∑i=1
x2i−nx2
σ2
∼ t(n−2).
9.4.3. Inferencias sobre um Valor Ajustado
Para construir intervalos de confianca ou para testar o valor ajustadoy quando x = x0, utiliza-se a variavel fulcral
(β0 + β1x0)− (β0 + β1x0)√√√√√ 1n
+ (x−x0)2n∑i=1
x2i−nx2
σ2
∼ t(n−2).