Stanisław Cichocki Natalia Neherebckacoin.wne.uw.edu.pl/nnehrebecka/kon13.pdf · - specjalne...
Transcript of Stanisław Cichocki Natalia Neherebckacoin.wne.uw.edu.pl/nnehrebecka/kon13.pdf · - specjalne...
Stanisław Cichocki
Natalia Neherebcka
2 kwietnia 2011
1
1. Sezonowośd
2. Zmienne stacjonarne
3. Zmienne zintegrowane
4. Test Dickey-Fullera
5. Rozszerzony test Dickey-Fullera
6. Test KPSS
7. Regresja pozorna
2
1. Sezonowośd
2. Zmienne stacjonarne
3. Zmienne zintegrowane
4. Test Dickey-Fullera
5. Rozszerzony test Dickey-Fullera
6. Test KPSS
7. Regresja pozorna
3
- o sezonowości mówimy wtedy gdy zmienna zmienia się w pewnym cyklu,
zwykle związanym z cyklem kalendarzowym
- np. zmienne kwartalne charakteryzują się sezonowością kwartalną
zmienne miesięczne charakteryzują się sezonowością miesięczną
- sezonowośd w danych może pojawiad się z rożnych powodów:
◦ czynniki klimatyczne (spadek wartości dodanej w budownictwie w okresie zimowym);
◦ czynniki kulturowe (wzrost wartości sprzedaży w okresie świąt)
4
5
100
200
300
400
500
600
700
1980 1982 1984 1986 1988 1990 1992
pass
6
60
70
80
90
100
110
120
130
140
150
160
1996 1998 2000 2002 2004 2006 2008 2010
Pola
nd
- sezonowości należy uwzględnid w modelu jeśli ma ona wpływ na związek
miedzy zmienną objaśniającą a objaśnianą jeśli w modelu nie
zostanie uwzględniona sezonowośd to pojawi się ona w resztach, które nie
będą spełniały założeo KMRL
- jeśli model ma służyd celom prognostycznym to pominięcie sezonowości
pogarsza jakośd otrzymanych przewidywao
7
- uwzględnienie problemu sezonowości w procesie estymacji:
a) posłużenie się danymi wyrównanymi sezonowo (publikowane przez
urzędy statystyczne; samodzielnie można usunąd sezonowośd z danych np. korzystając z programu TRAMO/SEATS)
b) dodanie do modelu zmiennych zerojedynkowych związanych z poszczególnymi miesiącami/kwartałami
8
c) zastosowanie różnicowania sezonowego
zamiast pierwotnych zmiennych stosujemy różnice miedzy tymi
zmiennymi a wartościami tych samych zmiennych sprzed roku:
gdzie:
s=4 dla zmiennych kwartalnych
s=12 dla zmiennych miesięcznych itd.
s t t t sy y y
9
1. Sezonowośd
2. Zmienne stacjonarne
3. Zmienne zintegrowane
4. Test Dickey-Fullera
5. Rozszerzony test Dickey-Fullera
6. Test KPSS
7. Regresja pozorna
10
- zmienna stacjonarna zmienna, której własności nie
zmieniają sie wraz z upływem czasu
- istnieje kilka definicji stacjonarności, my będziemy posługiwad
sie pojęciem słabej (kowariancyjnej) stacjonarności:
1 1 2 2
2
, 1 2
1. ( )
2. ( )
3. ( , ) ( , ) dla dowolnych , i
t
t
t t h t t h h
E y
Var y
Cov y y Cov y y t t h
11
-
-
-
któryś z warunków niespełniony= zmienna niestacjonarna
1. ( ) wartość oczekiwana jest skończona i stała w czasiet tE y y
22. ( ) - wariancja jest skończona i stała w czasiet tVar y y
1 1 2 2,3. ( , ) ( , ) kowariancja między realizacjami
zależy jedynie od dystansu w czasie
t t h t t h h tCov y y Cov y y y
h
12
-
1. ( ) wartość oczekiwana jest skończona i stała w czasiet tE y y
13
-
22. ( ) - wariancja jest skończona i stała w czasiet tVar y y
14
- założenie o stacjonarności zmiennych w modelu jest niezbędne przy
wyprowadzaniu rozkładów typowych statystyk testowych używanych
przy testowaniu hipotez
- badanie stacjonarności zmiennych w modelu może byd traktowane jako
test diagnostyczny weryfikuje prawdziwośd założeo koniecznych do
tego, by standardowe procedury testowania hipotez były prawidłowe
15
- przykład zmiennej stacjonarnej: biały szum
gdzie IID (Independently and Identically Distibuted) oznacza, że
realizacje są niezależne i mają identyczne rozkładytx
),0IID(~ 2tx
16
- przykład zmiennej stacjonarnej: biały szum
2
( ) 0
( )
( , ) 0 dla
t
t
t s
E x
Var x
Cov x x t s
17
- przykład zmiennej stacjonarnej: biały szum
18
- przykład zmiennej stacjonarnej: AR (1)
2
1 (0, )
1
t t t ty y IID
~
19
- przykład zmiennej stacjonarnej: AR (1)
20
- standardowa definicja stacjonarności w wielu przypadkach okazuje się zbyt
restrykcyjna
- zmienne ekonomiczne oscylują nie tyle wokół stałej ale wokół pewnego
trendu zmienna stacjonarna wokół trendu (trendostacjonarna)
- zmienna trendostacjonarna: (odchylenia od trendu)
stacjonarne
( )t ty E y
21
- przykład zmiennej trendostacjonarnej: trend liniowy
gdzie jest stacjonarnet t ty t
( )
( ) jest stacjonarna
t
t t t
E y t
y E y
22
- przykład zmiennej trendostacjonarnej:
23
1. Sezonowośd
2. Zmienne stacjonarne
3. Zmienne zintegrowane
4. Test Dickey-Fullera
5. Rozszerzony test Dickey-Fullera
6. Test KPSS
7. Regresja pozorna
24
- zmienne zintegrowane: zmienne niestacjonarne, które można sprowadzid
do stacjonarności poprzez różnicowanie
- zmienna, która po zastosowaniu d-tych różnic staje się zmienną stacjonarną
oznaczamy jako:
mówimy, ze zmienna jest zintegrowana rzędu d
( )ty I d
ty
~
25
- zmienne stacjonarne są zintegrowane rzędu 0:
(0)ty I~
26
- przykład zmiennej niestacjonarnej: błądzenie przypadkowe
- różnicując zmienną (odejmując od obu stron ) :
- wobec tego błądzenie przypadkowe jest zmienną I(1)
2
1 (0, )t t t ty y IID
ty 1ty
- biały szum, zmienna I(0)t ty
~
27
- przykład zmiennej niestacjonarnej: błądzenie przypadkowe
28
- uważa się, ze znaczna częśd zmiennych makroekonomicznych jest I(1)
- istnieją też zmienne ekonomiczne, które są I(2)
- zmienne I(3) stanowią wśród zmiennych ekonomicznych rzadkośd albo nie
występują wcale
29
1. Sezonowośd
2. Zmienne stacjonarne
3. Zmienne zintegrowane
4. Test Dickey-Fullera
5. Rozszerzony test Dickey-Fullera
6. Test KPSS
7. Regresja pozorna
30
- najwcześniejszym i najpopularniejszym testem za pomocą którego badamy
czy zmienna jest stacjonarna jest test Dickey-Fullera (test DF)
- model:
2
1 (0, )t t t ty y IID
0
1
: 1 - jest błądzeniem przypadkowym, niestacjonarna
H : 1 - jest zmienną stacjonarną AR(1)
t
t
H y
y
~
31
- odejmując od obu stron :
1 1( 1)t t t t ty y y
0
1
: 0 - jest niestacjonarna
H : ( 2,0) - jest stacjonarna
t
t
H y
y
1ty
32
- problem: nie można używad statystki t do testowania istotności parametru ponieważ rozkłady statystyk testowych są niestandardowe jeśli w
modelu zmienne niestacjonarne
- specjalne tablice z wartościami krytycznymi dla testu DF
33
- test DF przeprowadzamy w następujący sposób:
1
1
0
1. regresja na y
2. porownujemy statystykę dla y z wartościami krytycznymi
testu DF:
a) wartość statystyki testowej < wartości krytycznej - odrzucamy
o niestacjonarności i p
t t
t
y
t
H
1
0
rzyjmujemy o stacjonarności
b) wartość statystyki testowej > wartości krytycznej - brak podstaw do
odrzucenia o niestacjonarności
t
t
H y
H y
34
- uwaga techniczna: wielkości krytyczne rozkładu statystki DF są zawsze
ujemne
35
Forma funkcyjna: ◦ 1. bez stałej
◦ 2. ze stałą
◦ 3. ze stałą i trendem
0
1
: 0 - jest niestacjonarna
H : ( 2,0) - jest stacjonarna
t
t
H y
y
ttt yy 1
ttt yy 1
ttt yty 1
Forma funkcyjna: ◦ 1. bez stałej
ttt yy 1
Forma funkcyjna: ◦ 2. ze stałą
ttt yy 1
błądzenie przypadkowe z dryfem
błądzenie przypadkowe bez dryfu
Forma funkcyjna: ◦ 3. ze stałą i trendem
ttt yty 1
80
100
120
140
160
180
200
1960 1965 1970 1975 1980 1985 1990
PATE
NTS
40
80
100
120
140
160
180
200
1960 1965 1970 1975 1980 1985 1990
PATEN
TS
41
Model 1: Estymacja KMNK z wykorzystaniem 33 obserwacji 1961-1993
Zmienna zależna: PATENTS_d
współczynnik błąd standardowy t-Student wartość p
---------------------------------------------------------------
const -1,24501 4,94797 -0,2516 0,8031
time 0,174235 0,177777 0,9801 0,3349
PATENTS_1 0,0109944 0,0637472 0,1725 0,8642
Średnia arytmetyczna zmiennej zależnej = 3,17879
Odchylenie standardowe zmiennej zależnej = 4,85102
Suma kwadratów reszt = 631,204
Błąd standardowy reszt = 4,58695
Wsp. determinacji R-kwadrat = 0,16179
Skorygowany wsp. R-kwadrat = 0,10591
Statystyka F (2, 30) = 2,8952 (wartość p = 0,0708)
Statystyka testu Durbina-Watsona = 1,76372
Autokorelacja reszt rzędu pierwszego = 0,0942516
Logarytm wiarygodności = -95,5185
Kryterium informacyjne Akaike'a (AIC) = 197,037
Kryterium bayesowskie Schwarza (BIC) = 201,527
Kryterium infor. Hannana-Quinna (HQC) = 198,548 42
? lmtest 1 --autocorr
Test Breuscha-Godfreya na autokorelację rzędu pierwszego
Estymacja KMNK z wykorzystaniem 33 obserwacji 1961-1993
Zmienna zależna: uhat
współczynnik błąd standardowy t-Student wartość p
---------------------------------------------------------------
const 1,30039 5,52128 0,2355 0,8155
time 0,0396039 0,193341 0,2048 0,8391
PATENTS_1 -0,0173278 0,0715735 -0,2421 0,8104
uhat_1 0,116587 0,208863 0,5582 0,5810
Wsp. determinacji R-kwadrat = 0,01063
Statystyka testu: LMF = 0,311587,
z wartością p = P(F(1,29) > 0,311587) = 0,581
Statystyka testu: TR^2 = 0,350795,
z wartością p = P(Chi-kwadrat(1) > 0,350795) = 0,554
Ljung-Box Q' = 0,300061 z wartością p = P(Chi-kwadrat(1) > 0,300061) = 0,584
43
? lmtest 2 --autocorr
Test Breuscha-Godfreya na autokorelację do rzędu 2
Estymacja KMNK z wykorzystaniem 33 obserwacji 1961-1993
Zmienna zależna: uhat
współczynnik błąd standardowy t-Student wartość p
---------------------------------------------------------------
const 2,85262 6,17640 0,4619 0,6478
time 0,0889756 0,212801 0,4181 0,6791
PATENTS_1 -0,0382570 0,0806616 -0,4743 0,6390
uhat_1 0,129251 0,212352 0,6087 0,5477
uhat_2 0,125921 0,214020 0,5884 0,5610
Wsp. determinacji R-kwadrat = 0,02271
Statystyka testu: LMF = 0,325366,
z wartością p = P(F(2,28) > 0,325366) = 0,725
Statystyka testu: TR^2 = 0,749515,
z wartością p = P(Chi-kwadrat(2) > 0,749515) = 0,687
Ljung-Box Q' = 0,580661 z wartością p = P(Chi-kwadrat(2) > 0,580661) = 0,748
44
? lmtest 3 --autocorr
Test Breuscha-Godfreya na autokorelację do rzędu 3
Estymacja KMNK z wykorzystaniem 33 obserwacji 1961-1993
Zmienna zależna: uhat
współczynnik błąd standardowy t-Student wartość p
---------------------------------------------------------------
const 4,62748 8,02370 0,5767 0,5689
time 0,142332 0,263324 0,5405 0,5933
PATENTS_1 -0,0618102 0,105447 -0,5862 0,5626
uhat_1 0,152763 0,225686 0,6769 0,5042
uhat_2 0,142247 0,222252 0,6400 0,5275
uhat_3 0,0914337 0,257595 0,3550 0,7254
Wsp. determinacji R-kwadrat = 0,02725
Statystyka testu: LMF = 0,252137,
z wartością p = P(F(3,27) > 0,252137) = 0,859
Statystyka testu: TR^2 = 0,899307,
z wartością p = P(Chi-kwadrat(3) > 0,899307) = 0,826
Ljung-Box Q' = 0,58507 z wartością p = P(Chi-kwadrat(3) > 0,58507) = 0,9 45
46
-10
-5
0
5
10
15
1965 1970 1975 1980 1985 1990
d1PATEN
TS
47
48
49
50
51
52
-4
-3
-2
-1
0
1
2
3
1980 1982 1984 1986 1988 1990 1992 1994 1996
v2
53
1. Sezonowośd
2. Zmienne stacjonarne
3. Zmienne zintegrowane
4. Test Dickey-Fullera
5. Rozszerzony test Dickey-Fullera
6. Test KPSS
7. Regresja pozorna
54
- często reszty z regresji:
wykazują silną autokorelację
- rozszerzony test Dickey-Fullera (test ADF) różni się od standardowego testu
DF rozszerzeniem regresji o dodatkowe elementy, których celem jest
eliminacja autokorelacji reszt
1t t ty y
55
- celem uzyskania statystyki testowej przeprowadzamy regresję:
- ilośd opóźnieo k dobieramy tak aby z reszt wyeliminowad autokorelację
1
1
k
t t i t i t
i
y y y
1
gdzie - rozszerzeniek
i t i
i
y
56
- statystyka testowa dla testu ADF : statystyka t policzona dla oszacowania
parametru przy
- dla dużych prób tablice wartości krytycznych dla testu ADF są takie same
jak w teście DF
- dla małych prób, małopróbkowe wartości krytyczne testu DF są jedynie
aproksymacją prawdziwych wartości krytycznych testu ADF
1ty
57
58
40
60
80
100
120
140
160
180
1960 1965 1970 1975 1980 1985 1990
R_D
59
60
61
62
63
1. Sezonowośd
2. Zmienne stacjonarne
3. Zmienne zintegrowane
4. Test Dickey-Fullera
5. Rozszerzony test Dickey-Fullera
6. Test KPSS
7. Regresja pozorna
64
- test KPSS (Kwiatkowski, Philips, Schmidt, Shin) testuje hipotezęczerową o
stacjonarności zmiennej
- test KPSS:
- hipotezę zerową odrzucamy gdy statystka testowa > wartości krytycznej
- statystyka testowa dla testu KPSS zawsze >0
2
0
2
1
: 0, zmienna jest stacjonarna
: 0, zmienna jest niestacjonarna
u t
u t
H y
H y
65
- problem gdy sprzeczne wyniki testu DF i KPSS:
- gdy liczba obserwacji w szeregu mała często okazuje się, że niemożliwe jest odrzucenie hipotezy o niestacjonarności w teście ADF ale nie jest możliwe odrzucenie hipotezy o stacjonarności w teście KPSS nie wiemy czy zmienna jest stacjonarna czy niestacjonarna
66
67
-4
-3
-2
-1
0
1
2
3
1980 1982 1984 1986 1988 1990 1992 1994 1996
v2
68
0,146 0,06
Zmienna stacjonarna !!!
1. Sezonowośd
2. Zmienne stacjonarne
3. Zmienne zintegrowane
4. Test Dickey-Fullera
5. Rozszerzony test Dickey-Fullera
6. Test KPSS
7. Regresja pozorna
69
- jedną z najważniejszych przyczyn dlaczego testuje się stacjonarnośd
zmiennych problem regresji pozornej (spurious regression)
- problem ten może pojawid się w modelu gdzie częśd zmiennych
niestacjonarna najczęściej wtedy gdy zmienna objaśniana i częśd
zmiennych objaśniających jest I(1)
- wtedy statystyki t dla zmiennych I(1) okazują się z reguły istotne nawet jeśli
miedzy zmiennymi objaśniającymi a zmienną objaśnianą nie ma
rzeczywistego związku
70
- wynika to z faktu, iż rozkład statystki t w przypadku, gdy zmienne w modelu
są niestacjonarne, nie jest rozkładem t-studenta
- problem regresji pozornej może doprowadzid do budowy modelu, w którym
zależności miedzy zmiennymi są całkowicie pozorne
- gdy zmienna objaśniająca i zmienne objaśniające są I(1)
nie da się przeprowadzid wnioskowania przy użyciu standardowych
statystyk testowych, jednak estymator MNK jest nadal estymatorem
zgodnym
71
przekształcenie modelu na model na pierwszych różnicach zmiennych
prostym rozwiązaniem
problemu regresji pozornej
72
- przykład:
1 1 1
odejmując stronami uzyskujemy:
y
gdzie
t t t
t t t
t t t
t t
y x u
y x u
x
u
73
-
- model na pierwszych różnicach jest modelem stacjonarnym
- i można w nim przeprowadzid standardowe wnioskowanie statystyczne za pomocą standardowych statystyk testowych
jeśli (1), (1) to y (0), (0)t t t ty I x I I x I ~ ~ ~ ~
74
1. Wyjaśnid co to znaczy, że w danych występuje sezonowośd. Podad sposoby uwzględnienia sezonowości w procesie modelowania.
2. Podad definicje zmiennej stacjonarnej i trendostacjonarnej.
3. Podad definicje zmiennej I(0) i I (1).
4. Opisad procedurę testowania stacjonarności za pomocą testu Dickey-Fullera.
5. Wyjaśnid, na czym polega zjawisko regresji pozornej.
75
Dziękuję za uwagę
76