Séries Chro Insea

download Séries Chro Insea

of 116

Transcript of Séries Chro Insea

  • 8/18/2019 Séries Chro Insea

    1/116

    Séries chronologiques

    Version de 2015 en cours d’amélioration à ne pas diffuser

  • 8/18/2019 Séries Chro Insea

    2/116

    Rappels.

    Processus stochastique : suite de variables aléatoires indicéespar le temps.

    ⇒  temps discret :   X 1, X 2, . . . , X  t, . . .   avec  t ∈ Z.⇒  temps continu :   X t, t ≥ 0, t ∈ Θ où  Θ est un intervalle de  R.

    Série temporelle ou chronologique ou chronique : réalisationd’un processus stochastique.

    ♠ Dans ce cours, on se limitera qu’au cas des  processusstochastiques à temps discret.

    Version de 2015 en cours d’amélioration à ne pas diffuser

  • 8/18/2019 Séries Chro Insea

    3/116

    Moments du processus stochastique.

    Souvent, on s’intéresse aux deux premiers moments de la loi duprocessus

    E (X 1), E (X 2), . . . , E  (X t), . . . .V (X 1), V  (X 2), . . . , V  (X t), . . . .Cov(X 1, X 2), Cov(X 1, X 3), . . . , Cov(X i, X  j), . . .   avec  i = j.

    Version de 2015 en cours d’amélioration à ne pas diffuser

  • 8/18/2019 Séries Chro Insea

    4/116

    Stationnarité.

    Une des grandes questions dans l’étude de séries temporelles est desavoir si celles-ci suivent un processus stationnaire.Cette stationnarité joue un rôle majeur en séries temporelles car elleremplace de manière naturelle l’hypothèse d’observations

    indépendantes et identiquement distribuées (i.i.d.) en statistiquestandard. Garantissant que l’accroissement de la taille del’échantillon s’accompagne d’une augmentation du même ordre del’information, la stationnarité est à la base d’une théorieasymptotique générale. On considère la notion de stationnarité

    forte ou stricte et celle de la stationnarité faible ou au second ordre.

    Version de 2015 en cours d’amélioration à ne pas diffuser

  • 8/18/2019 Séries Chro Insea

    5/116

    Stationnarité stricte.

    Parfois, on étudie la loi des échantillons

    (X t1 , X t2 , . . . , X  tn).

    Lorsque les lois de  (X t1 , X t2 , . . . , X  tn) ne sont pas affectées partranslation dans le temps, on dit que le processus X  est strictementstationnaire  :

    ℓ(X t1 , X t2 , . . . , X  tn) = ℓ(X t1+k, X t2+k, . . . , X  tn+k).

    Lorsque X  est strictement stationnaire, toutes les observations ontla même loi :

    ℓ(X t) = ℓ(X t+k).

    Version de 2015 en cours d’amélioration à ne pas diffuser

  • 8/18/2019 Séries Chro Insea

    6/116

    Stationnarité faible.

    On peut relâcher cette hypothèse et se concentrer sur les deux

    premiers moments. Dans ce cas, on parle de processus (faiblement)stationnaire  ou stationnaire au second ordre.

    Version de 2015 en cours d’amélioration à ne pas diffuser

  • 8/18/2019 Séries Chro Insea

    7/116

    Stationnarité faible.

    Le processus  X  = (X t)t∈Z  est stationnaire si

    1) l’espérance est stable au cours du temps :E (X 1) = E (X 2) = · · · = E (X t) = m.

    2) la variance est stable au cours du temps :

    V  (X 1) = V (X 2) = · · · = V  (X t) = σ2.3) les covariances sont stables au cours du temps :

    Cov(X 1, X 1+k) =   Cov(X 2, X 2+k) =

    · · ·= Cov(X t−k, X t)

    =   · · · = Cov(X t, X t+k) = · · · = γ k.

    Les covariances ne dépendent que du délai  k  entre les variablesconsidérées, et pas de la date  t à laquelle elles sont évaluées.

    Version de 2015 en cours d’amélioration à ne pas diffuser

  • 8/18/2019 Séries Chro Insea

    8/116

    Remarque.

    Cette définition de la stationnarité faible est moins exigeante que lastationnarité stricte car elle n’impose de contraintes qu’aux deuxpremiers moments des variables  (X t), mais contrairement à la

    stationnarité stricte, elle requiert l’existence de ceux-ci.N.B.Stricte stationnarité+E (X 2t )  < ∞=⇒  stationnarité faible. Maisl’inverse n’est pas vraie. Il faut que  E (X 2t )  existe. Maisstationnarité faible+gaussien  =⇒ stricte stationnarité .

    Version de 2015 en cours d’amélioration à ne pas diffuser

  • 8/18/2019 Séries Chro Insea

    9/116

    Autocorrélations - Autocorrélogramme.

    Pour un processus  X   stationnaire

    ρk   := ρ(k) =  Cov(X t, X t−k)

     V  (X t)V (X t−k)=

     γ k

    γ 0

    =  γ k

    σ

    2.

    Les autocorrélations ne dépendent que du délai  k  entre les variablesconsidérées, et pas de la date  t à laquelle elles sont évaluées.On représente les autocorrélations par un autocorrélogramme.

    Version de 2015 en cours d’amélioration à ne pas diffuser

  • 8/18/2019 Séries Chro Insea

    10/116

    Exemple d’autocorrélogramme.

    -1

    -0,5

     0

     0,5

     1

     0 5 10 15 20 25 30 35 40retard

    ACF pour Trafic

    +- 1,96/T0,5

    -1

    -0,5

     0

     0,5

     1

     0 5 10 15 20 25 30 35 40

    retard

    PACF pour Trafic

    +- 1,96/T0,5

    Version de 2015 en cours d’amélioration à ne pas diffuser

  • 8/18/2019 Séries Chro Insea

    11/116

    Remarque.

    1   ρ0 := ρ(0) = 12 −1 ≤ ρh := ρ(h) ≤ 1,∀h.3   Lorsque  X  est stationnaire, on a

    Cov(X t, X 

    t−

    h) = Cov(X 

    t+h, X 

    t) = Cov(X 

    t, X 

    t+h)

    et   γ h := γ (h) = γ −h := γ (−h).Par conséquent  ρh := ρ(h) = ρ−h := ρ(−h).

    La fonction  γ (·) (resp.   ρ(·)) est appelée fonction d’autocovariance(resp. fonction d’autocorrélation) de  X . En particulierγ X (0) = Var (X t).

    Version de 2015 en cours d’amélioration à ne pas diffuser

  • 8/18/2019 Séries Chro Insea

    12/116

    Estimation de  m,  σ2,  ρ1,  ρ2. . . .

    Pour un processus stationnaire,  m,  σ2,  ρ1,  ρ2, . . . peuvent être

    estimés de manière convergente :

    m̂ =  X  =  1

    T t=1

    X t → m, T  → ∞.

    σ̂2 =  1

    T t=1

    (X t −X )2 → σ2, T  → ∞.

    ρ̂k  =

    1T −k

    T t=k+1(X t −X )(X t−k −X )

    σ̂2   → ρk, T  → ∞.Ces quantités doivent être interprétées avec prudence lorsque  X n’est pas stationnaire.

    Version de 2015 en cours d’amélioration à ne pas diffuser

  • 8/18/2019 Séries Chro Insea

    13/116

    Autre estimation des autocovariances  γ k.

    Pour estimer γ (k), on utilise souvent l’autocovariance empirique

    définie par

    γ̂ k  := γ̂ (k) =  1

    T −kt=1

    (X t −X )(X t+k −X ) = γ̂ −k  := γ̂ (−k),

    pour  0 ≤ k < T .De manière analogue, on définit la fonction d’autocorrélationempirique par  ρ̂(k) = γ̂ (k)/γ̂ (0) pour |k| < T .Ces estimateurs sont biaisés mais asymptotiquement sans biais. Il

    existe d’autres estimateurs similaires de la fonction d’autocovariancepossédant les mêmes propriétés asymptotiques ( par exemple enremplaçant  1/T   par  1/(T  − k)), comme le précédent.

    Version de 2015 en cours d’amélioration à ne pas diffuser

  • 8/18/2019 Séries Chro Insea

    14/116

    Formules de Bartlett.

    Pour la sélection de modèles, par exemple, il est souvent importantde déterminer si les les autocovariance empiriques sontsignificativement différentes de zéro au-delà d’un certain rang. Pourcela il est nécessaire d’estimer la structure de covariance de cesautocovariance empiriques. On a le résultat suivant (voir parexemple Brockwell et Davis (1991), Proposition 7.3.1, p. 219):

    Version de 2015 en cours d’amélioration à ne pas diffuser

  • 8/18/2019 Séries Chro Insea

    15/116

    Formules de Bartlett.

    Théorème :

    Si X  est un processus linéaire, c’est-à-dire s’il satisfait

    X t =∞

    ℓ=−∞

    Ψℓǫt−ℓ

    où (ǫt) est une suite de variables i.i.d., telles que

    E (ǫt) = 0, E (ǫ2t ) = σ

    2, E (ǫ4t ) = ησ4 < ∞, η :=   E (ǫ

    4t )

    [E (ǫ2t )]2  ∀ t ∈ Z,

    et où ∞ℓ=−∞ |Ψℓ| < ∞, on a les formules de Bartlett :lim

    n→∞nCov{γ̂ (h), γ̂ (k)} = (η − 3)γ (h)γ (k)

    +∞

    ℓ=−∞[γ (ℓ)γ (ℓ + k − h) + γ (ℓ + k)γ (ℓ − h)].

    Version de 2015 en cours d’amélioration à ne pas diffuser

  • 8/18/2019 Séries Chro Insea

    16/116

    Autre résumé de la dynamique d’un processus stationnaire.

    Les autocorrélations partielles : on définitrk   : l’autocorrélation partielle d’ordre  krk  est le coefficient de  X t−k  dans la régression de  X t  sur X t−1,X t−2, . . . ,  X t−k.L’autocorrélation partielle entre  X t  et X t−k  est la corrélation entre

    ces variables ajustées en enlevant l’information provenant desvaleurs intermédiaires (i.e.  des dates  t− 1, t − 2, . . . , t − k + 1).Lorsque le processus  X  est stationnaire, ses autocorrélationspartielles peuvent être estimées par la méthode des moindres carrésordinaires et on a :

    r̂k → rk, T  → ∞.

    Version de 2015 en cours d’amélioration à ne pas diffuser

  • 8/18/2019 Séries Chro Insea

    17/116

    Autocorrélations partielles.

    DéfinitionLes autocorrélations partielles sont les corrélations résiduelles entreX t  et X t−h  une fois enlevée l’influence linéaire des valeursintermédiaires X t−1, . . . , X  t−h+1. On note:

    r(h) = Corr(X t, X t−h|X t−1, . . . , X  t−h+1).On montre que :

    r(h) = ah,h,   où   X t = ah,1X t−1 +· · ·

    + ah,hX t−h + uh,t,

    avec  uh,t  le résidu de la régression linéaire.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    l l d l ll l h d b

  • 8/18/2019 Séries Chro Insea

    18/116

    Calcul des autocorrélations partielles : algorithme de Durbin.

    On peut calculer  r(h) rapidement, à partir de  ρ(1), . . . , ρ(h), àl’aide de l’algorithme de Durbin :

    a1,1 = ρ(1)

    ah,h =  ρ(h)−

    h−1

    i=1   ρ(h−i)ah−1,i

    1−h−1

    i=1   ρ(i)ah−1,i

    ah,i = ah−1,i − ah,hah−1,h−i, i = 1, . . . , h − 1.

    Pour plus de détail, voir Monfort et Gourieroux p. 131-134.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    C l l d l ll

  • 8/18/2019 Séries Chro Insea

    19/116

    Calcul des autocorrélations partielles.

    Le calcul de  k  autocorrélations partielles nécessite l’estimation de k

    régressions :Calcul de r1   :X t  = r1X t−1 + ut

    Calcul de r2   :X 

    t = α

    1X 

    t−1

     + r2

    X t−2

     + ut

    Calcul de r3   :

    X t  = α1X t−1 + α2X t−2 + r3X t−3 + ut.

    Calcul de rk   :

    X t = α1X t−1 + α2X t−2 + · · · + rkX t−k + ut.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    R

  • 8/18/2019 Séries Chro Insea

    20/116

    Remarque.

    1  On pose:   r0  = 1

    2 −1 ≤ rk ≤ 1,∀k.3   rk  = r−k4  On représente les autocorrélations partielles à l’aide de

    l’autocorrélogramme partiel.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    E l d’ él i l

  • 8/18/2019 Séries Chro Insea

    21/116

    Exemple d’autocorrélogramme partiel.

    -1

    -0,5

     0

     0,5

     1

     0 5 10 15 20 25 30 35 40

    retard

    ACF pour Trafic

    +- 1,96/T0,5

    -1

    -0,5

     0

     0,5

     1

     0 5 10 15 20 25 30 35 40

    retard

    PACF pour Trafic

    +- 1,96/T0,5

    Version de 2015 en cours d’amélioration à ne pas diffuser

    E l 1 l b it bl

  • 8/18/2019 Séries Chro Insea

    22/116

    Exemple 1 : le bruit blanc:

    Le processus  ǫ = (ǫt) est appelé bruit blanc faible s’il vérifie

    (i)   Eǫt  = 0   ∀ t ∈ Z,   (ii)   Var(ǫt) = Eǫ2t   = σ2 ∀ t ∈ Z,(iii)   Cov (ǫt, ǫt+h) = 0   ∀ h, t ∈ Z, h = 0,

    → Si on remplace l’hypothèse  (iii)  par l’hypothèse plus forte(iii’) que les variables  ǫt  et ǫt−h  sont indépendantes.

    On parle alors de bruit blanc fort.Un bruit blanc est un processus stationnaire. Si on ajoute une

    hypothèse de normalité, on parle de bruit blanc gaussien. Un bruitblanc gaussien est un processus strictement stationnaire.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    T j t i i lé d’ b it bl f t

  • 8/18/2019 Séries Chro Insea

    23/116

    Trajectoire simulée d un bruit blanc fort.

    Time

              t        s           (        s        e        r           i        e

               )

    0 50 100 150 200

        −          2

        −          1

              0

              1

              2

              3

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Remarque

  • 8/18/2019 Séries Chro Insea

    24/116

    Remarque.

    Les autocorrélations et autocorrélations partielles d’un bruit blancsont toutes nulles (sauf  ρ0  et  r0) :

    ρ0 = r0 = 1

    ρi  = ri = 0,   ∀i > 0.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Exemple 2 : la moyenne mobile d’ordre 1

  • 8/18/2019 Séries Chro Insea

    25/116

    Exemple 2 : la moyenne mobile d ordre 1.

    Soit  ǫ = (ǫt) un bruit blanc de variance  σ2. On définit

    X t  = ǫt − θǫt−1,

    où θ ∈ (−1, 1) et  θ = 0. On obtient :

    E (X t) = E (ǫt)− θE (ǫt−1) = 0,

    V  (X t) =   V (ǫt) + θ2V (ǫt−1)− 2θCov(ǫt, ǫt−1)

    = (1 + θ2

    )σ2

    ,

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Exemple 2 : suite

  • 8/18/2019 Séries Chro Insea

    26/116

    Exemple 2 : suite.

    Cov(X t, X t−1) =   Cov(ǫt − θǫt−1, ǫt−1 − θǫt−2)=   Cov(ǫt, ǫt−1)− θCov(ǫt, ǫt−2)

    −θCov(ǫt−1, ǫt−1) + θ2Cov(ǫt−1, ǫt−2)=   −θV (ǫt−1) = −θσ2,

    Cov(X t, X t−2) =   Cov(ǫt − θǫt−1, ǫt−2 − θǫt−3)=   Cov(ǫt, ǫt−2)− θCov(ǫt, ǫt−3)

    −θCov(ǫt−1, ǫt−2) + θ

    2Cov(ǫt−1, ǫt−3)

    = 0,

    On en déduit que : Cov(X t, X t−h) = 0,∀h ≥ 2.La moyenne mobile d’ordre 1 est stationnaire.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Trajectoire simulée d’une moyenne mobile d’ordre 1

  • 8/18/2019 Séries Chro Insea

    27/116

    Trajectoire simulée d une moyenne mobile d ordre 1(θ = 0.6).

    Time

              t        s           (        s        e        r           i        e           )

    0 50 100 150 200

        −          3

        −          2

        −          1

              0

              1

              2

              3

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Trajectoire simulée d’une moyenne mobile d’ordre 1

  • 8/18/2019 Séries Chro Insea

    28/116

    Trajectoire simulée d une moyenne mobile d ordre 1(θ = −0.6).

    Time

              t        s           (        s        e        r           i        e           )

    0 50 100 150 200

        −          3

        −          2

        −          1

              0

              1

              2

              3

              4

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Autocorrélogramme : la moyenne mobile d’ordre 1

  • 8/18/2019 Séries Chro Insea

    29/116

    Autocorrélogramme : la moyenne mobile d ordre 1.

    ρ0 = 1

    ρ1 =  −θσ2(1 + θ2)σ2

      =  −θ1 + θ2

    ρ2 = 0

    ...

    ρh = 0,∀h ≥ 2.

    Toutes les autocorrélations sont nulles à partir de l’ordre 2.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Autocorrélogramme partiel: la moyenne mobile d’ordre 1

  • 8/18/2019 Séries Chro Insea

    30/116

    Autocorrélogramme partiel: la moyenne mobile d ordre 1.

    r0 = 1

    r1 = ρ1 =  −θ1 + θ2

    r2 = ρ2 − ρ21

    1− ρ21=

    0−  −θ1+θ2

    21−

      −θ1+θ2

    2   =   −θ2(1 + θ2)2 − θ2   =   −θ2

    1 + θ2 + θ4

    r1  est du signe de  θ et  r2  est toujours négative.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Autocorrélogramme partiel: la moyenne mobile d’ordre 1

  • 8/18/2019 Séries Chro Insea

    31/116

    Autocorrélogramme partiel: la moyenne mobile d ordre 1.

    On peut montrer que :

    rh =  θ(1 + θ2)

    1 + θ2 + θ4rh−1,

      ∀h

    ≥2.

    Les autocorrélations partielles décroissent mais ne s’annulent jamais.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Exemple 3 : la marche aléatoire.

  • 8/18/2019 Séries Chro Insea

    32/116

    Exemple 3 : la marche aléatoire.

    Soit  ǫ = (ǫt) un bruit blanc de variance  σ2. On définit

    X 0  = 0

    X 1  = X 0 + ǫ1 = ǫ1

    X 2  = X 1 + ǫ2 = ǫ1 + ǫ2...

    X t  = X t−1 + ǫt

    = ǫ1 + ǫ2 +

    · · ·+ ǫt

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Exemple 3 : moments d’une marche aléatoire.

  • 8/18/2019 Séries Chro Insea

    33/116

    e p e 3 o e ts d u e a c e a éato e

    Soit  ǫ = (ǫt) un bruit blanc de variance  σ2. On définit

    E (X t) = E (ǫ1 + ǫ2 + · · · + ǫt) = 0V  (X t) = V (ǫ1 + ǫ2 + · · · + ǫt)

    = V (ǫ1) + V (ǫ2) + · · · + V  (ǫt)

    + 2Cov(ǫ1, ǫ2) + 2Cov(ǫ1, ǫ3) + . . .= σ2 + σ2 + · · · + σ2 = tσ2

    La marche aléatoire n’est pas stationnaire : sa variance estexplosive.

    En revanche, l’accroissement d’une marche aléatoire, c’est-à-dire leprocessus défini par  X t −X t−1, est stationnaire (c’est un bruitblanc).

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Transformations de processus stationnaires.

  • 8/18/2019 Séries Chro Insea

    34/116

    p

    Si  X  est strictement stationnaire, alors toute transformation(indépendante du temps) de ce processus est encorestrictement stationnaire.

    Si  X  est stationnaire et si  a1, a2, . . . , a p  sont des coefficientsréels, alors le processus  Y   = (Y t) défini par :

    Y t = X t + a1X t−1 + a2X t−2 + · · · + a pX t− pest aussi stationnaire.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Transformations de processus stationnaires.

  • 8/18/2019 Séries Chro Insea

    35/116

    p

    Si  X  est stationnaire et si les coefficients  ai  sont, absolumentsommables, tels que

     ∞

    i=0 |ai| < ∞, alors le processus  Y défini par :

    Y t =∞i=0

    aiX t−i

    est aussi stationnaire.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    L’innovation d’un processus  X t.

  • 8/18/2019 Séries Chro Insea

    36/116

    p t

    L’innovation  de X t  à la date  t :

    X t − EL {X t|X t−1, X t−2, . . . } ,

    où EL {X t|X t−1, X t−2, . . . } désigne la régression linéaire d’unevariable de carré intégrable  X t  sur X t−1, X t−2, . . . . L’innovationd’un processus est la part de celui-ci qui est impossible à prévoir(linéairement) à partir de la connaissance du passé.

    Propriété :

    Lorsque X  est stationnaire, son innovation est un bruit blanc.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Décomposition de Wold-Cramér.

  • 8/18/2019 Séries Chro Insea

    37/116

    Si X  est un processus stationnaire tel que :   L’innovation de X t  à la

    date  t : limk→∞

    E {X t|X t−k, X t−k−1, . . . } = E (X t),alors il existe un bruit blanc  ǫ tel que :

    X t   =   m + ǫt + α1ǫt−1 + α2ǫt−2 + . . .

    =   m +∞i=0

    αiǫt−i

    avec  α0 = 1 et  1 + α21 + α22 + · · · < ∞.X  s’écrit sous forme moyenne-mobile infinie  [M A(∞)](=moving-average en anglais).

    Version de 2015 en cours d’amélioration à ne pas diffuser

    L’opérateur avance ou retard noté  B  ou  L.

  • 8/18/2019 Séries Chro Insea

    38/116

    L’opérateur retard  L :

    LX t = X t−1

    L2X t = L(LX t) = LX t−1  = X t−2

    LkX t = X t−k

    On peut considérer des polynômes en  L :

    A(L) = 1− a1L − a2L2 − · · · − a pL p→ A(L)X t  = (1− a1L− a2L2 − · · · − a pL p)X t

    = X t − a1LX t − a2L2X t − · · · − a pL pX t= X t − a1X t−1 − a2X t−2 − · · · − a pX t− p

    Version de 2015 en cours d’amélioration à ne pas diffuser

    L’opérateur avance ou retard noté  B  ou  L.

  • 8/18/2019 Séries Chro Insea

    39/116

    ou, même, des séries en  L :

    A(L) =

    ∞i=0

    aiLi

    → A(L)X t  = (a0 + a1L + a2L2 + · · · + a pL p + . . . )X t= a0X t + a1LX t + a2L

    2X t + · · · + a pL pX t + . . .= a0X t + a1X t−1 + a2X t−2 + · · · + a pX t− p + . . .=

    ∞i=0

    aiX t−i.

    On a aussi :L−1X t = BX t  = X t+1

    L−kX t = BkX t = X t+k

    B  est appelé opérateur avance.Version de 2015 en cours d’amélioration à ne pas diffuser

    Les processus autorégressifs.

  • 8/18/2019 Séries Chro Insea

    40/116

    Un processus  autorégressif d’ordre  p est un processus stationnaires’écrivant sous la forme :

    X t = a1X t−1 + a2X t−2 + · · · + a pX t− p + ǫtoù a1, a2, . . . , a p ∈ R,  a p = 0 et ǫt  est un bruit blanc. On parle deprocessus AR( p).

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Processus AR( p).

  • 8/18/2019 Séries Chro Insea

    41/116

    On introduit le polynôme

    A(L) = 1− a1L− a2L2 − · · · − a pL p

    qui permet d’écrire le modèle autorégressif sous une forme trèscompacte :

    X t  = a1X t−1 + a2X t−2 + · · · + a pX t− p + ǫtX t − a1X t−1 − a2X t−2 − · · · − a pX t− p  = ǫt(1− a1L− a2L2 − · · · − a pL p)X t  = ǫt→ A(L)X t  = ǫt

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Processus AR( p)  : stationnarité.

  • 8/18/2019 Séries Chro Insea

    42/116

    Pour que le processus soit   stationnaire , il faut que les coefficientsremplissent des contraintes assez compliquées : il faut que les  psolutions  x∗1, x

    ∗2, . . . , x

    ∗ p  de l’équation caractéristique :

    1− a1x− a2x2 − · · · − a px p = 0

    soient telles que |x∗i | > 1, i = 1, 2, . . . , p.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Processus AR( p)  : écriture  MA(∞).

  • 8/18/2019 Séries Chro Insea

    43/116

    Si ces contraintes sont satisfaites, le processus  X t  peut s’écriresous forme moyenne-mobile infinie   [M A(∞)] :

    X t   =   A(L)−1ǫt

    =   ǫt + α1ǫt−1 + α2ǫt−2 + . . .

    Innovation de  X t   :

    EL[X t|X t−1, X t−2, . . . ] = a1X t−1 + a2X t−2 + · · · + a pX t− p

    Donc  X t − EL[X t|X t−1, X t−2, . . . ] = ǫt.ǫt  est l’innovation de  X t.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Exemple : le processus autorégressif d’ordre 1  [AR(1)].

  • 8/18/2019 Séries Chro Insea

    44/116

    Un processus autorégressif d’ordre 1 est un processus stationnaireX  défini par :

    X t  = aX t−1 + ǫt

    où a

    ∈R et ǫt  est un bruit blanc.

    On peut écrire :

    X t − aX t−1  = (1− aL)

       A(L)

    X t = ǫt

    Version de 2015 en cours d’amélioration à ne pas diffuser

    1. Etude de la stationnarité du processus  AR(1).

  • 8/18/2019 Séries Chro Insea

    45/116

    L’équation caractéristique est :1− ax = 0.

    Sa solution est :

    x∗

    =

      1

    a .

    Pour que  X  soit stationnaire, il faut donc que :

    |x∗| = 1

    a > 1   ⇒ |a|

  • 8/18/2019 Séries Chro Insea

    46/116

    Par remplacements successifs, on obtient :X t   =   a X t−1   

    aX t−2+ǫt−1

    +ǫt = a(aX t−2 + ǫt−1) + ǫt

    =   a2X t−2 + aǫt−1 + ǫt

    =   a2(aX t−3 + ǫt−2) + aǫt−1 + ǫt

    =   a3X t−3 + a2ǫt−2 + aǫt−1 + ǫt

    ...

    =   ǫt + aǫt−1 + a2

    ǫt−2 + · · · + ak−1

    ǫt−k+1 + ak

    X t−k

    Version de 2015 en cours d’amélioration à ne pas diffuser

    2. Écriture moyenne-mobile infinie du processus  AR(1).

  • 8/18/2019 Séries Chro Insea

    47/116

    Intuitivement, si −1 < a

  • 8/18/2019 Séries Chro Insea

    48/116

    On a deux écritures équivalentes du modèle :

    (1− aL)X t  = ǫt ⇔ X t  = ∞i=0

    aiLi

    ǫt.

    On peut donc conclure que

    (1− aL)−1 =∞i=0

    aiLi.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    4. Généralisation : inversion d’un polynôme en  L.

  • 8/18/2019 Séries Chro Insea

    49/116

    Un polynôme en  L,  A(L), peut toujours être factorisé :

    1− a1L − a2L2 − · · · − a pL p = −a p(L − x∗1)(L − x∗2) . . . (L− x∗ p)

    où x∗1, x∗2, . . . , x

    ∗ p  sont les  p solutions de l’équation caractéristique :

    1− a1x− a2x2 − · · · − a px p = 0.

    On a alors :

    (L

    −x∗k) =

    −x∗k1 −

      1

    x∗k

    L .

    Version de 2015 en cours d’amélioration à ne pas diffuser

    4. Généralisation : inversion d’un polynôme en  L.

  • 8/18/2019 Séries Chro Insea

    50/116

    En comparant avec les résultats précédents :

    (L− x∗k)−1 =−x∗k

    1−   1

    x∗kL

    −1

    =   −1x∗k1−   1x∗k L

    −1

    =  −1

    x∗k

    ∞i=0

     1

    x∗k

    iLi.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    4. Généralisation : inversion d’un polynôme en  L.

  • 8/18/2019 Séries Chro Insea

    51/116

    On peut donc calculer l’inverse de A(L)

    A−1(L) =−a p(L − x∗1)(L − x∗2) . . . (L− x∗ p)−1

    =  −1

    a p(L − x∗1)−1(L− x∗2)−1 . . . (L − x∗ p)−1

    =   (−1) p+1

    a p × x∗1 × · · · × x∗ p  ∞

    i=0

     1x∗1i

    Li . . . ∞ j=0

     1x∗ p j

    L j=

    i=0αiL

    i.

    où les coefficients  αi  sont des fonctions compliquées descoefficients  a1, a2, . . . , a p.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Exemple 1.

  • 8/18/2019 Séries Chro Insea

    52/116

    X t = 3X t−1 − 2X t−2 + ǫt⇒ X t − 3X t−1 + 2X t−2  = ǫt ⇒ (1− 3L + 2L2)X t  = ǫt

    L’équation caractéristique est :

    1− 3x + 2x2 = 0

    Les solutions  x∗1 = 1 et x∗2 = 1/2 ne sont pas strictement

    supérieures à 1.

    Le processus n’est pas stationnaire et le polynôme  (1− 3L + 2L2

    )n’est pas inversible.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Exemple 2.

  • 8/18/2019 Séries Chro Insea

    53/116

    X t = 34

    X t−1 −  18

    X t−2 + ǫt

    ⇒ X t −  34

    X t−1 + 1

    8X t−2 = ǫt ⇒ (1−  3

    4L +

     1

    8L2)X t  = ǫt

    L’équation caractéristique est :

    1−  34

    x + 1

    8x2 = 0

    Les solutions  x∗1 = 2 et x∗2 = 4 sont strictement supérieures à 1.

    Le processus est stationnaire et le polynôme  (1−   34L +   18L2) estinversible.

    Version de 2015 en cours d’amélioration à ne pas diffuser

  • 8/18/2019 Séries Chro Insea

    54/116

    Exemple 2.

  • 8/18/2019 Séries Chro Insea

    55/116

    L’écriture moyenne-mobile infinie de  X  est :

    X t  = ∞

    k=0

    k j=0

    1

    2k+ j Lk ǫt = ǫt + 34 ǫt−1 +   716 ǫt−2 + . . . .

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Les processus moyennes mobiles.

  • 8/18/2019 Séries Chro Insea

    56/116

    Un processus  moyenne mobile  (moving average en anglais) d’ordreq  est un processus s’écrivant sous la forme :

    X t = ǫt − b1ǫt−1 − b2ǫt−2 − · · · − bqǫt−qoù b1, b2, . . . , bq ∈ R,  bq = 0 et  ǫt  est un bruit blanc. On parle deprocessus M A(q ).Le processus est toujours stationnaire, quelles que soient les valeursdes coefficients  b1, b2, . . . , bq.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Processus MA(q ).

  • 8/18/2019 Séries Chro Insea

    57/116

    On peut introduire le polynôme

    B(L) = 1− b1L− b2L2 − · · · − bqLq

    et écrire le modèle M A(q ) sous une forme très compacte :

    X t  = ǫt − b1ǫt−1 − b2ǫt−2 − · · · − bqǫt−qX t  = (1− b1L− b2L2 − · · · − bqLq)ǫt→ X t = B(L)ǫt

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Processus MA(q ) : écriture  AR(∞).

  • 8/18/2019 Séries Chro Insea

    58/116

    Pour que  ǫ soit l’innovation du processus  X , il faut que les  q 

    solutions  x∗1, x

    ∗2, . . . , x

    ∗q  de l’équation caractéristique :

    1− b1x− b2x2 − · · · − bqxq = 0

    soient telles que |x∗i | > 1, i = 1, 2, . . . , q  .Si ces contraintes sont satisfaites, le processus  X t  peut s’écriresous forme autorégressive infinie   [AR(∞)] :

    X t = α1X t−1 + α2X t−2 + · · · + ǫt = ǫt +∞

    i=1 αiX t−i.et on dit que le processus est inversible.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Les processus autorégressifs moyennes mobiles.

  • 8/18/2019 Séries Chro Insea

    59/116

    Un processus  autorégressif moyenne mobile  (autoregressive movingaverage en anglais) d’ordres  p et q  est un processus stationnaires’écrivant sous la forme :

    X t  = a1X t−1+a2X t−2+· · ·+a pX t− p+ǫt−b1ǫt−1−b2ǫt−2−···−bqǫt−qoù a1, a2, . . . , a p, b1, b2, . . . , bq ∈ R,  a p, bq = 0 et ǫt  est un bruitblanc. On parle de processus  ARMA( p, q ).

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Processus ARMA( p, q ).

  • 8/18/2019 Séries Chro Insea

    60/116

    On introduit les deux polynômes

    A(L) = 1− a1L− a2L2 − · · · − a pL p

    et

    B(L) = 1− b1L− b2L2 − · · · − bqLqet écrire le modèle ARMA( p, q ) sous une forme très compacte :

    A(L)X t  = B(L)ǫt

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Processus ARMA( p, q ) : écriture  MA(∞).

  • 8/18/2019 Séries Chro Insea

    61/116

    Pour que le processus soit   stationnaire , il faut que les  p

    solutions  x∗1, x

    ∗2, . . . , x

    ∗ p  de l’équation caractéristique :

    1− a1x− a2x2 − · · · − a px p = 0

    soient telles que |x∗i | > 1, i = 1, 2, . . . , p. Dans ce cas, on a :

    X t  = A(L)−1B(L)ǫt =

    ∞i=0

    ciǫt−i

    alors  X t  est une combinaison linéaire de  ǫt, ǫt−1, . . .   (cette

    combinaison est une solution non anticipative ou causale del’équation  ARMA( p, q )).

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Processus ARMA( p, q ) : écriture  AR(∞).

  • 8/18/2019 Séries Chro Insea

    62/116

    Pour que  ǫ soit l’innovation du processus  X , il faut que les  q solutions  x∗

    1, x∗

    2, . . . , x∗

    q de l’équation caractéristique :

    1− b1x− b2x2 − · · · − bqxq = 0

    soient telles que |x∗i | > 1, i = 1, 2, . . . , q  .

    Si ces contraintes sont satisfaites, le processus  X t  peut s’écriresous forme autorégressive infinie   [AR(∞)] :

    ǫt  = A(L)B(L)−1X t = X t+d1X t−1+d2X t−2+· · · =

    i=0diX t−i.

    Alors ǫt  peut s’écrire comme une combinaison linéaire deX t, X t−1, . . .  et on dit que le processus est inversible.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Caractérisation des autocorrélogrammes.

  • 8/18/2019 Séries Chro Insea

    63/116

    Processus  AR( p) :Les autocorrélations vérifient les équations de Yule-Walker :

    ρh +

     p

    i=1aiρh−i = 0,   ∀h > 0.

    Elles sont toujours non nulles et globalement décroissantes.Les autocorrélations partielles sont nulles à partir de l’ordre  p + 1  :

    rh = 0,

      ∀h

    ≥ p + 1   et   r p = a p

     = 0.

    Version de 2015 en cours d’amélioration à ne pas diffuser

  • 8/18/2019 Séries Chro Insea

    64/116

    Processus  M A(q ) :Les autocorrélations sont nulles à partir de l’ordre  q  + 1 :

    ρq  =  −bq

    1 + b21 + b22 +

    · · ·+ b2q

    = 0

    ρh = 0,   ∀h ≥ q  + 1.Les autocorrélations partielles sont toujours non nulles etglobalement décroissantes.

    Version de 2015 en cours d’amélioration à ne pas diffuser

  • 8/18/2019 Séries Chro Insea

    65/116

    Processus  ARMA( p, q ) :Les autocorrélations et les autocorrélations partielles sont non

    nulles et globalement décroissantes.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Modèles non stationnaires et saisonniers.

  • 8/18/2019 Séries Chro Insea

    66/116

    ARIMA( p, d, q ),   SARIMA( p, d, q )(P,D,Q)s,  SARMA( p, P s, q , Qs), . . .

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Processus intégrés.

  • 8/18/2019 Séries Chro Insea

    67/116

    Il s’agit de processus non stationnaires, qui se ramènent pardifférenciation à un processus stationnaire.Exemple :   la marche aléatoire

    X t  = X t−1 + ǫt

    X  n’est pas stationnaire.

    Y t = X t −X t−1 = (1− L)X t = ǫt

    Y  est un bruit blanc et est donc stationnaire.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Processus intégrés : opérateur de différence.

  • 8/18/2019 Séries Chro Insea

    68/116

    (1− L) := ∆ est l’opérateur de différence première.(1− L)d := ∆d est l’opérateur de différence d’ordre  d.Le processus  X  est intégré d’ordre  d (noté  I (d)) si  X  n’est pas

    stationnaire mais que Y  défini par  Y t  = (1−L)dX t est stationnaire.La marche aléatoire est un processus  I (1).

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Modèles ARIMA( p, d, q ).

  • 8/18/2019 Séries Chro Insea

    69/116

    Définition

    On dit que  (X t) est intégré d’ordre  d si  X t, ∆X t, . . . , ∆d−1X t  nesont pas stationnaires et ∆dX t  = (1− L)dX t  est stationnaire.

    Définition

    On dit que  (X t) suit un modèle ARIMA( p, d, q ) si  ∆dX t  suit unARMA( p, q ).

    A(L)(1− L)dX t  = B(L)ǫt, ǫt   bruit blanc

    A(L) et  B(L) n’ont pas de racines communes.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Modèles ARIMA( p, d, q ).

  • 8/18/2019 Séries Chro Insea

    70/116

    Le polynôme  P (z) = A(z)(1

    −z)d est tel que  P (1) = 0

     ⇒ on

    a une "racine unité".Les modèles ARIMA( p, d, q ) sont donc utiles pour des sériesavec tendance polynômiale. Mais ils peuvent aussi convenir àdes séries sans tendance (comme la marche aléatoire).

    En général  d = 1, rarement  d = 2. On ne rencontre jamais lecas  d > 2.

    Racine unité ⇒ Autocorrélations proches de 1 et adécroissance très lente.

    Une observation à une date dépend beaucoup de l’observationprécédente.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Exemple de série non stationnaire.

  • 8/18/2019 Séries Chro Insea

    71/116

    Figure:   Taux de change Yen/USD journalier du 31/08/1971 au 8/09/2006.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Exemple de série non stationnaire.

  • 8/18/2019 Séries Chro Insea

    72/116

    Figure:   Autocorrélations et autocorrélations partielles résiduelles.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Modèles SARIMA.

    Décomposition classique des observations:

  • 8/18/2019 Séries Chro Insea

    73/116

    p q

    X t = m

    t + S 

    t + v

    t,

    mt: composante déterministe

    S t: composante saisonnière de saison  s

    vt: composante aléatoire stationnaireReprésentation qui implique que  X t −X t−s  est stationnaire.⇒  Ne suffit pas pour éliminer les phénomènes saisonniers dans

    bien des cas.

    ⇒  Ne prend pas en compte la nature aléatoire des saisons.⇒  Modèles SARIMA : Introduire de l’aléa dans la modélisation de

    la saisonnalité.

    Version de 2015 en cours d’amélioration à ne pas diffuser

  • 8/18/2019 Séries Chro Insea

    74/116

    Modèles SARIMA.D’une manière plus générale, pour une saison  s:

  • 8/18/2019 Séries Chro Insea

    75/116

    Φ(Ls)X t  = Θ(Ls)ut.   (1)

    Les saisons sont prises en compte par une telle approche.

    ⇒  Une telle modélisation implique qu’il n’existe pas de liens entreles mois des différents saisons.

    On peut imaginer que le processus  (ut) suit un modèleARMA( p, q ). (Idée :  les dynamiques non prises en compte parles saisons se retrouvent dans les erreurs en (1))

    A(L)ut  = B(L)ǫt

    ⇒  En appliquant les polynômes  A(L) et B(L) à gauche et àdroite de (1)

    A(L)Φ(Ls)X t  = B(L)Θ(Ls)ǫt.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Modèles SARIMA.

  • 8/18/2019 Séries Chro Insea

    76/116

    Définition

    On dit que  (X t) suit un modèle SARIMA( p, d, q )(P,D,Q)s  depériode s, si le processus différencié  Y t = (1− L)d(1− Ls)DX t  estun processus ARMA causal

    A(L)Φ(Ls)Y t = B(L)Θ(Ls)ǫt

    "pré-traitement" :

    Filtre :   (1− L)d élimine une éventuelle tendancedéterministe/marche aléatoire (d = 0 ou  1)

    Filtre :   (1− Ls

    )D

    élimine éventuellement la saison (D = 0 ou1).

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Modèles SARMA multiplicatif : cas particulier SARIMA.

  • 8/18/2019 Séries Chro Insea

    77/116

    DéfinitionOn dit que  (X t) suit un modèle SARMA( p, P s, q , Qs) de période  s,si le processus différencié  Y t  = (1− Ls)X t  est un processus ARMAcausal

    A(L)Φ(Ls)Y t = B(L)Θ(Ls)ǫt

    "pré-traitement" :

    Filtre :   Φ(Ls) et Θ(Ls) polynômes des coefficients saisonniers.

    Filtre :   A(L) et B(L) polynômes des coefficients non

    saisonniers.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Implémentation des Modèles SARIMA.

  • 8/18/2019 Séries Chro Insea

    78/116

    1-  Transformer la série observée  X t de mainière à obtenir un

    processus Y t  qui apparaît "à peu près" stationnaire.(Application des filtres  (1− Ls)D et éventuellement  (1− L)d)

    2-   Identifier les ordres  P, Q en examinant les autocorrélationsρ̂(ks),  k

    ∈ {1, . . . , K  

    }, par exemple (autocorrélations d’ordre

    multiple de  s).⇒  Autocorrélations à décroissance rapide→ P  = 0, s’annulent de

    façon abrupte→ Q = 0, etc. . . .3-   Identifier les ordres  p, q  en examinant les  ρ̂(1), . . . , ρ̂(s− 1)4-  Estimation et validation du modèle.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Méthode de Box et Jenkins.

  • 8/18/2019 Séries Chro Insea

    79/116

    Méthodologie de Box et Jenkins.

    Méthode permettant de trouver en plusieurs étapes un modèleARMA représentant la série statistique étudiée.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Méthodologie Box et Jenkins.

    G h d l é i d i i é

  • 8/18/2019 Séries Chro Insea

    80/116

    Graphe de la série, tests de racine unité ❅  ❅ ❘

        ✠Différencier, ∆ ou  ∆s   ✲Identifier le modèle

     ❄Estimation du modèle

     ❄Validation du modèle ❄

    Choix du modèle ❄

    Prévision, analyse du modèle

    Si on conclut que la série est stationnaire ⇒ On procède àl’identification, estimation, validation,. . . .Notations :   ∆X t  = X t −X t−1  ou  ∆s = X t −X t−s.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Première étape : analyse des données.

  • 8/18/2019 Séries Chro Insea

    81/116

    Étape fondée sur les représentations graphiques des données et desautocorrélogrammes ayant pour objet la stationnarisation de la sérieainsi que la correction de valeurs aberrantes. On peut :

    1-  faire une différence ordinaire :

    (1− L),   (1− L)2

    , . . . , (1− L)d

    .

    2-  faire une différence saisonnière :   (1− Ls).3-   faire une transformation log, √ , . . . .4-   . . . .

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Deuxième étape : identification du modèle.

  • 8/18/2019 Séries Chro Insea

    82/116

    Cette étape est basée sur l’analyse des autocorrélogrammes de lasérie stationnarisée ainsi que sur la méthode du coin. On peututiliser des critères d’information tels que : AIC, BIC,. . . .

    Elle aboutit au choix de la forme d’un modèle :

    AR( p), M A(q ), ARMA( p, q ), ARIMA( p, d, q ), . . .

    avec ou sans transformation des données.

    Version de 2015 en cours d’amélioration à ne pas diffuser

  • 8/18/2019 Séries Chro Insea

    83/116

    Estimation du modèle AR( p).

    Processus AR( p)  : Les équations de Yule-Walker

  • 8/18/2019 Séries Chro Insea

    84/116

    Modèle AR( p) :

    X t  = a1X t−1 + · · · + a pX t− p + ǫt, V (ǫt) = σ2.

    En multipliant par  X t−h,  h ∈ {1, . . . , p} à gauche et à droiteet en prenant les espérances :

    γ (h) = a1γ (h − 1) + · · · + a pγ (h− p).

    Avec ces  h relations, en tenant compte de la parité de  γ (·), onécrit sous forme matricielle :

    Γ p = M  pφ   avec M  p = [γ (i − j)] pi,j=1  et φ = (a1, . . . , a p)′

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Estimation AR( p).

  • 8/18/2019 Séries Chro Insea

    85/116

    On peut montrer que  M  p  est inversible.

    On définit un estimateur:

    φ̂ =  M̂ −1 p   Γ̂ p.

    Cet estimateur correspond au l’estimateur des moindres carrés.

    On a les résultats suivants:φ̂ =  φ + o p(n

    −1/2)

    n1

    2 (φ̂ − φ) ⇒ N (0, σ2  M̂ −1 p   )

    ⇒ Construction de bornes de confiance pour les estimateurs, pour

    faire des tests sur les paramètres. . . .

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Estimation (ARMA( p, q )).

  • 8/18/2019 Séries Chro Insea

    86/116

    X t = a

    1X 

    t−1

    +· · ·

    +a p

    X t− p

    +ǫt−

    b1

    ǫt−1−·· ·−

    bq

    ǫt−

    q  E (ǫ2

    t) = σ2

     p et q  ont été déterminés lors de la phase précédente.→ En disposant d’observations  X 1, . . . , X  n  de longueur  n.→ Pour  0 < t ≤ n, les variables aléatoires  et(θ) sont définies

    récursivement par

    et(θ) = X t − p

    i=1

    aiX t−i +

    q j=1

    b jet− j(θ),

    où les valeurs initiales inconnues sont remplacées par zéro:e0(θ) = · · · = e1−q(θ) = X 0  = · · · = X 1− p  = 0 etθ = (a1, a2, . . . , a p, b1, b2, . . . , bq, σ

    2)′.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Maximum de vraisemblance et définition de l’estimateur duMV :

  • 8/18/2019 Séries Chro Insea

    87/116

    → La vraisemblance:

    Ln(θ) =n

    t=1

    1

    (2πσ2)1/2 exp

    −e

    2t (θ)

    2σ2

    .

    → Un estimateur du MV de  θ0  (vrai valeur) est défini comme toutesolution mesurable  θ̂n  de

    θ̂n = arg maxθ∈Θ

    Ln(θ) = arg minθ∈Θ

    ℓn(θ), ℓn(θ) = −2

    n  log Ln(θ).

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Propriétés asymptotiques : estimation (ARMA( p, q )).Théorème: (Normalité asymptotique)

    Sous certaines hypothèses de régularité, on obtient

  • 8/18/2019 Séries Chro Insea

    88/116

    yp g ,

    √ n(θ̂n − θ0)   L→ N (0, Ω := 2J −1),

    où J  = J (θ0) (appelée matrice d’information de Fisher), avec

    J (θ) = limn→∞

    ∂ 2

    ∂θ∂θ′ ℓn(θ)   p.s..

    L’EMV est asymptotiquement normal, convergent.L’EMV correspond à l’estimateur des moindres carrés pour unprocessus AR( p), aussi bien pour processus ARMA( p, q ) sous

    des hypothèses complémentaires.L’EMV est plus efficient que l’estimateur obtenu par moindrescarrés dès que  q > 0  (en comparant les variancesasymptotiques)

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Quatrième étape : validation du modèle.

    Modèle estimé:

  • 8/18/2019 Séries Chro Insea

    89/116

    X t  = â1X t−1 + · · · + â pX t− p + ǫ̂t − b̂1ǫ̂t−1 − · · · − b̂q ǫ̂t−qoù les  ǫ̂t = et(θ̂n) sont les résidus.

    Idée: Comme les estimateurs sont convergents, les résidusdevraient se comporter comme un bruit blanc.

    On définit les autocovariances et autocorrélations résiduelles:

    γ̂ ǫ(h) = n−1

    nt=h+1

    ǫ̂tǫ̂t−h   et   ρ̂ǫ(h) =  γ̂ ǫ(h)

    γ̂ ǫ(0).

    Les autocorrélations résiduelles devraient ne pas être "trop"éloignées de 0.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Validation du modèle.

  • 8/18/2019 Séries Chro Insea

    90/116

    1)  vérification de la blancheur de  ǫ.

    ǫ est non observable, on l’approche à l’aide des résidus  ǫ̂t  del’estimation.•  ǫ doit être de moyenne nulleH 0   :   E (ǫ) = 0.

    Sous  H 0 : t  =√ 

    n¯̂ǫσ̂ ≈ N (0; 1).

    On rejette H 0  avec un risque  α = 5% lorsque la statistique  t estsupérieure à 1.96 en valeur absolue (

    |t

    |> 1.96).

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Validation du modèle.

  • 8/18/2019 Séries Chro Insea

    91/116

    Test individuel

    •  ǫ doit être non autocorrélé

    H 0 :   ρǫ(k) = 0.

    Sous  H 0 :√ 

    nρ̂ǫ̂(k) ≈ N (0; 1).On rejette H 0  avec un risque  α = 5% lorsque l’autocorrélationestimée  ρ̂ǫ̂(k) est supérieure à 1.96/

    √ n en valeur absolue.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Validation du modèle.Test global [Test portmanteau]

  • 8/18/2019 Séries Chro Insea

    92/116

    H 0 :   ρǫ(1) = ρǫ(2) = · · · = ρǫ(m) = 0.

    a)  Statistique de Box et Pierce (1970),  QBP , : sous certaineshypothèses (notamment (ǫt) iid gaussien et  H 0) on montre

    que la statistique :

    QBP   = nm

    h=1

    ρ̂2ǫ (h)

    est approximée par une loi χ2m− p−q, quand  n →∞ et enprenant m →∞ (m > p + q ).Pour un niveau  α :   RH 0  si QBP   > χ2m− p−q;1−α.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Validation du modèle.

  • 8/18/2019 Séries Chro Insea

    93/116

    b)  Statistique de Ljung et Box (1978),  QLB

    , :sous certaineshypothèses (notamment (ǫt) iid gaussien et  H 0) on montreque la statistique :

    QLB  = n(n + 2)m

    h=1ρ̂ǫ(h)

    2

    n− hpeut être approximée par une loi  χ2m− p−q, quand  n →∞ et enprenant m →∞ (m > p + q ).Pour un niveau  α :   RH 0  si QLB  > χ2m− p−q;1−α.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Validation du modèle.

    En cas de non validation du modèle ARMA( p, q ) :

    Essayer le modèle ARMA(p + 1 q) ou le modèle

  • 8/18/2019 Séries Chro Insea

    94/116

    Essayer le modèle ARMA( p + 1, q ) ou le modèle

    ARMA( p, q  + 1)Ne pas ajuster un modèle ARMA( p + 1, q  + 1) (ce modèlen’est pas identifié sous l’hypothèse de processus ARMA( p, q ))

    ⇒  Retour à la phase d’indentification.

    En cas de validation du modèle ARMA( p, q ) :Penser à privilégier des modèles plus simples (par exemplel’utilisation d’un AIC peut amener au choix d’un modèlecompliqué lors de la phase d’identification).

    Vérifier la pertinence des paramètres du modèle avec lesT-ratio (obtenu en exploitant la normalité asymptotique desestimateurs).

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Validation du modèle.

  • 8/18/2019 Séries Chro Insea

    95/116

    2)   Tests sur les coefficients.

    Ces tests sont utiles pour éliminer des coefficients non significatifs

    des modèles ou pour juger de la pertinence d’une augmentation oud’une diminution des ordres du modèle.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Tests sur les paramètres:

    Pour tester la nullité ou la constance de certains coefficients,  s0

  • 8/18/2019 Séries Chro Insea

    96/116

    Pour tester la nullité ou la constance de certains coefficients, s0

    contraintes linéaires peuvent être testées sur les paramètres  θ0  dumodèle (en particulier  a p  = 0 ou  bq  = 0).

    Hypothèse nulle :

    H 0   :   R0θ0 =   r 0, où R0  est une matrice  s0×

    k0  connue de rangs0  et   r 0  est aussi un vecteur connu de dimension  s0, avec  k0   lenombre de paramètres estimés.

    Diverses approches asymptotiques: la procédure de Wald, celle dumultiplicateur de Lagrange encore appelée du score ou de Rao-scoreet la méthode du rapport de vraisemblance.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Statistique de Wald :

    De la normalité asymptotique de  θ0, on déduit que :

    L

  • 8/18/2019 Séries Chro Insea

    97/116

    √ nR0ˆθn − r 0   L→ N 0, R0ΩR′0 := R0 2J −1R′0 ,quand  n →∞. La statistique de Wald est

    Wn = n(R0θ̂n − r 0)′(R0Ω̂R′0)−1(R0θ̂n − r 0),

    où  Ω̂ := 2 Ĵ −1 est un estimateur convergent de  Ω.Sous  H 0, cette statistique suit une distribution de  χ2s0.Rejeter H 0  quand  Wn  > χ2s0(1− α) pour un niveau de risqueasymptotique  α.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Statistique du LM :

    Soit  θ̂cn   l’EMV contraint sous  H 0. Définissons le Lagrangien

  • 8/18/2019 Séries Chro Insea

    98/116

    L(θ, λ) = ℓn(θ) − λ′(R0θ − r 0),où λ est de dimension  s0. Les conditions de premier ordre donnent

    ∂ℓn

    ∂θ (θ̂c

    n

    ) = R′

    0

    λ̂, R0θ̂c

    n

     =   r 0.

    Sous   H 0,√ 

    nλ̂  L→ N 0, 2(R0J −1R′0)−1 ,

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Statistique du LM :

    La statistique du LM est

  • 8/18/2019 Séries Chro Insea

    99/116

    LMn   =   nλ̂′ 2(R0 Ĵ −1R′0)−1−1 λ̂=

      n

    2

    ∂ℓn∂θ′

     (θ̂cn) Ĵ −1

    ∂ℓn∂θ

     (θ̂cn).

    De la convergence du vecteur multiplicateur de Lagrange, on a ladistribution asymptotique de la statistique LMn  qui suit unedistribution  χ2s0   sous  H 0.L’hypothèse nulle est rejetée quand LMn > χ2s0(1− α).

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Statistique du LR :Un développement limité de Taylor nous montre que

    √ n θ̂n − θ̂cn

     op(1)=   −√ nJ −1R′0λ̂,

  • 8/18/2019 Séries Chro Insea

    100/116

    n n√

    0 ,

    et que La statistique du LR: est

    LRn + o p(1) := 2

    log Ln(θ̂n)− log Ln(θ̂cn)

     op(1)=

    n2 (θ̂n

    − θ̂cn)

    ′J (θ̂n

    −θ̂cn)

     op(1)=   LMn.

    Cette statistique suit asymptotiquement une distributions0i=1 λiZ 

    2i  où les  Z i  sont iid N (0, 1) et les  λ1, . . . , λs0  sont les

    valeurs propres de

    ΣLR = J −1/2R′0(R0J 

    −1R′0)−1R0J 

    −1/2

    Version de 2015 en cours d’amélioration à ne pas diffuser

    On a :   ΣLR  est une matrice de projection dont le nombre de v.p.é l à 1 t

  • 8/18/2019 Séries Chro Insea

    101/116

    égales à 1 est

    Tr

    J −1/2R′0(R0J −1R′0)

    −1R0J −1/2

     =  Tr (I s0) = s0.

    Ainsi LRn ∼ χ2s0   sous  H 0.

    L’hypothèse nulle est rejetée quandLR

    n > χ2

    s0(1− α).

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Cinquième étape : comparaison de modèles.

  • 8/18/2019 Séries Chro Insea

    102/116

    Il arrive que plusieurs modèles soient satisfaisants du point de vuestatistique. Il faut alors choisir le meilleur d’entre eux, encomparant leur qualité d’ajustement et de prévision.

    On utilise les critères d’information et les critères de qualitéprédictive.

    Version de 2015 en cours d’amélioration à ne pas diffuser

  • 8/18/2019 Séries Chro Insea

    103/116

    Critères d’information.

  • 8/18/2019 Séries Chro Insea

    104/116

    σ̂2 p,q  est la variance résiduelle du modèle ARMA( p, q ) ajusté

    L est la vraisemblance.

    Idée: Plus on complique le modèle, plus  σ̂2 p,q  décroit ⇒ On

    pénalise les modèles les + compliqués.Un modèle est préférable à un autre lorsque son critère AIC (resp.BIC) est inférieur à celui de l’autre modèle.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Propriétés des critères.

    La pénalisation des modèles est plus forte en utilisant le critère

  • 8/18/2019 Séries Chro Insea

    105/116

    BIC.Le modèle sélectionné correspond à la valeur de l’IC minimum.

    Le critère AIC a tendance a selectionner des modèles pluscompliqués que ceux choisis par BIC.

    Le critère BIC est convergent = AIC (ˆ p →  p et  q̂  → q  quandn →∞Le critère AIC est efficient = BIC (au sens de la minimisationde l’erreur de prévision).

    Le processus  (X t) suit-il réellement un ARMA( p, q )? ⇒ On nepeut conclure quel type de IC est meilleur que l’autre!!

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Critères de qualité prédictive :

  • 8/18/2019 Séries Chro Insea

    106/116

    l’erreur moyenne  e =  T −1T 

    t=1 et,

    l’erreur moyenne absolue MAE:= T −1T 

    t=1 | et |,l’erreur moyenne absolue en pourcentageMAPE:= T −1T t=1 | et/X t |,le carré moyen des erreurs MSE:= T −1T t=1 e2t ,la variance empirique de l’erreur  V e(e) := T −1

    T t=1(et − e)2.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Sixième étape : calcul des prévisions.

  • 8/18/2019 Séries Chro Insea

    107/116

    Premier exemple :   AR(2).

    X t  = a1X t−1 + a2X t−2 + ǫt

    Données :   X 1, X 2, . . . , X  T 

    Prévisions : faites en  T   pour  X T +1, X T +2, . . .

    →  X̂ T (1),  X̂ T (2), . . . .

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Exemple AR(2).

  • 8/18/2019 Séries Chro Insea

    108/116

    X T +1 = a1X T  + a2X T −1 + ǫT +1EL(X T +1|X T , X T −1, . . . ) = a1X T  + a2X T −1

    X̂ T (1) = â1X T  + â2X T −1

    X T +2 = a1X T +1 + a2X T  + ǫT +2

    EL(X T +2|X T , X T −1, . . . ) = a1EL(X T +1|X T , X T −1, . . . ) + a2X T X̂ T (2) = â1  X̂ T (1) + â2X T 

    ...   =  ...

    X̂ T (h) = â1  X̂ T (h − 1) + â2 X̂ T (h − 2), h ≥ 3.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Deuxième exemple :   MA(2).

    X t  = ǫt − b1ǫt−1 − b2ǫt−2

  • 8/18/2019 Séries Chro Insea

    109/116

    X T +1 = ǫT +1 − b1ǫT  − b2ǫT −1EL(X T +1|X T , X T −1, . . . ) = −b1ǫT  − b2ǫT −1

    X̂ T (1) = −b̂1ǫ̂T  − b̂2ǫ̂T −1X T +2 = ǫT +2 − b1ǫT +1 − b2ǫT 

    EL(X T +2|X T , X T −1, . . . ) = −b1 EL(ǫT +1|X T , X T −1, . . . )   =0

    −b2ǫT 

    X̂ T (2) =

    −b̂2ǫ̂T 

    ...   =   ...

    X̂ T (h) = 0, h ≥ 3.

    Version de 2015 en cours d’amélioration à ne pas diffuser

  • 8/18/2019 Séries Chro Insea

    110/116

    Erreurs de prévision.

    A(L)X = B(L)ǫ X = A−1(L)B(L)ǫ

  • 8/18/2019 Séries Chro Insea

    111/116

    A(L)X t = B(L)ǫ

    t ⇒X 

    t = A (L)B(L)ǫ

    t,

    ⇒ X t = ǫt + α1ǫt−1 + α2ǫt−2 + α3ǫt−3 + . . . ,avec   A(L) = 1−a1L−· · ·−a pL p, B(L) = 1−b1L−· · ·−bqLq

    EL(X t|X t−1, X t−2, . . . ) = α1ǫt−1 + α2ǫt−2 + α3ǫt−3 + . . .

    X t − EL(X t|X t−1, X t−2, . . . ) = ǫt

    X t −  ˆX t−1(1) = et

    Version de 2015 en cours d’amélioration à ne pas diffuser

  • 8/18/2019 Séries Chro Insea

    112/116

    Erreurs de prévision.

    A(L)X t  = B(L)ǫt ⇒ X t  = A−1(L)B(L)ǫt,X = ǫ + α ǫ + α ǫ + α ǫ +

  • 8/18/2019 Séries Chro Insea

    113/116

    ⇒X 

    t = ǫ

    t + α

    1ǫt−1

     + α2

    ǫt−2

     + α3

    ǫt−3

     + . . . .

    EL(X t|X t−h, X t−h−1, . . . ) = αhǫt−h+αh+1ǫt−h−1+αh+2ǫt−h−2+. . .

    X t − EL(X t|X t−h, X t−h−1, . . . ) = ǫt + · · · + αh−1ǫt−h+1

    X t −  X̂ t−h(h) = et + α̂1et−1 + · · · + α̂h−1et−h+1On utilisera les erreurs de prévision pour construire des intervallesde prévisions.

    Version de 2015 en cours d’amélioration à ne pas diffuser

    Intervalles de prévision à l’horizon  h = 1.

  • 8/18/2019 Séries Chro Insea

    114/116

    Pour la prévision à l’horizon  h = 1, on a :X T +1 −  X̂ T (1) = eT +1 ≈ N (0; σ̂2)

    Donc  P(−1, 96σ̂ < eT +1 

  • 8/18/2019 Séries Chro Insea

    115/116

    X T +h −

    X T 

    (h)  eT +h

     + α1

    eT +h

    −1

     +· · ·

    + αh−1

    eT +1≈ N (0; (1 + α̂21 + · · · + α̂2h−1)σ̂2).

    DoncP(−1, 96σ̂ < eT +h + α̂1eT +h−1 + · · ·+ α̂h−1eT +1 

  • 8/18/2019 Séries Chro Insea

    116/116

    Remarques générales:Si  E (X t) = µ = 0 on rajoute un paramètre au modèle pourprendre en compte ce genre de situation.

    Dans ce cas on ajoute  µ aux prévisions.

    Nous sommes dans un cas stationnaire, les prévisions serapprochent de  µ à mesure que l’on prend  k  grand.

    En pratique les paramètres sont inconnus ⇒ On les remplacepar leurs estimations.

    Version de 2015 en cours d’amélioration à ne pas diffuser