Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis...

61
Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique Forces et faiblesses Le bootstrap en action Exemple 1 Exemple 2 Conclusion Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 1 / 32 Bruffaerts Christopher Une introduction au monde du Bootstrap Bruffaerts Christopher European Center for Advanced Research in Economics and Statistics (ECARES) Août 5, 2013

Transcript of Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis...

Page 1: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 1 / 32

Bruffaerts Christopher

Une introduction au monde du Bootstrap

Bruffaerts Christopher

European Center for Advanced Research in Economics and Statistics (ECARES)

Août 5, 2013

Page 2: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 2 / 32

Bruffaerts Christopher

Quand on google le mot “Bootstrap”...

Page 3: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 2 / 32

Bruffaerts Christopher

Quand on google le mot “Bootstrap”...

Page 4: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 2 / 32

Bruffaerts Christopher

Agenda

1 Introduction

2 Le bootstrap

3 Algorithme

4 Forces et faiblesses

5 Le bootstrap en action

6 Conclusion

Page 5: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 3 / 32

Bruffaerts Christopher

Population VS échantillon

Inférence statistique

Domaines d’application de la statistique: Sondages, plansd’expérience, modèles de survie, GLM, contrôle de qualité, statistiquespatiale, séries temporelles, . . .

Page 6: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 3 / 32

Bruffaerts Christopher

Population VS échantillon

Inférence statistique

Domaines d’application de la statistique: Sondages, plansd’expérience, modèles de survie, GLM, contrôle de qualité, statistiquespatiale, séries temporelles, . . .

Page 7: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 4 / 32

Bruffaerts Christopher

Paramétrique VS non Paramétrique

Soit un échantillon i.i.d. X = (X1,X2, . . . ,Xn) issu d’une populationdont la fonction de répartition est F(x) = P[X ≤ x].

F(.) = Fθ(.) où θ ∈ Rk ⇒ paramétrique.

La teneur en sucre de bonbons: X ∼ N (µ, σ2) avecθ = (µ, σ2)′.

Nombre d’accidents sur un laps de temps: X ∼ P(λ) avecθ = λ > 0.

La durée de vie d’ampoules: X ∼ Exp(λ) avec θ = λ > 0.

F(.) inconnue ⇒ non-paramétrique.Tests de signesTests de rangs

Page 8: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 4 / 32

Bruffaerts Christopher

Paramétrique VS non Paramétrique

Soit un échantillon i.i.d. X = (X1,X2, . . . ,Xn) issu d’une populationdont la fonction de répartition est F(x) = P[X ≤ x].

F(.) = Fθ(.) où θ ∈ Rk ⇒ paramétrique.

La teneur en sucre de bonbons: X ∼ N (µ, σ2) avecθ = (µ, σ2)′.

Nombre d’accidents sur un laps de temps: X ∼ P(λ) avecθ = λ > 0.

La durée de vie d’ampoules: X ∼ Exp(λ) avec θ = λ > 0.

F(.) inconnue ⇒ non-paramétrique.Tests de signesTests de rangs

Page 9: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 5 / 32

Bruffaerts Christopher

Paramètres d’intérêt

Fonctionnelle statistique: fonction à valeur réelle dont l’argument estune fonction de répartition.

Exemples:Moyenne: θ = T (F) =

∫xdF(x).

ex.: Age moyen des étudiants de l’ULB.

Variance: θ = T (F) =∫

x2dF(x)−( ∫

xdF(x))2

.

ex.: Pourcentage de viande de cheval dans les boulettes IKEA.Quantile: θ = T (F) = F−1(α), α ∈ [0, 1].

ex.: Revenu médian de la population belge.

Question: Comment estimer ces paramètres à partir de l’échantillon?

F inconnue mais Fn est connue !

Page 10: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 5 / 32

Bruffaerts Christopher

Paramètres d’intérêt

Fonctionnelle statistique: fonction à valeur réelle dont l’argument estune fonction de répartition.

Exemples:Moyenne: θ = T (F) =

∫xdF(x).

ex.: Age moyen des étudiants de l’ULB.

Variance: θ = T (F) =∫

x2dF(x)−( ∫

xdF(x))2

.

ex.: Pourcentage de viande de cheval dans les boulettes IKEA.Quantile: θ = T (F) = F−1(α), α ∈ [0, 1].

ex.: Revenu médian de la population belge.

Question: Comment estimer ces paramètres à partir de l’échantillon?

F inconnue mais Fn est connue !

Page 11: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 5 / 32

Bruffaerts Christopher

Paramètres d’intérêt

Fonctionnelle statistique: fonction à valeur réelle dont l’argument estune fonction de répartition.

Exemples:Moyenne: θ = T (F) =

∫xdF(x).

ex.: Age moyen des étudiants de l’ULB.

Variance: θ = T (F) =∫

x2dF(x)−( ∫

xdF(x))2

.

ex.: Pourcentage de viande de cheval dans les boulettes IKEA.Quantile: θ = T (F) = F−1(α), α ∈ [0, 1].

ex.: Revenu médian de la population belge.

Question: Comment estimer ces paramètres à partir de l’échantillon?

F inconnue mais Fn est connue !

Page 12: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 6 / 32

Bruffaerts Christopher

Fonction de répartition empirique

Fn(x) = 1n∑n

i=1 1(Xi ≤ x)

Par le théorème de Glivenko-Cantelli, Fn(x) P−→ F(x)

Figure: Fonction de répartition de N (0, 1) et sa version empirique.

Page 13: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 6 / 32

Bruffaerts Christopher

Fonction de répartition empirique

Fn(x) = 1n∑n

i=1 1(Xi ≤ x)

Par le théorème de Glivenko-Cantelli, Fn(x) P−→ F(x)

Figure: Fonction de répartition de N (0, 1) et sa version empirique.

-3 -2 -1 0 1 2 3

0.0

0.2

0.4

0.6

0.8

1.0

ecdf(zgen)

x

Fn(x)

n=10

Page 14: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 6 / 32

Bruffaerts Christopher

Fonction de répartition empirique

Fn(x) = 1n∑n

i=1 1(Xi ≤ x)

Par le théorème de Glivenko-Cantelli, Fn(x) P−→ F(x)

Figure: Fonction de répartition de N (0, 1) et sa version empirique.

-3 -2 -1 0 1 2 3

0.0

0.2

0.4

0.6

0.8

1.0

ecdf(zgen)

x

Fn(x)

n=100

Page 15: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 6 / 32

Bruffaerts Christopher

Fonction de répartition empirique

Fn(x) = 1n∑n

i=1 1(Xi ≤ x)

Par le théorème de Glivenko-Cantelli, Fn(x) P−→ F(x)

Figure: Fonction de répartition de N (0, 1) et sa version empirique.

-3 -2 -1 0 1 2 3

0.0

0.2

0.4

0.6

0.8

1.0

ecdf(zgen)

x

Fn(x)

n=1000

Page 16: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 7 / 32

Bruffaerts Christopher

Estimation: Principe du plug-in

Soit l’échantillon i.i.d. X = (X1, . . . ,Xn).

Exemples:Moyenne: θ = T (Fn) =

∫xdFn(x) = 1

n∑n

i=1 Xi .

Variance:θ =

∫x2dFn(x)−

( ∫xdFn(x)

)2= 1

n∑n

i=1 X2i −(

1n∑n

i=1 Xi

)2.

Médiane: θ = T (Fn) = F−1n (1/2).

Question: Quelle est la distribution échantillonnée de l’estimateur?

Biais(θ) = EF [θ]− θ

Var(θ) = EF

[(θ − EF [θ]

)2]EQM (θ) = EF [(θ − θ)2]

Page 17: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 7 / 32

Bruffaerts Christopher

Estimation: Principe du plug-in

Soit l’échantillon i.i.d. X = (X1, . . . ,Xn).

Exemples:Moyenne: θ = T (Fn) =

∫xdFn(x) = 1

n∑n

i=1 Xi .

Variance:θ =

∫x2dFn(x)−

( ∫xdFn(x)

)2= 1

n∑n

i=1 X2i −(

1n∑n

i=1 Xi

)2.

Médiane: θ = T (Fn) = F−1n (1/2).

Question: Quelle est la distribution échantillonnée de l’estimateur?

Biais(θ) = EF [θ]− θ

Var(θ) = EF

[(θ − EF [θ]

)2]EQM (θ) = EF [(θ − θ)2]

Page 18: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 8 / 32

Bruffaerts Christopher

Méthodes de Monte-Carlo

Supposons que F soit connue. Soit S(X ) une statistique.Comment obtenir la distribution échantillonnée de S?

=⇒ Monte-Carlo: Générer B (grand!) échantillons à partir de F !

Population Ech. 1

Ech. 2

Ech. 3

Ech. 4

Ech. B

Page 19: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 8 / 32

Bruffaerts Christopher

Méthodes de Monte-Carlo

Supposons que F soit connue. Soit S(X ) une statistique.Comment obtenir la distribution échantillonnée de S?

=⇒ Monte-Carlo: Générer B (grand!) échantillons à partir de F !

Population Ech. 1

Ech. 2

Ech. 3

Ech. 4

Ech. B

Page 20: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 9 / 32

Bruffaerts Christopher

Illustration du Monte-Carlo

Soit X ∼ Exp(µ) et θ = µ = E [X ], θ = S(X ) = X .1 X ∼ Γ(n, µn )

Hn(x) = P[X ≤ x] =∫ x

0

un−1e−nu/µ

(µ/n)nΓ(n) du

2 Pour n grand, X ≈ N (µ, µ2/n)

Hn(x) = P[X ≤ x] ≈ Φ( x − µµ/√

n

)

3 Simulations de Monte-CarloTirer B échantillons de F (de taille n): {X (b), b = 1, . . . ,B}.Calculer la statistique de test S pour chacun de ces échantillons.Approximation numérique de Hn(x):

Hn(x) = P[X ≤ x] ≈ 1B

B∑b=1

1(S(X (b)) ≤ x)

Page 21: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 9 / 32

Bruffaerts Christopher

Illustration du Monte-Carlo

Soit X ∼ Exp(µ) et θ = µ = E [X ], θ = S(X ) = X .1 X ∼ Γ(n, µn )

Hn(x) = P[X ≤ x] =∫ x

0

un−1e−nu/µ

(µ/n)nΓ(n) du

2 Pour n grand, X ≈ N (µ, µ2/n)

Hn(x) = P[X ≤ x] ≈ Φ( x − µµ/√

n

)3 Simulations de Monte-Carlo

Tirer B échantillons de F (de taille n): {X (b), b = 1, . . . ,B}.Calculer la statistique de test S pour chacun de ces échantillons.Approximation numérique de Hn(x):

Hn(x) = P[X ≤ x] ≈ 1B

B∑b=1

1(S(X (b)) ≤ x)

Page 22: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 10 / 32

Bruffaerts Christopher

Illustration du Monte-Carlo

Distribution échantillonnée de X pour X ∼ Exp(3) avec n = 10.

-4 -2 0 2 4 6 8 10

0.0

0.1

0.2

0.3

0.4

x

gGammaNormalMonte-Carlo

Page 23: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 10 / 32

Bruffaerts Christopher

Agenda

1 Introduction

2 Le bootstrap

3 Algorithme

4 Forces et faiblesses

5 Le bootstrap en action

6 Conclusion

Page 24: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 11 / 32

Bruffaerts Christopher

Deux mondes parallèles

Monde réel

F Fn

θ θn

T T

X = (X1,X2, . . . ,Xn) issu d’unepopulation dont F est inconnue.

T(Fn) est un estimateur de θ.Distribution de T(Fn) (ouS(X )) autour de θ inconnue.

Monde du bootstrap

Fn FRn

θn θ∗Rn

T T

X ∗ = (X∗1 ,X∗2 , . . . ,X∗n ) issu de lapopulation X dont Fn est connue.

T(FRn ) (ou S(X ∗)) est un

estimateur de θ.Conditionnellement à X , ladistribution de S(X ∗) estconnue!

Principe: Distribution de S(X ) ≈ Distribution de S(X ∗)

Page 25: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 11 / 32

Bruffaerts Christopher

Deux mondes parallèles

Monde réel

F Fn

θ θn

T T

X = (X1,X2, . . . ,Xn) issu d’unepopulation dont F est inconnue.

T(Fn) est un estimateur de θ.Distribution de T(Fn) (ouS(X )) autour de θ inconnue.

Monde du bootstrap

Fn FRn

θn θ∗Rn

T T

X ∗ = (X∗1 ,X∗2 , . . . ,X∗n ) issu de lapopulation X dont Fn est connue.

T(FRn ) (ou S(X ∗)) est un

estimateur de θ.Conditionnellement à X , ladistribution de S(X ∗) estconnue!

Principe: Distribution de S(X ) ≈ Distribution de S(X ∗)

Page 26: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 11 / 32

Bruffaerts Christopher

Deux mondes parallèles

Monde réel

F Fn

θ θn

T T

X = (X1,X2, . . . ,Xn) issu d’unepopulation dont F est inconnue.

T(Fn) est un estimateur de θ.Distribution de T(Fn) (ouS(X )) autour de θ inconnue.

Monde du bootstrap

Fn FRn

θn θ∗Rn

T T

X ∗ = (X∗1 ,X∗2 , . . . ,X∗n ) issu de lapopulation X dont Fn est connue.

T(FRn ) (ou S(X ∗)) est un

estimateur de θ.Conditionnellement à X , ladistribution de S(X ∗) estconnue!

Principe: Distribution de S(X ) ≈ Distribution de S(X ∗)

Page 27: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 12 / 32

Bruffaerts Christopher

Le principe du Bootstrap

L’échantillon bootstrap est à l’échantillon ce que l’échantillon est à lapopulation!

Dans le monde du bootstrap:

Distribution: Fn(x) = 1n∑n

i=1 1(Xi ≤ x)

Paramètre d’intérêt: θ = S(X ).

Echantillon bootstrap X ∗ issu de Fn.

Estimateur échantillon bootstrap : θ∗n = S(X ∗).

Principe:Distribution échantillonnée de θn autour de θ ≈ Distributionéchantillonnée de θ∗n autour de θ.

Page 28: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 12 / 32

Bruffaerts Christopher

Le principe du Bootstrap

L’échantillon bootstrap est à l’échantillon ce que l’échantillon est à lapopulation!

Dans le monde du bootstrap:

Distribution: Fn(x) = 1n∑n

i=1 1(Xi ≤ x)

Paramètre d’intérêt: θ = S(X ).

Echantillon bootstrap X ∗ issu de Fn.

Estimateur échantillon bootstrap : θ∗n = S(X ∗).

Principe:Distribution échantillonnée de θn autour de θ ≈ Distributionéchantillonnée de θ∗n autour de θ.

Page 29: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 13 / 32

Bruffaerts Christopher

Le monde du Bootstrap

Question: Comment construire la distribution échantillonnée de θ∗n?

=⇒ via Monte-Carlo (rééchantillonnage):1 Bootstrap non-paramétrique2 Bootstrap paramétrique

Echantillon Ech.* 1

Ech.* 2

Ech.* 3

Ech.* 4

Ech.* B

Page 30: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 13 / 32

Bruffaerts Christopher

Le monde du Bootstrap

Question: Comment construire la distribution échantillonnée de θ∗n?=⇒ via Monte-Carlo (rééchantillonnage):

1 Bootstrap non-paramétrique2 Bootstrap paramétrique

Echantillon Ech.* 1

Ech.* 2

Ech.* 3

Ech.* 4

Ech.* B

Page 31: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 14 / 32

Bruffaerts Christopher

L’idée du rééchantillonnage (Efron, 1979)

L’idée se base sur la technique de rééchantillonnage avecremplacement.

Qu’est ce qu’un rééchantillonnage?

Soit l’échantillon X = (2, 12, 20, 26, 78) de taille n = 5.X ∗(1) = (12, 20, 78, 26, 2)X ∗(2) = (26, 78, 12, 12, 2)X ∗(3) = (20, 20, 20, 20, 20). . .X ∗(B) = (26, 2, 2, 78, 20)

Page 32: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 14 / 32

Bruffaerts Christopher

L’idée du rééchantillonnage (Efron, 1979)

L’idée se base sur la technique de rééchantillonnage avecremplacement.

Qu’est ce qu’un rééchantillonnage?

Soit l’échantillon X = (2, 12, 20, 26, 78) de taille n = 5.X ∗(1) = (12, 20, 78, 26, 2)X ∗(2) = (26, 78, 12, 12, 2)X ∗(3) = (20, 20, 20, 20, 20). . .X ∗(B) = (26, 2, 2, 78, 20)

Page 33: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 15 / 32

Bruffaerts Christopher

Principe du bootstrap: exemple

Soit l’échantillon X = (2, 12, 20, 26, 78) et S(X ) = X .

X ∗(1) = (12, 20, 78, 26, 2) −→ S(X ∗) = 27.6X ∗(2) = (26, 78, 12, 12, 2) −→ S(X ∗) = 26X ∗(3) = (20, 20, 20, 20, 20) −→ S(X ∗) = 20...

......

......

......

X ∗(B) = (26, 20, 12, 2, 26) −→ S(X ∗) = 17.2

Frequency

20 40 60 80

050

100

150

200

250

Page 34: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 16 / 32

Bruffaerts Christopher

Inférence sur le paramètre d’intérêt

Supposons Rn =√

n(θ − θ) et sa distribution Hn(x) = P(Rn ≤ x).Si Hn est connue,

IC (1− α) =[θ −

q1−α/2√n

, θ −qα/2√

n

]où qα/2 = H−1

n (α/2) et q1−α/2 = H−1n (1− α/2).

Exemple: Si X ∼ N (µ, σ2); Rn =√

n(X − µ) ∼ N (0, σ2)

IC (1− α) =[X − z1−α/2

σ√n, X − zα/2

σ√n

]

Si Hn est inconnue, le bootstrap approxime Hn!Quantiles q∗α/2 = H−1

n (α/2) et q∗1−α/2 = H−1n (1− α/2) où:

Hn(x) ≈ 1B

B∑b=1

1

(√n(θ∗(b) − θ) ≤ x

)

Page 35: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 16 / 32

Bruffaerts Christopher

Inférence sur le paramètre d’intérêt

Supposons Rn =√

n(θ − θ) et sa distribution Hn(x) = P(Rn ≤ x).Si Hn est connue,

IC (1− α) =[θ −

q1−α/2√n

, θ −qα/2√

n

]où qα/2 = H−1

n (α/2) et q1−α/2 = H−1n (1− α/2).

Exemple: Si X ∼ N (µ, σ2); Rn =√

n(X − µ) ∼ N (0, σ2)

IC (1− α) =[X − z1−α/2

σ√n, X − zα/2

σ√n

]Si Hn est inconnue, le bootstrap approxime Hn!Quantiles q∗α/2 = H−1

n (α/2) et q∗1−α/2 = H−1n (1− α/2) où:

Hn(x) ≈ 1B

B∑b=1

1

(√n(θ∗(b) − θ) ≤ x

)

Page 36: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 17 / 32

Bruffaerts Christopher

Un peu d’histoire...

Baron Münchausen: militaire allemand (1720-1797).

Origine: Provient des histoires à dormir debout du BaronMünchausen. Il prétend que son cheval et lui se soient sortis d’unmarécage simplement en tirant sur:

1 ses cheveux2 les lanières de ses bottes (bootstrap)

“to pull oneself up by one’s own bootstraps”

⇒ Analogie avec le problème statistique:

on se débrouille uniquement avec l’échantillon!

Page 37: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 17 / 32

Bruffaerts Christopher

Un peu d’histoire...

Baron Münchausen: militaire allemand (1720-1797).

Origine: Provient des histoires à dormir debout du BaronMünchausen. Il prétend que son cheval et lui se soient sortis d’unmarécage simplement en tirant sur:

1 ses cheveux2 les lanières de ses bottes (bootstrap)

“to pull oneself up by one’s own bootstraps”

⇒ Analogie avec le problème statistique:

on se débrouille uniquement avec l’échantillon!

Page 38: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 18 / 32

Bruffaerts Christopher

Un peu d’histoire...

Figure: Baron Münchausen (1720-1797)

Page 39: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 18 / 32

Bruffaerts Christopher

Agenda

1 Introduction

2 Le bootstrap

3 Algorithme

4 Forces et faiblesses

5 Le bootstrap en action

6 Conclusion

Page 40: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 19 / 32

Bruffaerts Christopher

De quoi a-t-on besoin pour “bootstrapper”?

“Dans le bootstrap, on a besoin de rien...”

...sauf peut-être...

Sources de variations dans le bootstrap:1 échantillon original aléatoire⇒ Approximation de Hn(x) par Hn(x).

2 tirage aléatoire des échantillons bootstrap⇒ Approximation de Hn(x) via Monte-Carlo (contrôle sur B!)

Page 41: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 19 / 32

Bruffaerts Christopher

De quoi a-t-on besoin pour “bootstrapper”?

“Dans le bootstrap, on a besoin de rien...”

...sauf peut-être...

Sources de variations dans le bootstrap:1 échantillon original aléatoire⇒ Approximation de Hn(x) par Hn(x).

2 tirage aléatoire des échantillons bootstrap⇒ Approximation de Hn(x) via Monte-Carlo (contrôle sur B!)

Page 42: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 20 / 32

Bruffaerts Christopher

Bootstrap non paramétrique

Echantillon dedépart X =(X1, . . . ,Xn)

Distributionempirique Fn(.)

EchantillonBootstrap

X ∗ = (X∗1 , . . . ,X∗n)

DistributionP[X∗

i ≤ x | X ] = Fn(x)

θ = S(X ) θ∗ = S(X ∗)

Rééchantillonnage

S S

Page 43: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 21 / 32

Bruffaerts Christopher

Bootstrap non paramétrique: exemple

Soit l’échantillon (1.7, 2, 2.4, 3.9, 4.3, 4.5, 5.2, 5.8, 6.2, 7.4); n = 10.Soit S(X ) = X = 1

n∑n

i=1 Xi .

Bootstrap nonparamétrique

boot.sampling.dist.NP

Density

2 4 6 8 10

0.00.1

0.20.3

0.40.5

Distribution exacte: X ∼ Γ(n, µn ); (X ∼ Exp(µ)).

Page 44: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 22 / 32

Bruffaerts Christopher

Bootstrap paramétrique

Echantillon dedépart X =(X1, . . . ,Xn)

Distribution ajustéeFn(.) = F

θ(.)

EchantillonBootstrap

X ∗ = (X∗1 , . . . ,X∗n)

DistributionP[X∗

i ≤ x | X ] = Fn(x)

θ = S(X ) θ∗ = S(X ∗)

Simulatio

ns

S S

Page 45: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 23 / 32

Bruffaerts Christopher

Bootstrap paramétrique: exemple

Soit l’échantillon (1.2, 1.7, 1.8, 2, 2.3, 2.6, 3.9, 4.3, 4.5, 5.8); n = 10.Simuler B = 5000 échantillons de la distribution Exp(x).

Bootstrap paramétrique

boot.sampling.dist

Density

2 4 6 8 10

0.00.1

0.20.3

0.40.5

Distribution exacte: X ∼ Γ(n, µn ) ; (X ∼ Exp(µ)).

Page 46: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 24 / 32

Bruffaerts Christopher

Algorithme du bootstrap

Soit l’échantillon X = (X1, . . . ,Xn).1 Générer un échantillon bootstrap X ∗ = (X∗1 , . . . ,X∗n):

ParamétriqueNon-paramétrique

2 Calculer S∗ = S(X∗1 , . . . ,X∗n) = θ∗.3 Répéter les étapes 1 et 2 un certain nombre de fois B.4 Approximer Hn(x) par

Hn(x) = 1B

B∑j=1

1

(√n(θ∗j − θ) ≤ x

).

5 Trouver les quantiles qα/2 et q1−α/2 de Hn(x) et construire l’IC.

Page 47: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 24 / 32

Bruffaerts Christopher

Agenda

1 Introduction

2 Le bootstrap

3 Algorithme

4 Forces et faiblesses

5 Le bootstrap en action

6 Conclusion

Page 48: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 25 / 32

Bruffaerts Christopher

Le bootstrap: une panacée pour l’inférence?

Forces:Permet de calculer des intervalles de confiance, de corriger pourle biais et d’estimer la variabilité liée à l’estimation.Peut être une solution pour des problèmes compliqués.Même si les résultats asymptotiques sont disponibles, lebootstrap offre souvent de meilleures approximations.Facile à implémenter.Flexible.

Faiblesses:Ne marche pas toujours!Peut être lourd computationnellement.Dépend de la représentativité de l’échantillon de départ.

Page 49: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 25 / 32

Bruffaerts Christopher

Agenda

1 Introduction

2 Le bootstrap

3 Algorithme

4 Forces et faiblesses

5 Le bootstrap en action

6 Conclusion

Page 50: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 26 / 32

Bruffaerts Christopher

Exemple 1: Régression linéaire (1)

Modèle: yi = β0 + β1xi + εi , i = 1, . . . ,n; εi ∼ N (0, σ2).

Données: Salaires de 397 professeurs dans un “American College”(2008-2009).

Page 51: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 26 / 32

Bruffaerts Christopher

Exemple 1: Régression linéaire (1)

Modèle: yi = β0 + β1xi + εi , i = 1, . . . ,n; εi ∼ N (0, σ2).Données: Salaires de 397 professeurs dans un “American College”(2008-2009).

0 10 20 30 40 50

100000

150000

200000

Années d'expérience

Salaire

Page 52: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 26 / 32

Bruffaerts Christopher

Exemple 1: Régression linéaire (1)

Modèle: yi = β0 + β1xi + εi , i = 1, . . . ,n; εi ∼ N (0, σ2).Données: Salaires de 397 professeurs dans un “American College”(2008-2009).

0 10 20 30 40 50

100000

150000

200000

Années d'expérience

Salaire

Page 53: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 27 / 32

Bruffaerts Christopher

Exemple 1: Régression linéaire (2)

Inférence: β0 − β0

SE(β0)∼ tn−1 et β1 − β1

SE(β1)∼ tn−1.

Possibilités de rééchantillonnage:1 couples {(xi , yi), i = 1, . . . ,n}2 résidus {ri = yi − yi , i = 1, . . . ,n}

β0 β1Est. SE Est. SE

Théorie 91718.7 2765.8 985.3 107.4Bootstrap 91718.6 2454.1 985.3 126

β0 β1IC (95%) IC (95%)

Théorie [86281, 97156] [774, 1196]Bootstrap [87315, 97726] [702, 1225]

Page 54: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 27 / 32

Bruffaerts Christopher

Exemple 1: Régression linéaire (2)

Inférence: β0 − β0

SE(β0)∼ tn−1 et β1 − β1

SE(β1)∼ tn−1.

Possibilités de rééchantillonnage:1 couples {(xi , yi), i = 1, . . . ,n}2 résidus {ri = yi − yi , i = 1, . . . ,n}

β0 β1Est. SE Est. SE

Théorie 91718.7 2765.8 985.3 107.4Bootstrap 91718.6 2454.1 985.3 126

β0 β1IC (95%) IC (95%)

Théorie [86281, 97156] [774, 1196]Bootstrap [87315, 97726] [702, 1225]

Page 55: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 28 / 32

Bruffaerts Christopher

Exemple 2: estimation d’une frontière (1)

Contexte: X ∼ U [0, θ] et X = (X1,X2, . . . ,Xn).

θMV = max(X1,X2, . . . ,Xn)

Monde réel:

Rn(θ) = n(θ − θ)θ

∼ Exp(.)

Monde du bootstrap:

R∗n(θ) = n(θ − θ∗)θ

P[R∗n(θ) = 0 | X ] = 1−(1− 1

n)n −→ 1− e−1 pour n →∞.

Problème: le maximum est tiré trop souvent dans le monde dubootstrap.

Page 56: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 28 / 32

Bruffaerts Christopher

Exemple 2: estimation d’une frontière (1)

Contexte: X ∼ U [0, θ] et X = (X1,X2, . . . ,Xn).

θMV = max(X1,X2, . . . ,Xn)

Monde réel:

Rn(θ) = n(θ − θ)θ

∼ Exp(.)

Monde du bootstrap:

R∗n(θ) = n(θ − θ∗)θ

P[R∗n(θ) = 0 | X ] = 1−(1− 1

n)n −→ 1− e−1 pour n →∞.

Problème: le maximum est tiré trop souvent dans le monde dubootstrap.

Page 57: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 29 / 32

Bruffaerts Christopher

Exemple 2: estimation d’une frontière (2)

Contexte: X ∼ U [0, θ] et X = (X1,X2, . . . ,Xn).

Solution: sous-échantillonnage (“subsampling”)

Monde réel:

Rn(θ) = n(θ − θ)θ

∼ Exp(.)

Monde du bootstrap:

R∗n(θ) = n(θ − θ∗)θ

P[R∗n(θ) = 0 | X ] = 1−(1− 1

n)m −→ 0 pour n →∞, et m

n → 0,et où m est la taille du sous-échantillon.

Page 58: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 29 / 32

Bruffaerts Christopher

Agenda

1 Introduction

2 Le bootstrap

3 Algorithme

4 Forces et faiblesses

5 Le bootstrap en action

6 Conclusion

Page 59: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 30 / 32

Bruffaerts Christopher

Conclusion

Le bootstrap est une technique prometteuse fortement utilisée(l’usage computationel s’améliore).

Bà ne pas banaliser l’usage du bootstrap.

Le bootstrap en pratique:1 R cran: package boot et bootstrap2 Matlab: bootstrap toolbox

Extensions possibles:SubsamplingSmooth bootstrapBlock bootstrap (séries temporelles)JackknifeIterated bootstrap. . .

Page 60: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 31 / 32

Bruffaerts Christopher

La conclusion de John Tukey

“The bootstrap is like a shotgun because you can blow the head offany statistical problem...”

Page 61: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 32 / 32

Bruffaerts Christopher

Quelques références

P. Bickel and D. Freeman (1981) Some asymptotic theory for thebootstrap, Annals of Statistics, 9:1196-1217.

A.C. Davison and D.V. Hinkley (1997) Bootstrap methods and theirApplication, Cambridge University Press.

B. Efron (1979) Bootstrap methods: Another look at the jackknife,Annals of Statistics, 7:1-26.

B. Efron and R.J. Tibshirani (1993) An introduction to the bootstrap,Chapman and Hall, New York.

P. Hall (1992) The bootstrap and Edgeworth Expansion,Springer-Verlag, New York.

J.L. Horowitz (2000) The bootstrap.

L. Simar (2008) An invitation to the bootstrap: Panacea forStatistical Inference?