You are on page 1of 58

Chapitre 1. UFR Economie Applique. Cours de C.

Hurlin 1
U.F.R. Economie Applique
Matrise dEconomie Applique
Cours de Tronc Commun
Economtrie Applique
Sries Temporelles
Christophe HURLIN
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 2
Chapitre 1
Les Processus Alatoires Stationnaires et
les Processus ARMA
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 3
Le but de ce chapitre est dintroduire la notion de processus temporel et plus particulirement
la classe des processus ARMA qui sont particulirement utiles pour dcrire le comportement
des sries temporelles univaries. Cette prsentation suppose que lon dnisse au pralable
un certain nombre de notions essentielles lanalyse des sries temporelles, et en particulier la
notion de stationnarit. Ltude des sries temporelles suppose que lon fasse au pralable un
certain nombre de rappels en probabilit et en statistiques.
1 Rappels de Probabilit et de Statistiques
Avant de dnir la notion de srie temporelle, il convient de faire un certain nombre de rap-
pels succincts. Les rappels proposs dans le cadre de cette section portent avant tout sur les
probabilits et les statistiques usuelles. Toutefois, la lecture de ces rappels doit ncessairement
saccompagner dune tude plus systmatique des fondements probabilistes des mthodes statis-
tiques (cf. Mthodes Statistiques, Philippe Tassi, Economica 1989).
On considre une variable stochastique relle ou variable alatoire relle (v.a.r. en abrg)
continue, note X, dont la loi de probabilit, pour une ralisation x, est dnie par la fonction
de densit f
X
(x) , suppose continue, telle que f
X
(x) 0 :
(a, b) R
2
P (a X b) =
_
b
a
f
X
(x) dx (1.1)
_
1
0
f
X
(x) dx = 1 (1.2)
On note F
X
(.) la fonction de rpartition ou fonction de distribution cumulative associe
X, telle que :
F
X
(a) P (X a) P (X < a) =
_
a

f
X
(x) dx (1.3)
Nous allons prsent successivement proposer des rappels sur les notions de population des
moments, de moments empiriques, distribution jointe, de distribution conditionnelle, dindpen-
dance, de convergence, ainsi que des rappels sur les proprits dun certain nombre de lois
usuels.
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 4
1.1 La population des moments thoriques
Pour une variable alatoire relle (v.a.r.) X, lesprance et la variance constituent deux moments
particuliers, mais plus gnralement il est possible, sous certaines hypothses, de dnir la
population des moments et la population des moments centrs de la faon suivante :
Denition 1 Pour une variable alatoire relle continue X, de densit f
X
(.) , la pop-
ulation des moments associe tout ordre k N, est dnie par :
E
_
X
k
_
=
_

x
k
f
X
(x) dx (1.4)
La population des moments centrs associe tout ordre k N, note
k
, est dnie
par :

k
= E
_
(X )
k
_
=
_

(x )
k
f
X
(x) dx (1.5)
avec = E(X) =
_

xf
X
(x) dx.
Ainsi lesprance, note E(X) , correspond au moment dordre un (k = 1) :
E(X) =
_

xf
X
(x) dx =
De la mme faon, la variance, note V (X) , est dnie par le moment centr dordre deux
(k = 2) :
V (X) =
2
= E
_
(X )
2
_
=
_

(x )
2
f
X
(x) dx
En gnral, lorsque lon cherche tablir la population des moments dune transforme,
linaire ou non, de la v.a.r. X, on utilise la proprit suivante :
Proprit 1. On considre une v.a.r. transforme, telle que Y = g (X) . Soit f
X
(.) la
fonction de densit de la v.a.r. X. La population des moment et la pop-
ulation des moments centrs dordre k, de la transforme g(X) sont alors
dnies par lesprance respective des transformes [g (X)]
k
et
_
g (X)
Y

k
,
avec
Y
= E[g (x)] , k N :
E
_
[g (X)]
k
_
=
_

[g (x)]
k
f
X
(x) dx (1.6)

Y
k
= E
_
_
g (X)
Y

k
_
=
_

_
g (x)
Y

k
f
X
(x) dx (1.7)
En particulier, lesprance de Y correspond :
E[g (X)] =
_

g (x) f
X
(x) dx (1.8)
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 5
Considrons lexemple suivant. Soit Y la transforme linaire de X, telle que Y = a + bX,
(a, b) R
2
. Le moment dordre un de Y, est dni par :
E(a +bX) =
_

(a +bx) f
X
(x) dx
= a
_

f
X
(x) dx +b
_

xf
X
(x) dx
= a +b E(X)
On retrouve ainsi le rsultat E(Y ) = a +b E(X) , selon lequel lesprance est un oprateur
linaire. De la mme faon, on peut calculer la variance de la variable transforme Y, note
V (Y ) , qui correspond au moment centr dordre deux. On note , avec R, lesprance de
la variable X.
V (a +bX) =
_

[(a +bx) (a +b)]


2
f
X
(x) dx
= b
2
_

(x )
2
f
X
(x) dx
On obtient nalement la relation standard :
V (a +bX) = b
2
V (X) (1.9)
Un autre rsultat, dcoulant de la proprit 1, est particulirement utile dans le cadre des
modles linaires. Il sagit du rsultat suivant :
E
_
X
2
_
= V (X) + [E(X)]
2
(1.10)
Pour dmontrer ce rsultat, il sut de rcrire E
_
X
2
_
sous la forme E
_
(X +)
2
_
. Ds
lors, il vient :
E
_
X
2
_
= E
_
(X +)
2
_
= E
_
(X )
2
+ 2(X ) +
2
_
= E
_
(X )
2
_
+ 2[E(X) ] +
2
= V (X) + [E(X)]
2
Dans lapplication de certains tests, nous aurons par la suite besoin dintroduire les moments
centrs dordre 3 et 4, qui correspondent respectivement la Skewness et la Kurtosis :
Skewness =
3
= E
_
(X )
3
_
(1.11)
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 6
Kurtosis =
4
= E
_
(X )
4
_
(1.12)
La Skewness est une mesure de lasymtrie de la distribution. Pour des fonctions de dis-
tributions symtriques, telles que f
X
( x) = f
X
( +x) , la valeur de la Skewness est nulle,
S
u
= 0. En revanche, pour des fonctions de distributions asymtriques, la valeur de la Skewness
est positive, si la partie paisse de la distribution se situe dans la direction positive. La Kur-
tosis est une mesure de lpaisseur des queues de distributions. En rgle gnrale, on exprime
ces deux mesures en contrlant par une fonction puissance de la variance V (X) =
2
. On dnit
ainsi deux nouvelles mesures : le coecient de Skewness et le degr dexcs de Kurtosis.
coecient de Skewness =

3

3
(1.13)
degr dexcs de Kurtosis =

4

4
3 (1.14)
Cette dernire mesure est fonde sur la distribution normale, qui est une distribution queue
plate, et qui possde un degr dexcs de Kurtosis gal 0.
1.2 Notions de Convergence
Considrons une squence de T v.a.r. {X
1
, X
2
, ..., X
i
, ..., X
T
}, indices par i. Supposons que lon
souhaite tudier le comportement de la moyenne empirique de ces v.a.r. lorsque T augmente.
On cherche ainsi dterminer le comportement asymptotique de la v.a.r. transforme, X
T
, telle
que :
X
T
=
1
T
T

i=1
X
i
(1.15)
Pour cela, il convient dutiliser la notion de convergences.
1.2.1 Convergence en probabilit
La notion de convergence en probabilit est dnie de la faon suivante :
Denition 2 (Convergence en Probabilit) Soit {X
T
}

T=1
une squence de variables ala-
toires scalaires. Cette squence converge en probabilit vers c, c C, si pour toute
valeurs arbitraires > 0 et > 0, il existe une valeur N, telle que T N :
P [|X
T
c| > ] < (1.16)
Alors, on note :
X
T
p
c plimX
T
= c (1.17)
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 7
Exprime autrement, cette dnition signie que pour un chantillon de taille innie, la
probabilit que la ralisation de la variable X
T
dire de la valeur c de plus ou moins ( tant
aussi petit que lon veut) est infrieure toute valeur aussi petite soit-elle. En dautres termes,
les ralisations de la variable X
T
sont concentres au voisinage de la valeur c, comme lillustre
la gure (1.1). Sur cette gure, on a reprsent la fonction de distribution (suppose normale),
dune variable X
T
, pour un ordre T N, avec c = 0. Si on se donne une valeur quelconque
de (ici = 0.2), et une valeur arbitraire > 0, alors la surface hachure de la fonction de
distribution, existant de part et dautre des valeurs pivotales et +, doit tre infrieure la
valeur de , si petite soit elle.
Figure 1.1: Illustration de la Notion de Convergence en Probabilit
-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1
0
0.5
1
1.5
2
2.5
3
3.5
4
c=0
-
+
Remarque Une suite de matrices de v.a.r. {X
T
}

T=1
, de dimension (m, n) ,converge en prob-
abilit vers une matrice C, de dimension (m, n), si chaque lment de X
t
converge en
probabilit vers llment correspondant de C. De faon plus gnrale, si lon considre
deux squences de v.a.r. {X
T
}

T=1
et {Y
T
}

T=1
, de dimension (m, n) , alors :
X
T
p
Y
T
(1.18)
si et seulement si, la dirence entre les deux suites converge en probabilit vers zero :
X
T
Y
T
p
0 (1.19)
Une des applications les plus courantes de la convergence en probabilit, consiste en la loi
faible des grands nombres. Selon cette loi, la moyenne empirique est un estimateur convergent de
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 8
lesprance de la population considre. Ainsi, si lon considre une squence de v.a.r. {Y
t
}

t=1
identiquement et indpendamment distribues, telle que E(Y
t
) = et V ar (Y
t
) =
2
, t. Selon
la loi faible
1
des grands nombres :
Y
T
=
1
T
T

t=1
Y
t
p

T
E(Y
t
) = (1.20)
La dmonstration fait appel la notion de convergence en moyenne quadratique (m.s. pour
mean square convergence). Elle sera prsent dans la section suivante.
Enn, il convient de rappeler deux proprits qui nous serons utiles dans la caractrisation
des distributions asymptotiques des estimateurs usuels.
Theorem 3 (Thorme de Slutsky) Soit {X
T
}

T=1
une suite de (n, 1) vecteurs admettant
une limite en probabilit dnie par c, et soit g (.) une fonction continue en c,
satisfaisant g : R
n
R
n
, et ne dpendant pas de T, alors :
g (X
T
)
p

T
g (c) (1.21)
Lide est la suivante. Si la fonction g (.) est continue, la quantit g (X
T
) se situera au
voisinage de g (c) , ds lors que X
T
se situe au voisinage de c. En choisissant une valeur de T
susamment grande, la probabilit que la ralisation de X
T
se situe au voisinage de c peut tre
dnie aussi proche de lunit que lon le dsire. Un exemple simple est le suivant. Considrons
deux squences de v.a.r. telles que plim X
1,T
= c
1
et plim X
2,T
= c
2
, alors plim(X
1,T
+X
2,T
) =
c
1
+c
2
. La dmonstration de ce rsultat est immdiate ds lors que lon montre que la fonction
g (X
1,T
, X
1,T
) = X
1,T
+X
2,T
est une fonction continue en (c
1
, c
2
) .
Proprit 1 Une condition susante pour quune suite de v.a.r. {X
T
}

T=1
converge en proba-
bilit vers une constante relle c est :
lim
T
E(X
T
) = c (1.22)
lim
T
V (X
T
) = 0 (1.23)
Lintuition de cette proprit est simple. Si pour un ordre T susamment grand, la variable
X
T
admet c pour esprance et a une variance qui tend vers 0, alors la fonction de distribution
de X
T
sera inniment concentre autour de la valeur c.
1
La loi forte des grands nombres implique par opposition une convergence presque sre.
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 9
1.2.2 Convergence en moyenne quadratique
Une forme de convergence plus restrictive que la convergence en probabilit est la convergence
en moyenne quadratique (m.s. pour mean square convergence).
Denition 4 Une suite de suite de v.a.r. {X
T
}

T=1
converge en moyenne quadratique
vers c, si pour tout > 0, il existe une valeur N, telle T N :
E(X
T
c)
2
< (1.24)
Alors, on note :
X
T
m.s.
c (1.25)
Naturellement, tant donn cette dnition, la convergence en moyenne quadratique implique
la convergence en probabilit, mais la rciproque nest pas vraie :
X
T
m.s.
c =X
T
p
c
La notion de convergence en m.q. nous permet alors dintroduire lingalit de Chebyshev.
Proposition 5 (Ingalit de Chebyshev) Soit X une v.a.r. telle que la quantit E(|X|
r
)
existe et soit nie pour r > 0. Pour tout > 0, et toute valeur de c, on montre que :
P {|X c| > }
E(|X c|
r
)

r
(1.26)
Le rsultat selon lequel la convergence en moyenne quadratique implique la convergence
en probabilit peut tre dmontr partir de lingalit de Chebyshev. Pour cela, il sut de
remarquer que si X
T
m.s.
c, alors il existe un couple de valeurs positives (, ) et une valeur N,
tel que E(X
T
c)
2
<
2
, pour tout T N. Il sensuit que :
E(X c)
2

2
=
E
_
|X c|
2
_

2
< T N
Lingalit de Chebyshev implique alors que :
P {|X c| > } < T N
Donc, on montre ainsi que X
T
p.
c.
Une autre application possible de la notion de convergence en m.q. consiste dmontrer
la loi faible des grands nombres. Selon cette loi, si lon considre une squence de v.a.r.
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 10
{Y
t
}

t=1
identiquement et indpendamment distribues, telle que E(Y
t
) = et V ar (Y
t
) =
2
,
t, alors :
Y
T
=
1
T
T

t=1
Y
t
p

T
E(Y
t
) = (1.27)
Pour dmontrer ce rsultat, tudions le comportement asymptotique de la quantit E
_
Y
T

_
2
.
E
_
Y
T

_
2
=
1
T
2
V ar
_
T

t=1
Y
t
_
=
1
T
2
T

t=1
V ar (Y
t
) =

2
T
Ainsi, on montre que lim
T
E
_
Y
T

_
2
= 0, ce qui implique que Y
T
m.s.
, et donc par
consquent que Y
T
p
.
1.2.3 Convergence en loi
Le troisime type de convergence que nous utiliserons cette anne est la convergence en loi ou
convergence en distribution.
Theorem 6 (Thorme de Paul Levy) Soit {X
T
}

T=1
une suite de v.a.r. et soit F
X
T
(x)
la fonction de distribution cumulative de X
T
. Si X
T
converge en loi vers une v.a.r.
X admettant F
X
(x) pour fonction caractristique, alors :
lim
T
F
X
T
(x) = F
X
(x) x R (1.28)
On note alors :
X
T
loi

T
X ou X
T
L

T
X (1.29)
Un certain nombre de proprits nous serons particulirement utiles par la suite :
Proprit 1 La convergence en probabilit implique la convergence en loi :
X
T
X
p

T
0 =X
T
L

T
X (1.30)
Proprit 2 La convergence en loi vers une constante relle implique la convergence en prob-
abilit :
c R X
T
L

T
c =X
T
p

T
c (1.31)
Proprits 3 Soient deux suites de v.a.r. {X
T
}

T=1
et {Y
T
}

T=1
telle que X
T
L
X et Y
T
p

c, alors :
(i) X
T
+Y
T
L
X +c
(ii) X
T
Y
T
L
c X
(iii)
X
T
Y
T
L

X
c
avec c = 0
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 11
Proprit 4 Soient X
T
et X des vecteurs alatoires de R
p
, tels que X
T
L

T
X ,et soit g (.)
une fonction continue dnie de R
p
and R
n
, alors :
g (X
T
)
L

T
g (X) (1.32)
Naturellement, une des illustrations les plus connues de la notion de convergence en distri-
bution rside dans le thorme central limite ( TCL en abrg). Nous avons vu que selon la loi
faible des grands nombres, la moyenne empirique Y
T
dune suite {Y
t
}

t=1
de v.a.r. identiquement
et indpendamment distribues (i.i.d. par la suite), telle que E(Y
t
) = et V ar (Y
t
) =
2
, t,
convergeait en probabilit vers la constante reprsentant le moment thorique dordre un de
la v.a.r. Y
t
. Ainsi, la v.a.r. transforme Y
T
converge en loi vers .
V ar(Y
T
) = E
_
Y
T

_
2
=
1
T
2
V ar
_
T

t=1
Y
t
_
=
1
T
2
T

t=1
V ar (Y
t
) =

2
T
Ds lors, on vrie que lim
T
V ar
_
Y
T
_
= 0. Autrement dit, la fonction de densit associe
la v.a.r. Y
T
est dgnre en une masse ponctuelle pour des chantillons de grande taille.
Toutefois, si lon dsire faire de linfrence statistique sur la v.a.r. Y
T
, il convient de dterminer
une distribution non dgnre de cette variable. Cest prcisment lobjet du TCL.
Lintuition est la suivante. On cherche une transforme de Y
T
possdant une distribution non
dgnre lorsque T tend vers linni, en particulier une distribution pour laquelle V ar
_
Y
T
_
> 0.
Considrons la transforme

T
_
Y
T

_
. Par dnition, on a E
_

T
_
Y
T

_
_
= 0. Mais ce
qui nous intresse plus particulirement, cest le comportement de la variance de cette transfor-
me, or :
V ar
_

T
_
Y
T

_
_
=
1
T
V ar
_
Y
T

_
=
1
T
V ar
_
Y
T
_
=
2
Ds lors, on a bien dni une transforme dont la variance asymptotique est non nulle, et
dont on peut ainsi esprer quelle possde une distribution asymptotique non dgnre quand
T tend vers linni. En eet, selon le TCL, la suite dnie par

T
_
Y
T

_
converge vers une
distribution normale desprance nulle et de variance nie
2
.
Theorem 7 (Thorme Central Limite) Soit {Y
t
}

t=1
une suite de v.a.r. i.i.d. telle que
E(Y
t
) = et V ar (Y
t
) =
2
, t, alors :

T
_
Y
T

_
L

T
N
_
0,
2
_
(1.33)
avec Y
T
= (1/T)

T
t=1
Y
t
.
Une des hypothses importantes du TCL tient lindpendance des v.a.r. Y
t
. Nous verrons
par la suite comment tendre ce thorme au cas o les v.a.r. Y
t
ne sont pas indpendantes.
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 12
1.3 Moments Empiriques
On considre une ralisation dune suite de v.a.r. (Y
1
, Y
2
, ..., Y
T
) , issues dun processus commun
stationnaire
2
, satisfaisant les hypothses suivantes :
Hypothses (H1). Les v.a.r. {Y
t
}
T
t=1
satisfont les hypothses suivantes :
(i) E(Y
t
) = , t [1, T]
(ii) E(Y
t
) (Y
tj
) =
j
, t [1, T]
(iii)

j=0

<
On cherche alors proposer un ensemble destimateurs convergents
3
des moments thoriques
du processus des v.a.r. Y
t
, cest dire des paramtres et
j
, si lon sen tient aux moments
dordre un et deux. Pour cela on construit des v.a.r. transforme, que lon qualie de moments
empiriques, dont on sassure quelles convergent en probabilit vers les moments thoriques. A
partir de la ralisation dun chantillon, (y
1
, y
2
, ..., y
T
) , on est alors en mesure de proposer une
ralisation de ces estimateurs.
De faon gnrale, les moments empiriques (non centrs) sont dnies de la faon suivante :
Denition 8 Le moment empirique dordre r, avec r N

, est dnie par la v.a.r.


Y
(r)
T
=
T

t=1
Y
r
T
(1.34)
La moyenne empirique, obtenue pour r = 1, note Y
T
, est dnie par :
Y
T
=
T

t=1
Y
T
(1.35)
Si les v.a.r. Y
t
sont indpendantes, la simple application du TCL nous permet de montrer
que la v.a.r. Y
T
converge en loi, et donc en probabilit, vers lesprance thorique E(Y
t
) =
. Toutefois, sous les hypothses plus gnrales (H1) , qui lvent en particulier lhypothse
dindpendance des Y
t
, il convient nouveau de dmontrer la convergence de lestimateur Y
T
.
On cherche montrer que sous les hypothses (H
1
) , plimY
T
= . Il existe plusieurs faons de
dmontrer ce rsultat. Nous proposons ici dutiliser la dnition de la convergence en moyenne
quadratique. On considre donc la v.a.r. Y
T
, telle Y
T
=

T
t=1
Y
T
. Sous les hypothses (H
1
) ,
2
Nous reviendrons par la suite sur la dnition de ce terme.
3
Un estimateur

T dun paramtre est dit convergent si :

T
p

T

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 13
on montre de faon vidente que E
_
Y
T
_
= . La moyenne empirique est donc une estimateur
sans biais de lesprance. Calculons maintenant la variance de Y
T
:
V
_
Y
T
_
= E
_
_
Y
T

_
2
_
=
1
T
2
E
_
T

t=1
(Y
T
)
_
2
Sous les hypothses (H
1
) , on montre (cf. polycopi dexercices), que :
V
_
Y
T
_
= E
_
Y
T

_
2
=
1
T
_

0
+ 2
_
T 1
T
_

1
+ 2
_
T 2
T
_

2
..... + 2
_
1
T
_

T1
_
(1.36)
Reste dmontrer que la quantit TE
_
Y
T

_
2
est convergente, c.q.f.d. TE
_
Y
T

_
2
<
. Pour cela montrons que cette quantit peut tre majore par une quantit nie.
TE
_
Y
T

_
2
=

0
+ 2
_
T 1
T
_

1
+ 2
_
T 2
T
_

2
..... + 2
_
1
T
_

T1

(1.37)
|
0
| + 2 |
1
| + 2 |
2
| +... + 2

T1

(1.38)
Cest ici que le troisime point (iii) des hypothses (H
1
) prend toute son importance. En
eet, si lon suppose

j=0

< , alors le membre de droite de lingalit (1.37) est conver-


gent, |
0
| + 2 |
1
| + 2 |
2
| +... + 2

T1

< , quand T tend vers linni. Ds lors, on peut en


conclure que sous lhypothse (H
1
), on a bien TE
_
Y
T

_
2
< . Ainsi, on arrive nalement
au rsultat selon lequel lim
T
E
_
Y
T

_
2
= 0.
En reprenant la dnition de la convergence en m.s., on sait que si :
lim
T
E
_
Y
T

_
2
= 0 Y
T
m.s.

T

Sachant que la convergence en moyenne quadratique implique la convergence en probabilit,
on retrouve le rsultat standard :
Y
T
p

T
(1.39)
Remarque La moyenne empirique est un estimateur convergent de lesprance thorique. Toute-
fois, pour dmontrer ce rsultat sous des conditions gnrales, (notamment sans lhypothse
dindpendance), il nous a fallu introduire une condition supplmentaire, dite condition de
sommabilit absolue, que lon retrouvera souvent par la suite en analyse de sries tem-
porelles. Cette condition implique que la somme en valeur absolue des autocovariances est
elle mme convergente :

j=0

< (1.40)
Ce rsultat peut tre gnralis sous la forme suivante :
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 14
Proposition 9 Soit Y
T
un processus dont les moments satisfont les hypothses (H
1
)
et dont les autocovariances vrient la condition de sommabilit absolue, alors la
v.a.r. Y
T
vrie les proprits suivantes :
(i) Y
T
m.s

T

(ii) lim
T
_
TE
_
Y
T

_
2
_
=

j=

j
1.4 Distributions Jointes, Distributions Marginales
On considre prsent un systme de deux v.a.r. continues X et Y. Commenons par dnir
ce quest la distribution jointe de ces deux variables. Cette distribution nous permet dtablir
la probabilit que les deux venements associs au fait que les ralisations de ces deux variables
soient comprises dans deux intervalles, se ralisent conjointement.
Denition 10 La densit jointe de deux v.a.r. continues X et Y , note f
X,Y
(x, y) 0,
satisfait les proprits suivantes :
(a, b, c, d) R
4
P (a X b, c Y d) =
_
b
a
_
d
c
f
X,Y
(x, y) dy dx (1.41)
_

f
X,Y
(x, y) dy dx = 1 (1.42)
La fonction de distribution cumulative jointe, note F
X,Y
(x, y) est alors dnie par,
(a, b) R
2
:
F
X,Y
(a, b) = P (X a, Y b) =
_
a

_
b

f
X,Y
(x, y) dy dx (1.43)
Partant de la distribution jointe, il est possible de dnir la distribution marginale associe
lune ou lautre des deux variables X ou Y. Pour obtenir la distribution marginale, il convient
dintgrer la distribution jointe par rapport la variable qui nest pas la variable dintrt.
Denition 11 La distribution marginale associe la variable X, note f
X
(x) , est
dnie par :
f
X
(x) =
_

f
X,Y
(x, y) dy (1.44)
De la mme faon :
f
Y
(y) =
_

f
X,Y
(x, y) dx (1.45)
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 15
Naturellement, il sensuit que deux variables indpendantes, dont par dnition les ralisa-
tions ne sont pas lies, ont toujours une fonction de distribution jointe qui est prcisment gale
au produit des deux distributions marginales.
Proposition 12 Les variables X et Y sont dites indpendantes si et seulement si :
f
X,Y
(x, y) = f
X
(x) f
Y
(y) (1.46)
Lindpendance implique par consquent que :
F
X,Y
(x, y) = F
X
(x) F
Y
(y) (1.47)
En eet, dans ce cas, la probabilit que la ralisation de la variable X soit comprise dans un
intervalle [a, b] et que la ralisation de la variable Y soit comprise dans un intervalle [c, d], est
gale au produit des probabilits marginales puisque les deux venments nont aucun lien entre
eux. De la mme faon :
P (X a, Y b) = P (X a) P (Y b)
1.5 Moments Thoriques et Covariance : le Cas dune Distribution Bivarie
On considre un systme de deux v.a.r. continues X et Y. Soit f
X,Y
(x, y) la fonction de dis-
tribution jointe, et soient f
X
(x) et f
Y
(y) les distributions marginales respectives. Il convient
prsent dtudier les moments thoriques associs ces deux variables. La population des
moments des v.a.r. dans une distribution jointe est alors dnie partir des distributions mar-
ginales respectives. De faon gnrale, pour toute fonction g (X, Y ) , on a :
E[g (X, Y )] =
_

g (x, y) f
X,Y
(x, y) dy dx (1.48)
De cette proprit, on peut alors dduire lexpression des moments dordre un et deux en
fonction des distributions marginales.
Denition 13 Soit f
X
(x) la distribution marginale de la v.a.r. X, et soit f
X,Y
(x, y)
la fonction de distribution jointe des v.a.r. X et Y, lesprance de X est dnie de
la faon suivante :
E(X) =
_

xf
X,Y
(x, y) dydx =
_

xf
X
(x) dx (1.49)
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 16
En eet, les deux dnitions sont identiques puisque f
X
(x) =
_
y
f
X,Y
(x, y) dy.
De la mme faon, on peut dnir les moments centrs dordre deux associs aux variables
X et Y. On introduit alors la notion de covariance. Soient
x
et
y
les esprances respectives
des v.a.r. X et Y.
Denition 14 Soit f
X,Y
(x, y) la fonction de distribution jointe des v.a.r. X et Y,
soient
x
= E(X) et
y
= E(Y ) , la covariance de X et de Y , ou moment centr
dordre deux, est :
cov (X, Y ) = E
_
(X
x
)
_
Y
y
_
=
_

(x
x
)
_
y
y
_
f
X,Y
(x, y) dy dx (1.50)
La corrlation entre X et Y est alors dnie par :
corr (X, Y ) =
cov (X, Y )
[V (X) V (Y )]
1
2
(1.51)
De faon gnrale, on montre que :
cov (X, Y ) = E
_
(X
x
)
_
Y
y
_
= E[XY ]
x

y
Proposition 15 Lorsque les variables X et Y sont indpendantes, la covariance et
la corrlation sont nulles.
cov (X, Y ) = 0 corr (X, Y ) = 0 (1.52)
Toutefois, la rciproque nest pas vraie, puisque la nullit de la covariance (ou de
la corrlation) nimplique pas ncessairement lindpendance.
En eet, sous lhypothse dindpendance on sait que f
X,Y
(x, y) = f
x
(x) f
y
(y) . Ds lors,
on montre que :
cov (X, Y ) =
_

(x
x
)
_
y
y
_
f
x
(x) f
y
(y) dy dx
=
_

(x
x
)
__

_
y
y
_
f
y
(y) dy
_
f
x
(x) dx
=
_

(x
x
)
__

y f
y
(y) dy
y
_

f
y
(y) dy
_
f
x
(x) dx
=
_

(x
x
)
_

f
x
(x) dx
= 0
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 17
La rciproque nest cependant pas valable, puisquil existe des cas o la nullit de la covari-
ance nimplique pas lindpendance. Considrons ainsi lexemple suivant. Soient deux variables
indpendantes Z et Y, desprance nulle. On considre la variable X = Z.Y, alors :
cov (X, Y ) = E
_
(X
x
)
_
Y
y
_
= E(XY ) = E[(ZY ) Y ] = E(Z) E
_
Y
2
_
= 0
Dans ce cas, les v.a.r. X et Y ne sont pas corrles, pourtant elles ne sont pas indpendantes
puisque les ralisations de X = ZY dpendent de celles de Y.
Enn, en sries temporelles, il est souvent ncessaire de calculer les moments thoriques
dune somme de deux v.a.r. ayant une distribution jointe f
X,Y
(x, y) . Considrons la variable Z
dnie par Z = aX+bY, avec (a, b) R
2
. Calculons les moments thoriques associes la v.a.r.
Z.
E(Z) =
_

(ax +by) f
X,Y
(x, y) dy dx
= a
_

x f
X,Y
(x, y) dydx +b
_

y f
X,Y
(x, y) dy dx
= a
_

xf
x
(x) dx +b
_

y f
y
(y) dy
Ainsi, on obtient le rsultat suivant :
E(aX +bY ) = aE(X) +bE(Y ) (1.53)
De la mme faon, calculons la variance de la v.a.r. Z :
V (Z) =
_

_
(ax +by)
_
a
x
+b
y
_
2
f
X,Y
(x, y) dy dx
=
_

_
(ax a
x
)
2
+ 2 (ax a
x
)
_
by b
y
_
+
_
by b
y
_
2
_
f
X,Y
(x, y) dy dx
= a
2
_

(x
x
)
2
f
X,Y
(x, y) dydx + 2ab
_

(x
x
)
_
y
y
_
f
X,Y
(x, y) dy dx
+b
2
_

_
y
y
_
2
f
X,Y
(x, y) dydx
De faon gnrale, on obtient :
V (aX +bY ) = a
2
V (X) + 2 ab . cov (X, Y ) +b
2
V (Y ) (1.54)
Lorsque les v.a.r. X et Y sont indpendantes, alors cette expression se ramne :
V (aX +bY ) = a
2
V (X) +b
2
V (Y ) (1.55)
Ces deux derniers rsultats peuvent tre gnraliss de la faon suivante.
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 18
Proposition 16 On considre une collection de n v.a.r. {X
1
, X
2
, ..., X
n
} , et un en-
semble de paramtres, a
i
R, i = 1, .., n, alors :
E
_
n

i=1
a
i
X
i
_
=
n

i=1
a
i
E(X
i
) (1.56)
V
_
n

i=1
a
i
X
i
_
=
n

i=1
a
2
i
V (X
i
) + 2
n

i=1
n

j=i
a
i
a
j
cov (X
i
, X
j
) (1.57)
Si les v.a.r. X
i
sont indpendantes, cette expression se ramne :
V
_
n

i=1
a
i
X
i
_
=
n

i=1
a
2
i
V (X
i
) (1.58)
1.6 Distributions Conditionnelles
Considrons un systme de deux v.a.r. continues X et Y. Soit f
X,Y
(x, y) la fonction de distrib-
ution jointe, et soient f
X
(x) et f
Y
(y) les distributions marginales respectives.
Denition 17 La densit conditionnelle de Y tant donn X est dnie par :
f
Y/X
(y/x) =
_
f
X,Y
(x,y)
f
X
(x)
0
si f
X
(x) > 0
sinon
(1.59)
On vrie alors que la densit conditionnelle satisfait les proprits standard dune fonction
de distribution, en particulier :
_

f
Y/X
(y/x) dy =
_

f
X,Y
(x, y)
f
X
(x)
dy
=
1
f
X
(x)
_

f
X,Y
(x, y) dy
=
f
X
(x)
f
X
(x)
= 1
Une proprit importante est la suivante :
Proprit 1. La densit jointe correspond au produit de la densit conditionnelle et de la
densit marginale :
f
X,Y
(x, y) = f
Y/X
(y/x) f
X
(x) = f
X/Y
(x/y) f
Y
(y) (1.60)
Proprit 2. Lesprance conditionnelle de Y, sachant que la v.a.r. X prend une valeur par-
ticulire gale x, est dnie par :
E(Y/X = x) =
_

y f
Y/X
(y/x) dy (1.61)
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 19
1.7 Lois de Probabilit Usuelles
Nous proposons prsent quelques rappels sur une slection de lois de probabilit usuelles.
1.7.1 Loi gamma
La dnition de la loi gamma est la suivante :
Denition 18 La v.a.r. X suit une loi gamma de paramtre p et , note (p, ) , si
sa fonction de densit est :
f
X
(x) =

p
(p)
e
x
x
p1
1
R
+
(x)
(1.62)
avec p > 0, > 0 et (p) =
_
+
0
e
x
x
p1
dx.
Lorsque le paramtre est gal 1, on note la loi gamma (p, 1) sous la forme (p) . La
densit est alors dnie par :
f
X
(x) =
1
(p)
e
x
x
p1
1
R
+
(x)
(1.63)
Sur la gure (1.2) cette fonction est reprsente pour direntes valeurs du paramtre p.
Figure 1.2: Fonction de Densit de la Loi (p.)
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
p = 0.5
p = 1
p = 2
On peut montrer que si X suit une loi (p, ) , alors :
E(X
r
) =
(p +r)

r
(p)
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 20
On en dduit les moments dordre un et deux :
E(X) =
p

V (X) =
p

2
(1.64)
La fonction gamma (p) possde les proprits suivantes :
Proprits La fonction gamma (p) satisfait les proprits suivantes :
(i) (p) =
_
+
0
e
x
x
p1
dx, p > 0
(ii) (p) = (p 1) (p 1)
(iii) (p) = (p 1)! avec p N

(iv)
_
1
2
_
=

(v) (p + 1)
_
p
e
_
p

2p
_
1 +
1
12p
_
avec p
Enn, pour une loi (p) , on montre que :
X p

p
L

p
N (0, 1) (1.65)
1.7.2 Loi Normale
Commenons par la dnition de la loi normale uni-dimensionnelle.
Denition 19 La v.a.r. X suit une loi normale desprance et de variance
2
,
note N
_
,
2
_
, si sa densit est donne par :
f
X
(x) =
1

2
e

(x)
2
2
2
x R (1.66)
Les deux premiers moments sont les suivants : E(X) = , V (X) =
2
. La v.a.r. transforme
U = (X ) / suit une loi normale desprance nulle et de variance gale , note N (0, 1),
dite loi normale centre rduite, de densit :
f
U
(u) =
1

2
e
u
2
2
u R
La forme de la densit associe une loi N (0, 1) est reprsente sur la gure (1.3).
Proprit 1 Soient X et Y deux v.a.r. indpendantes suivant respectivement les lois N (
1
,
1
)
et N (
2
,
2
) . La v.a.r. X +Y suit une loi normale N
_

1
+
2
,
_

2
1
+
2
2
_
.
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 21
Figure 1.3: Densit dune Loi Normale N (0, 1)
-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1
0
0.2
0.4
0.6
0.8
1
1.2
1.4

1/( (2)
0.5
)
La v.a.r. dnie par (1/2) U
2
suit une loi gamma
_
1
2
, 1
_
. On peut en dduire les moments
centrs de la v.a.r. X :

r
= E[(X )
r
] =
_
_
_

r
2
r
2
(
r+1
2
)
(
1
2
)
r pair
0 r impair
(1.67)
Ainsi, partir de cette formule, on peut aisment retrouver la valeur de la Skewness (moment
centr dordre 3, not
3
) et de la Kurtosis (moment centr dordre 4, not
4
). On retrouve
en eet le rsultat selon lequel la Skewness est nulle (
3
= 0), ce qui traduit la symtrie de la
fonction de distribution dune loi normale. Quant la Kurtosis, on montre que celle-ci prend
une valeur gale 3
4
, puisque en eet :

4
= 4
4

_
5
2
_

_
1
2
_ = 4
4
_
5
2
1
_

_
5
2
1
_

_
1
2
_ = 4
_
3
2
__
1
2
_

4
= 3
4
On vrie ainsi que pour une distribution normale (distribution queue plate), le degr
dexcs de Kurtosis, dni par
4
/
4
3 est nul.
Proprit 2 Si X suit une loi normale N
_
,
2
_
, la Skewness associe est nulle (
3
= 0) et
la Kurtosis est gale
4
= 3
4
. Par convention, le degr dexcs de Kurtosis, dni par

4
/
4
3, est nul.
On peut naturellement tendre la dnition de la loi normale au cas multivari.
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 22
Denition 20 Soit R et une matrice (p, p) relle symtrique dnie positive,
X est un vecteur normal de dimension p, si sa densit est donne par :
f
X
(x) =
1
(2)
p
2
_
det ()
e

1
2
(xm)

1
(xm)
(1.68)
Les proprits mises en vidence pour la loi univarie peuvent alors tre tendues au cas
multivari.
1.7.3 Loi du Khi-deux
La dnition de la loi du Khi-deux est la suivante :
Denition 21 On considre une suite de n v.a.r. (X
1
, X
2
, ..., X
n
) indpendantes suiv-
ant toutes la loi normale N (0, 1) . La variable U
n
=

n
i=1
X
2
i
suit une loi du khi-deux
n degrs de libert, note
2
(n) .
En utilisant les proprits prcdentes, on peut montrer que la v.a.r. transforme (1/2) U
n
suit une loi
_
1
2
_
. On peut alors en dduire la fonction de densit de U
n
.
f
Un
(x) =
1
2
n
2

_
n
2
_e

x
2
x
n
2
1
1
R
+
(x)
Cette fonction de densit, pour direntes valeurs du paramtre n, est reprsente sur la
gure (1.4).
Figure 1.4: Fonction de Densit dun
2
(n)
0 0.5 1 1.5 2
0
0.2
0.4
0.6
0.8
1
1.2
1.4
n = 1
0 0.5 1 1.5 2
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0.5
n = 2
0 0.5 1 1.5 2
0.12
0.14
0.16
0.18
0.2
0.22
0.24
0.26
n = 3
0 0.5 1 1.5 2
0
0.05
0.1
0.15
0.2
n = 4
De la relation entre les lois du
2
(n) et
_
1
2
_
, on dduit que :
E[(U
n
)
r
] = 2
r

_
n
2
+r
_

_
n
2
_
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 23
On en dduit les moments dordre un et deux :
E(U
n
) = n V (U
n
) = 2n (1.69)
Voici un rsum des proprits de la loi du khi-deux :
Proprit 1. Soit un vecteur alatoire X de dimension p, de loi N (, ) , la v.a.r. Y =
(X m)

1
(X m) suit une loi du
2
(p) .
Proprit 2. Soient X et Y deux v.a.r. indpendantes suivant respectivement deux lois du

2
n et m degrs de libert, la v.a.r. X +Y suit une loi du
2
(n +m) .
Proprit 3. On considre n variables alatoires indpendantes X
i
suivant respectivement des
lois N (m
i
, ) . La variable U
n,
=

n
i=1
X
2
i
suit une loi du khi-deux dcentre n degrs
de libert et de paramtre de dcentrage =

n
i=1
m
2
i
. On note cette loi
2
(n, ) . On
montre alors que :
E(U
n,
) = n + V (U
n,
) = 2 (n + 2) (1.70)
1.7.4 Loi de Student
La dnition de la loi de Student est la suivante :
Denition 22 Soient X et Y deux v.a.r. indpendantes suivant respectivement la
loi N (0, 1) et la loi
2
(n) . On appelle loi de Student n degrs de libert, la loi
suivie par le rapport :
T
n
=
X
_
Y/n
(1.71)
La densit de T
n
est dnie de la faon suivante :
f
Tn
(x) =
1

nB
_
1
2
,
n
2
_
_
1 +
x
2
n
_

n+1
2
(1.72)
o B(p, q) dsigne la fonction beta :
B(p, q) =
(p) (q)
(p +q)
(1.73)
La fonction de densit de la v.a.r. T
n
est reprsente sur la gure (1.5) pour direntes
valeurs de n.
Les deux premiers moments de la loi de Student sont les suivants :
E(T
n
) = 0 V (T
n
) =
n
n 2
n > 2 (1.74)
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 24
Figure 1.5: Fonction de Densit de T
n
-4 -3 -2 -1 0 1 2 3 4
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
n = 2
n = 3
n = 10
Enn, on utilise souvent en conomtrie lapproximation de la loi de Student par la loi
normale centre rduite.
Proprit 1. La v.a.r. T
n
converge en loi vers N (0, 1) lorsque n tend vers linni.
T
n
L

n
N (0, 1) (1.75)
La dmonstration de ce rsultat se fait en deux tapes. La premire tpae consiste dmon-
trer que la v.a.r. transforme Y
n
/n converge en probabilit vers la valeur certaine 1. En eet,
on montre que :
E
_
Y
n
n
_
= 1 n
lim
n
_
V
_
Y
n
n
__
= lim
n
_
2
n
_
= 0
Selon la proprit 1 de la convergence en probabilit, ces deux rsultats impliquent que la
v.a.r Y
n
/n converge vers 1. Ds lors, la transforme
_
Y
n
/n converge elle aussi en probabilit
vers 1. La seconde tape de la dmonstration consiste alors appliquer le troisime point (iii)
de la proprit 3 de la convergence en loi. En eet, si lon a :
plim
n
_
Y
n
n
_1
2
= 1 X
L
N (0, 1)
alors, on en dduit que le rapport X/
_
_
Y
n
/n
_
converge en loi vers une normale centre rduite.
T
n
=
X
_
Y/n
L

n
N (0, 1) (1.76)
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 25
Dans le cas o la variable X suit une loi normale non centre, la variable T
n
suit alors une
loi de Student non centre.
Denition 23 Soient X et Y deux v.a.r. indpendantes suivant respectivement la
loi N (, 1) et la loi
2
(n) . On appelle loi de Student suprieurement non centre,
n degrs de libert, de paramtre de dcentrage ,la loi suivie par le rapport :
T
n
() =
X
_
Y/n
(1.77)
Les deux premiers moments dune loi de Student non centre sont les suivants :
E[T
n
()] =
_
n
2

_
n1
2
_

_
n
2
_
V [T
n
()] =
n
n 2
_
1 +
2
_

2
n
2

2
_
n1
2
_

2
_
n
2
_
1.7.5 Loi de Fisher-Snedecor
La dnition de la loi de Fisher-Snedecor est la suivante.
Denition 24 Soient X et Y deux v.a.r. indpendantes suivant respectivement la
loi
2
(n) et la loi
2
(m) . On appelle loi de Fisher-Snedecor, n et m degrs de
libert, la loi suivie par le rapport :
F
n,m
=
X/n
Y/n
(1.78)
La fonction de densit de F
n,m
est donne par :
f
F
(x) =
1
B
_
n
2
,
m
2
_n
n
2
m
m
2
x
n
2
1
(m+nx)
n+m
2
1
R
+
(x)
(1.79)
Cette fonction est reprsente sur la gure (1.6) pour direntes valeurs de n et de m.
Les deux premiers moments de la variable F
n,m
sont dnis par :
E(F
n,m
) =
m
m2
m > 2 (1.80)
V (F
n,m
) =
2m
2
(n +m2)
n(m4) (m2)
2
m > 4 (1.81)
Etant donne la dnition de F
n,m
on peut faire plusieurs remarques. Tout dabord, la
variable T
2
n
, carr dune variable de Student n degrs de libert, suit une loi Fisher-Snedecor
1 et n degrs de libert. De la mme faon, la v.a.r. Y = log (F
2,2
) suit une loi logistique.
Enn, on utilise parfois la proprit suivante :
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 26
Figure 1.6: Fonction de Densit de F
n,m
0 0.5 1 1.5 2 2.5 3 3.5 4
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
n = 3 , m = 5
n = 3 , m = 10
n = 10 , m = 3
Proprit 1. Soit f

(n, m) le fractile dordre de F


n,m
, dni par P {F
n,m
< f

(n, m)} = ,
alors :
f
1
(m, n) =
1
f

(n, m)
(1.82)
Par exemple, soit F
5,8
, dont on cherche le fractile dordre 0.05. On a f
0.05
(5, 8) = 1/f
0.95
(8, 5) =
1/4.82 = 0.207.
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 27
2 Sries Temporelles
Essayons prsent de comprendre ce quest une srie temporelle ou de faon quivalente un
processus temporel. Pour cela, considrons un chantillon de ralisations de T variables alatoires
indices par le temps, notes Y
t
, t = 1, .., T.
{y
1
, y
2
, y
3
, ..., y
T
} (2.83)
Pour simplier supposons que cette collection de ralisations de T variables alatoires soit
indpendamment et identiquement distribue (par la suite nous noterons i.i.d) selon une mme
loi normale.
Y
t
N
_
,
2
_
t = 1, .., T (2.84)
Lchantillon observ (2.83) constitue ainsi une ralisation particulire sur T units de temps
dun mme processus stochastique qui gnre les donnes de la variable Y
t
. Ce processus gnra-
teur (ou DGP pour Data Generating Process) est ainsi quali de srie stochastique temporelle.
De faon plus gnrale, il est possible dobtenir dans labsolu une collection de ralisations de
ce processus sur une innit de priodes. On note gnralement cette collection de ralisations
sous la forme :
{y
t
}

t=
= {..., y
1
, y
0
, y
1
, y
2
, .., y
T
, y
T+1
, ...} (2.85)
Si lon connat le processus gnrateur (qui dans lexemple prcdent se limite la loi nor-
male N
_
0,
2
_
), il est possible dobtenir I collections de ralisations {y
t
}

t=
, que lon notera
_
y
i
t
_

t=
, i = 1, .., I. A partir de ces collections de ralisations, on peut alors se ramener
un chantillon de I observations de la variable alatoire Y
t
et cela quelque soit lindice de temps
retenu. Cette variable alatoire possde une fonction de densit, note f
Y
t
(y
t
) , qui correspond
la densit inconditionnelle de Y
t
. Dans notre exemple, cette densit inconditionnelle est donne
par la relation, t Z :
f
Yt
(y
t
) =
1

2
exp
_
y
2
t
2
2
_
Partant de la fonction de densit de Y
t
, il est possible de dterminer lensemble des moments
de cette variable alatoire. En analyse de sries temporelles, on se limite souvent la dnition
des moments dordre un (lesprance) et dordre deux (la fonction dautocovariance).
Lesprance thorique du processus Y
t
est dtermine par la formule standard, t Z :
E(Y
t
) =
_

y
t
f (y
t
) dy
t
(2.86)
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 28
Cette intgrale peut tre approxime par la limite en probabilit, note plim, de la somme
innie suivante :
E(Y
t
) =plim
I
I

i=1
y
i
t
(2.87)
ou de faon quivalente :
1
I
I

i=1
y
i
t
p

I
E(Y
t
) (2.88)
On utilise ici la notion de convergence en probabilit (ou de limite en probabilit) puisque
rappelons-le, les termes
_
y
i
t
_
I
i=1
sont des ralisations dune variable alatoire, donc la somme de
ces termes est elle-mme une variable alatoire. Pour ce qui nous intresse, lorsque les variables
Y
t
, t Z, sont indpendamment et identiquement distribues (i.i.d), on peut alors dterminer
lesprance E(Y
t
) non seulement partir des ralisations de cette variable, note
_
y
i
t
_
I
i=1
, mais
aussi tout simplement partir des ralisations des variables Y
1
, Y
2,...,
notes {y
t
}

t=
. En eet,
sous lhypothse i.i.d. ces direntes variables ont la mme distribution et en particulier le mme
moment dordre un. Ds lors, on obtient la relation usuelle :
1
T
T

t=1
y
t
p

T
E(Y
t
) t Z (2.89)
Dans notre exemple, sous lhypothse de normalit on obtient videmment que E(Y
t
) = ,
mais de faon plus gnrale lorsque lon lve lhypothse i.i.d., lesprance peut dpendre du
temps. On a alors :
E(Y
t
) =
t
t Z
Nous verrons dans ce chapitre que le fait que le moment dordre un soit ou non fonction du
temps (indic en t) caractrise en partie la notion de stationnarit qui est essentielle en analyse
de srie temporelle.
En ce qui concerne les moments dordre deux de la variable Y
t
, ceux-ci ne se limitent pas la
simple variance du processus. En eet, il est ncessaire dtudier les ventuelles corrlations (ou
covariance) entre la variable Y
t
et les variables Y
t1
, Y
t2
, Y
t3
, ..., cest qui traduisent le lien
entre les valeurs courantes et passes de la srie temporelle tudie. Cette information (variance
et covariance avec les valeurs passes et futures) est rsume par la fonction dautocovariance
4
,
note gnralement
t
(h) . Reprenons nouveau nos I collections de ralisations {y
t
}

t=
, que
lon notera
_
y
i
t
_

t=
, i = 1, .., I. On dnit prsent la distribution jointe des variables
Y
j
, j = t, .., t h par la fonction f
Y
t
,Y
t1
,..,Y
th
(y
t
, y
t1
, ..., y
th
) . La fonction dautocovariance
est dnie par t Z, h Z :

t
(h) = E{[Y
t
E(Y
t
)] [Y
th
E(Y
th
)]} (2.90)
4
Ou de faon quivalente par la fonction dautocorrlation qui nest autre que la fonction dautovariance
normalise par la variance du processus.
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 29
Ce qui peut se rcrire sous la forme :

t
(h) =
_

[y
t
E(y
t
)] [y
th
E(y
th
)]
f
Y
t
,Y
t1
,..,Y
th
(y
t
, y
t1
, ..., y
th
) dy
t
dy
t1
..dy
th
La fonction
t
(h) dnit ainsi la covariance entre la variable Y
t
et la variable Y
th
, note
cov (Y
t
, Y
th
) = E{[Y
t
E(Y
t
)] [Y
th
E(Y
th
)]} . Le fait que cette covariance soit dnie par
rapport une valeur passe de Y
t
implique que lon qualie cette fonction de fonction dautoco-
variance. A lordre 0, on reconnat bien entendu la variance de la variable Y
t
:

t
(0) = E
_
[Y
t
E(Y
t
)]
2
_
= var (Y
t
) (2.91)
Tout comme pour le moment dordre un, on peut rexprimer cette quantit comme une limite
en probabilit :
1
I
I

i=1
_
y
i
t
E(Y
t
)
_
y
i
th
E(Y
th
)

I

t
(h) (2.92)
Lorsque les variables Y
t
, t Z sont i.i.d., on est en droit de supposer que lensemble des
moments dordre deux sont identiques pour toutes les variables Y
t
, la fonction dautocovariance
peut alors tre dnie par :
1
T
T

t=1
[y
t
E(Y
t
)] [y
th
E(Y
th
)]
p

T

t
(h) = (h) t Z (2.93)
Mais de faon gnrale, la fonction dautocorrlation peut dpendre de lindice de temps t,
cest dire de la variable Y
t
considre. Cest pourquoi on conserve la notation
t
(h) . Nous
verrons que le fait que cette fonction soit indpendante du temps, cest dire que
t
(h) =
(h) , t Z, caractrise en partie la notion de stationnarit.
De faon pratique, lconomtre dispose dune seule collection de ralisations de T variables
alatoires :
{y
1
, y
2
, y
3
, ..., y
T
} (2.94)
La premire chose est de choisir, ou de se restreindre suivant la disponibilit des donnes,
la meilleure priodicit possible. Considrons deux exemples, lun relevant de la microconomie,
lautre dune dimension plus macroconomique. La premire srie, correspondant la gure
(2.7), est la srie historique des immatriculations de voitures neuves en France daot 1985
novembre 1994
5
. Cette srie est disponible en priodicit mensuelle, on dispose ainsi de 114
ralisations historiques.
Le second exemple, correspondant la gure (2.8), correspond au PIB franais exprim en
volume (sans eet prix) du second semestre de 1960 au second semestre de 1998. Cette srie est
de priodicit semestrielle, on dispose ainsi de 79 ralisations historiques pour cette srie.
5
Srie tire de Bourbonnais (2000).
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 30
Figure 2.7: Immatriculations de Voitures Neuves en France (1985:08 1994:10)
100000
120000
140000
160000
180000
200000
220000
240000
260000
280000
1
9
8
5
:
0
8
1
9
8
6
:
0
1
1
9
8
6
:
0
6
1
9
8
6
:
1
1
1
9
8
7
:
0
4
1
9
8
7
:
0
9
1
9
8
8
:
0
2
1
9
8
8
:
0
7
1
9
8
8
:
1
2
1
9
8
9
:
0
5
1
9
8
9
:
1
0
1
9
9
0
:
0
3
1
9
9
0
:
0
8
1
9
9
1
:
0
1
1
9
9
1
:
0
6
1
9
9
1
:
1
1
1
9
9
2
:
0
4
1
9
9
2
:
0
9
1
9
9
3
:
0
2
1
9
9
3
:
0
7
1
9
9
3
:
1
2
1
9
9
4
:
0
5
1
9
9
4
:
1
0
Ensuite en utilisant ces ralisations, on va chercher identier le meilleur processus stochas-
tique gnrateur des donnes historiques (DGP). Partant de ce processus, il sera alors possible
deectuer des prvisions, mais aussi de raliser des simulations dautres pseudo chantillons
historiques des ns statistiques ou des ns dinterprtation conomique.
Nous verrons dans le chapitre suivant, que lorsque lon considre une ralisation historique
dune srie temporelle, la premire tape de la phase de modlisation consiste dterminer si le
processus gnrateur est stationnaire. La notion de stationnarit que nous retiendrons consiste
tout simplement dterminer si les moments des variables alatoires Y
t
, sont indpendants du
temps. En particulier si lon envisage une notion de stationnarit du second ordre, la question
est de savoir si les grandeurs E(Y
t
) et
t
(h) sont constantes dans le temps. En eet, dans
ce cas on est garanti quil existe un processus stochastique indpendant du temps, stationnaire,
permettant de reprsenter les variables Y
1
, Y
2
, ..., Y
t
.
Reste, dans une seconde tate dterminer la ou les formes possibles de ce processus station-
naire. La premire reprsentation possible, valable pour tout processus stationnaire, est alors
donne par la dcomposition de Wold qui permet dexprimer le processus comme une somme
pondre de bruits blancs. Ce sera lobjet de notre deuxime section.
Mais certains processus stationnaires peuvent aussi tre reprsents par des processus in-
tgrant une partie autorgressive et une partie moyenne mobile dans les chocs : les processus
ARMA. La dnition de ces processus et de leurs proprits fera lobjet de notre troisime
section.
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 31
Figure 2.8: PIB en Volume de la France (1960:2 1998:2)
0,E+00
5,E+05
1,E+06
2,E+06
2,E+06
3,E+06
3,E+06
4,E+06
4,E+06
5,E+06
1
9
6
0
:
2
1
9
6
2
:
2
1
9
6
4
:
2
1
9
6
6
:
2
1
9
6
8
:
2
1
9
7
0
:
2
1
9
7
2
:
2
1
9
7
4
:
2
1
9
7
6
:
2
1
9
7
8
:
2
1
9
8
0
:
2
1
9
8
2
:
2
1
9
8
4
:
2
1
9
8
6
:
2
1
9
8
8
:
2
1
9
9
0
:
2
1
9
9
2
:
2
1
9
9
4
:
2
1
9
9
6
:
2
1
9
9
8
:
2
Nous allons donc prsent poser la dnition de la stationnarit. Partant de l, nous pour-
rons, dans les chapitres suivants, proposer des tests de cette hypothse de stationnarit mener
partir dun chantillon de ralisations historiques.
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 32
3 Les Processus Stationnaires
Nous commencerons par poser la dnition dun processus stationnaire au sens strict (ou sta-
tionnarit forte) pour ensuite tudier les proprits de la stationnarit du second ordre (ou
stationnarit faible). Partant de l nous tudierons des processus stationnaires particuliers que
sont les bruits blancs.
3.1 Dnition dun processus stationnaire au sens strict : la stationnarit
forte
Soit un processus temporel alatoire (x
t
, t Z) .
Denition 25 Le processus x
t
est dit strictement ou fortement stationnaire si le
n-uplet du temps t
1
< t
2
< .. < t
n
, tel que t
i
Z et pour tout temps h Z avec
t
i
+ h Z, i, i = 1, .., n, la suite (x
t
1
+h
, .., x
tn+h
) la mme loi de probabilit que la
suite (x
t
1
, .., x
tn
) .
Une autre faon quivalente de dnir la stationnarit forte (ou stationnarit stricte) :
Denition 26 Un processus est dit stationnaire au sens strict si, pour toutes valeurs
j
1
, j
2
, .., j
n
la distribution jointe de la suite (x
t
, x
t+j
1
.., x
t+jn
) dpend uniquement des
intervalles de temps j
1
, j
2
, .., j
n
et est indpendante de la priode t.
3.2 La stationnarit dordre deux ou la stationnaire faible
Dans la pratique, on se limite gnralement requrir la stationnarit du second ordre (ou
stationnarit faible) du processus tudi.
Denition 27 Un processus (x
t
, t Z) est dit stationnaire au second ordre, ou sta-
tionnaire au sens faible, ou stationnaire dordre deux si les trois conditions suiv-
antes sont satisfaites :
t Z, E
_
x
2
t
_
<
t Z, E(x
t
) = m, indpendant de t
(t, h) Z
2
, cov (x
t
, x
t+h
) = E[(x
t+h
m) (x
t
m)] = (h) , indpendant de t
La premire condition E
_
x
2
t
_
< garantit tout simplement lexistence (ou la convergence)
des moments dordre deux. La seconde condition E(x
t
) = m, t Z porte sur les moments dor-
dre un et signie tout simplement que les variables alatoires x
t
doivent avoir la mme esprance
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 33
quelle que soit la date t. Autrement dit, lesprance du processus x
t
doit tre indpendante du
temps. Enn, la troisime condition, (h) indpendant de t, porte sur les moments dordre deux
rsums par la fonction dautocovariance. Cette condition implique que ces moments doivent
tre indpendants de la date considre et ne doivent dpendre uniquement que de lordre des
retards. Autrement dit la fonction dautocovariance du processus x
t
doit tre indpendante du
temps. Sous ces trois conditions, il existe alors une ou plusieurs reprsentations possibles de la
srie temporelle x
t
, ces reprsentations ou processus ayant la mme distribution dans le temps
(mme moments). Cette hypothse dinvariance de la distribution dans le temps permet ainsi
de se limiter une certaine classe de processus.
En rsum, un processus est stationnaire au second ordre si lensemble de ses moments sont
indpendants du temps. Par la suite le terme stationnaire fera rfrence la stationnarit faible.
Quelques prcisions doivent tre apportes cette dnition. Tout dabord, il convient de
noter que la fonction (h) , qui dsigne la fonction gnratrice dautocovariance du processus
(x
t
, t Z) , est symtrique
(h) = (h)
En eet, de manire vidente on montre que :
(h) = E{[Y
t
E(Y
t
)] [Y
th
E(Y
th
)]}
= E{[Y
th
E(Y
th
)] [Y
t
E(Y
t
)]}
= (h)
En second lieu, on note que la troisime condition de cette dnition implique que en parti-
culier que la variance du processus x
t
soit constante et indpendante du temps :
v (x
t
) = (0) =
2
(indpendant de t) (3.95)
Sur la gure (3.9) sont reprsentes quelques ralisations de processus stationnaires et non
stationnaires sur un chantillon de 200 points. On constate que les variables y
c
et y (quadrants
sud-est et sud-ouest) sont a priori non stationnaires. La premire srie est dcroissante sur les
150 premiers points ce qui viole la condition de stationnarit du moment dordre un, puisque
lesprance des variables y
c,t
semble ici dcroissante avec t. La seconde srie, semble quant elle
violer la condition sur les moments dordre deux puisque la variance ne semble pas identique sur
lensemble de lchantillon. La srie semble plus volatile sur les 100 derniers points que sur la
premire partie de lchantillon.
En revanche, les deux sries x
c
et x (quadrants nord-est et nord-ouest) peuvent tre des
ralisations dun processus stationnaire. La premire srie est centre sur 0, tandis que la
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 34
Figure 3.9: Simulation de Processus Stationnaires et Non Stationnaires
-8
-4
0
4
8
50 100 150 200
X
-4
0
4
8
12
50 100 150 200
XC
-50
-40
-30
-20
-10
0
10
50 100 150 200
Y
-20
-10
0
10
20
30
40
50 100 150 200
YC
seconde est centre sur la valeur 3. La variance semble identique sur lensemble de lchantillon
et les autocovariances ne semblent pas tre fonction du temps.
Mais attention, un tel examen graphique, sil est toujours ncessaire ne constitue pas un test
statistique de la stationnarit et peut parfois induire en erreur. Il est toujours ncessaire de
tester lhypothse de stationnarit ou de non stationnarit par un test appropri (cf. chapitre
suivant).
3.3 Le processus bruit blanc (white noise)
Parmi la classe des processus stationnaire, il existe des processus particuliers que sont les proces-
sus bruit blanc (ou white noise). Ces processus sont trs souvent utiliss en analyse des sries
temporels car ils constituent en quelque sorte les briques lmentaires de lensemble des proces-
sus temporels. En eet, nous verrons par la suite que tout processus stationnaire peut scrire
comme une somme pondre de bruits blancs (thorme de Wold).
Un bruit blanc est un processus stationnaire accroissements indpendants. On parle aussi
de processus i.i.d. (variables indpendantes et identiquement distribues). Commenons donc
par dnir ce quest un processus accroissements indpendants.
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 35
Denition 28 Un processus (x
t
, t Z) est un processus accroissements indpendants
si pour tout n-uplet du temps t
1
< t
2
< .. < t
n
, t
i
Z, les variables alatoires relles
x
t
2
x
t
1
, ..., x
tn
x
t
n1
sont indpendantes.
Le processus (x
t
, t Z) est un processus stationnaire accroissements indpendants si la
loi de probabilit des accroissements (x
t+h
x
t
) est indpendante de t, h Z. Cest donc une
classe particulire des processus stationnaires.
Mais dans la pratique, on retient plus gnralement la dnition suivante du bruit blanc.
Denition 29 Un processus (x
t
, t Z) est un bruit blanc sil satisfait les deux con-
ditions suivantes t Z :
E(x
t
) = 0
(h) = E[x
t
x
th
] =
_

2
0
si h = 0
h = 0
La premire condition signie tout simplement que lesprance du processus est indpendante
du temps, et de plus quelle est nulle. La seconde condition implique bien entendu lindpendance
de la fonction dautocovariance par rapport au temps (stationnarit). Mais elle implique en outre
que les termes dautocovariances (pour h = 0) sont tous nuls. Seule la variance est non nulle.
Autrement dit, cela signie que les bruits blancs sont des processus stationnaires particuliers sans
mmoire. Le niveau de la srie considr aujourdhui na aucune incidence sur son niveau de
demain, tout comme le niveau dhier na aucune incidence sur le niveau daujourdhui.
Cest pourquoi, le terme bruit blanc provient de lanalogie dans le domaine des frquences
entre la densit spectrale dune variable i.i.d. (constante) et le spectre de la lumire blanche
dans le spectre des couleurs.
En outre, on parle de bruit blanc gaussien lorsque la loi de probabilit du processus est elle
mme gaussienne.

t
i.i.d. N
_
0,
2
_
(3.96)
Sur la gure (3.10) est reprsente une simulation dun bruit blanc gaussien de variance
unitaire pour un chantillon de 200 ralisations. On constate quil nexiste aucune rcurrence
(aucune similitude dans lvolution historique) pour ce type de processus. On dit quil est
dynamiquement indpendant.
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 36
Figure 3.10: Simulation dun Bruit Blanc Gaussien (0, 1)
-2,5
-2
-1,5
-1
-0,5
0
0,5
1
1,5
2
2,5
1 26 51 76 101 126 151 176
4 Le Thorme de Wold
Le thorme de Wold ( 1938) est le thorme fondamental de lanalyse des sries temporelles
stationnaires. Nous commencerons par donner lnonc de ce thorme, puis nous verrons dif-
frentes applications, et nous dnirons ensuite loprateur retard.
4.1 Le thorme de la dcomposition de Wold
Lnonc du thorme de Wold est le suivant
Theorem 30 (Dcomposition de Wold) Tout processus stationnaire dordre deux
(x
t
, t Z) peut tre reprsent sous la forme :
x
t
=

j=0

tj
+
t
(4.97)
o les paramtres
j
satisfont
0
= 1,
j
R, j N

j=0

2
j
< et o
t
est
un bruit blanc i.i.d.
_
0,
2

_
. On dit que la somme des chocs passs correspond la
composante linaire stochastique de x
t
. Le terme
t
dsigne la composante linaire
dterministe telle que cov(k
t
,
tj
) = 0, j Z.
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 37
La dmonstration de ce thorme est donne dans Wold (1938), voir Sargent, Macroeconomic
Theory, Boston Academic Press, p 286-290 pour lintuition de la dmonstration. Ainsi, daprs
le thorme de Wold, si lon omet la composante dterministe
t
, tout processus stationnaire
peut scrire comme une somme pondre innie de chocs passs, ces chocs tant reprsents
par un bruit blanc de variance nie. Limplication forte de ce thorme est que, si lon connat
les pondrations
j
, j N, et si lon connat la variance
2

du bruit blanc, on est mesure de


proposer une reprsentation de nimporte quel processus stationnaire. Cette reprsentation est
aussi qualie de reprsentation moyenne mobile innie.
Reste comprendre ce que peut tre cette composante linaire dterministe
t
. La condition
cov(k
t
,
tj
) = 0, implique que ce terme est, par dnition (dterministe), indpendant des
chocs. Alors le cas le plus simple est celui dun processus stationnaire (x
t
, t Z) desprance
non nulle, tel que E(x
t
) = m= 0. Puisque le bruit blanc est par dnition un processus centr,
une somme pondre de ces chocs est elle-mme centre. Par consquent, la reprsentation de
Wold du processus (x
t
, t Z) suppose que lon ajoute cette somme pondre des chocs passs,
une composante dterministe qui nest autre que lesprance du processus :
t
= m. On a donc
:
x
t
=

j=0

tj
+m
et lon vrie que
E(x
t
) = E
_
_

j=0

tj
_
_
+m =

j=0

j
E(
tj
) +m = m
4.1.1 Conditions sur les pondrations
j
Lnonc du thorme de Wold fait clairement apparatre trois conditions sur les pondrations

j
. La premire condition
0
= 1 impose tout dabord que le poids du choc prsent
t
dans la
dnition du processus soit unitaire. Il sagit ici tout simplement dune condition de normali-
sation qui porte sur la dtermination de la variance du bruit blanc. Considrons le processus
suivant :
x
t
=

j=0

j
v
tj
=
1
2
v
t
+
_
1
2
_
2
v
t1
+
_
1
2
_
3
v
t2
+....
avec v
t
N
_
0,
2
v
_
et
2
v
= 1. Il est possible de normaliser la variance du bruit blanc de sorte
ce que le poids du chocs prsent soit unitaire. Pour cela on pose :

t
=
1
2
v
t
N
_
0,
2

_
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 38
avec
2

= 1/4. Le processus (x
t
, t Z) peut alors tre rexprim en fonction du bruit blanc
(
t
, t Z) de la faon suivante :
x
t
=

j=0

tj
=
t
+
1
2

t1
+
_
1
2
_
2

t2
+
_
1
2
_
3

t3
+....
On obtient ainsi la reprsentation de Wold du processus (x
t
, t Z) , o le poids du choc
contemporains
t
est unitaire.
La seconde condition,
j
R, j N

, est triviale et signie simplement que les pondra-


tions des chocs strictement passs peuvent tre ventuellement nulles pour certains retards.
En revanche, la troisime condition,

j=0

2
j
< , est particulirement importante.
Denition 31 La condition

j=0

2
j
< , dite condition de sommabilit des car-
rs (ou dintgrabilit des carrs) assure lexistence des moments dordre deux du
processus (x
t
, t Z). Sous cette condition, on dit alors que x
t
converge en moyenne
quadratique.
Pour comprendre en quoi cette condition de sommabilit assure lexistence des moments
thoriques dordre deux, il faut revenir la dnition de la fonction gnratrice dautocovariance
du processus (x
t
, t Z) et utiliser la reprsentation de Wold (quation 4.97). Si lon suppose
pour simplier que E(x
t
) = 0, on obtient alors :
(h) = E(x
t+h
x
t
) = E
_
_

j=0

t+hj

j=0

tj
_
_
h Z
Etant donn la dnition dun bruit blanc on a E(
t

tj
) = 0, j = 0, E
_

2
t
_
=
2

. Ds lors,
puisque lesprance est un oprateur linaire, la fonction (h) peut se rcrire sous la forme :
(h) =
_

j=0

2
j
E
_

2
tj
_

j=0

j+h

j
E
_

2
tj
_
si h = 0
h = 0
Dou nalement on tire que :
(h) =
_

j=0

2
j

j=0

j+h

j
si h = 0
h = 0
(4.98)
On peut montrer que la condition

j=0

2
j
< implique

j=0

j+h

j
< , h = 0.
Ds lors cette condition sut garantir la convergence, et donc lexistence, de lensemble des
moments dordre deux du processus x
t
.
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 39
4.1.2 Prvisions partir de la dcomposition de Wold
Comme nous lavons dit, une des consquences de ce thorme est que, si lon connat les pondra-
tions
j
, j N, et si lon connat la variance
2

du bruit blanc, on est mesure de proposer


une reprsentation de nimporte quel processus stationnaire. Partant de cette reprsentation,
on peut alors raliser une prvision, note x
T+h
, pour la ralisation du processus x
t
la date
T +h, partir dun chantillon de T observations de x
t
.
Considrons, pour commencer, une prvision priode (h = 1). La meilleure prvision
possible de la ralisation de x
T+1
, note x
T+1
, connaissant les valeurs passes x
T
, x
T1
, x
T2
, ...
est donne par lesprance conditionnelle suivante E(x
T+1
|x
T
, x
T1
, x
T2
, ... ) . Or, daprs le
thorme de Wold, la connaissance des valeurs passes de x
T
est quivalente la connaissance
des valeurs passes des chocs
T
,
T1
,
T2
, .... En eet, on sait que :
x
T
=

j=0

Tj
=
T
+
1

T1
+
2

T2
+
3

T3
+....
x
T1
=

j=0

Tj1
=
T1
+
1

T2
+
2

T3
+
3

T4
+....
x
Tp
=

j=0

Tjp
=
Tp
+
1

Tp
+
2

Tp
+
3

Tp
+.... p > 0
Par consquent, lespace de conditionnement de notre prvision peut tre modi de la faon
suivante :
x
T+1
= E(x
T+1
|x
T
, x
T1
, x
T2
, ... ) = E(x
T+1
|
T
,
T1
,
T2
, ... )
Reste alors considrer la reprsentation de Wold du processus x
T+1
:
x
T+1
=

j=0

Tj+1
=
T+1
+
1

T
+
2

T1
+
3

T2
+....
A partir de cette formule, il est facile de dterminer lesprance conditionnelle :
x
T+1
= E(x
T+1
|
T
,
T1
,
T2
, ... )
= E
_
_

j=0

Tj+1
|
T
,
T1
,
T2
, ...
_
_
=

j=0

j
E(
Tj+1
|
T
,
T1
,
T2
, ... )
On obtient alors la forme gnrale de notre prvision :
x
T+1
=

j=1

Tj+1
=
1

T
+
2

T1
+
3

T2
+.... (4.99)
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 40
et par consquent de lerreur de prvision :
x
T+1
x
T+1
=
T+1
(4.100)
Par dnition cette erreur de prvision est desprance nulle et de variance gale
2

.
Ainsi, pour un processus stationnaire lerreur de prvision optimale un horizon dune priode
correspond linnovation fondamentale (au choc) associ cette mme priode. De plus, cette
erreur de prvision a de bonnes proprits puisquelle est strictement indpendante de lerreur
de prvision que lon a pu commettre aux dates prcdentes puisque E(
T
,
Tj
) = 0. Ce nest
pas parce quhier lconomtre sest tromp, quil se trompera ncessairement demain.
Bien entendu, on peut gnraliser ces rsultats pour des prvisions des ordres h quelconques.
On montre de la mme faon les rsultats suivants ( dmontrer) :
Rsultats Soit x
T+h
la meilleure prvision possible de la ralisation du processus
x
t
la date T +h compte tenu de linformation disponible la date T.
x
T+h
=

j=1

T+hj
(4.101)
Lerreur de prvision associe est alors dtermine par :
x
T+h
x
T+h
=
h1

j=0

T+hj
(4.102)
4.2 Applications
Le thorme de Wold nest jamais directement applicable, en tant que tel, dans la pratique
puisque il suppose que lon exprime un processus stationnaire comme une somme pondre
innie de chocs passs. Or, dans la pratique informatique il nest pas possible de manier des
objets mathmatiques de dimension innie.
Pour autant, on peut dmontrer quil existe toujours pour tout processus stationnaire, un
ordre ni, tel que ce processus puisse tre approxim par une somme pondre de chocs passs
jusqu cet ordre (dcomposition de Wold tronqu).
Concrtement, cela signie que nimporte quelle srie stationnaire peut tre reprsente de
faon satisfaisante par une somme pondre nie de chocs passs. Reste ensuite estimer les
coecients de pondration (les
j
) et la variance du bruit blanc (
2

) et il est alors possible de


proposer une prvision du processus tudi.
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 41
Figure 4.11: Taux de Croissance du PIB en Volume France (1960:2 1998:2)
-0.02
0.00
0.02
0.04
0.06
0.08
60 65 70 75 80 85 90 95
DPIB
Considrons un chantillon de 77 observations semestrielles du PIB franais en volume de
1960:2 1998:2. Cette srie est reprsente sur la gure (4.11). Admettons que lon ait montr
que cette srie tait stationnaire.
Proposons une premire reprsentation pour de ce processus sous la forme dune somme
pondre nie de chocs passs de la forme :
x
t
= m+
q

j=0

tj
= m+
0

t
+
1

t1
+... +
q

tq
(4.103)
o
t
i.i.d.
_
0,
2

_
et o q > 0. Considrons un ordre arbitraire q susamment grand, compte
tenu du nombre de points disponibles et donc par consquent du degr de libert de notre
estimation. On retiendra pour lexemple q = 20. Nous nexpliquerons pas ici la faon dont nous
avons obtenu les estimateurs des paramtres
j
et de la variance
2

, puisque cela fera lobjet


dun chapitre ultrieur. Les rsultats de lestimation sont reports sur la gure (4.12).
Dans ce tableau gurent les ralisations des estimateurs de la constante (c) et des 20
paramtres
j
, pour j = 1, .., 20. Ces estimateurs sont nots ici sous la forme MA(j) . On ob-
serve que la qualit dajustement est moyenne puisque le R
2
est de 0.50. Le premier coecient
nest pas ici normalis lunit, mais il serait possible de dterminer une nouvelle reprsentation
o le poids du choc contemporains serait unitaire.
Ainsi, un simple modle de ce type permet ainsi de proposer une premire reprsentation
possible du PIB franais, si lon admet que ce dernier peut tre reprsent par un processus
stationnaire. Mais attention, cette approximation que lon qualie de MA(20) , ne correspond
pas la vritable dcomposition de Wold puisque celle-ci est par dnition innie.
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 42
Figure 4.12: Estimation dun Processus MA
La gure (4.13) montre quelle peut tre alors la qualit de lajustement, et donc par con-
squent des prvisions que lon peut en tirer.
4.3 Oprateur Retard et Dcomposition de Wold
Lnonc du thorme de Wold est souvent donn en introduisant un polynme dni en lopra-
teur retard. Plus gnralement, les modles de sries temporels sont souvent exprims sous la
forme de polynme retard. Nous commencerons donc par dnir ce quest loprateur retard,
puis nous rexprimerons le thorme de Wold laide dun polynme retard.
4.3.1 Dnition de loprateur retard
Loprateur retard (not L pour lag ou B suivant les ouvrages) est dni de la faon suivante :
Denition 32 On considre un processus stochastique (x
t
, t Z), loprateur retard,
not L, est dni par la relation :
Lx
t
= x
t1
t Z (4.104)
Cet oprateur permet ainsi de dnir une application qui toute variable x
t
associe la variable
retarde (do son nom) x
t1.
Cet oprateur possde les proprits suivantes. On considre un
processus stochastique stationnaire (x
t
, t Z)
Proprit 1. L
j
x
t
= x
tj
, j Z, en particulier on a L
0
x
t
= x
t
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 43
Figure 4.13: Estimation du PIB franais par un MA(q)
-0.03
-0.02
-0.01
0.00
0.01
0.02
0.03
-0.02
0.00
0.02
0.04
0.06
0.08
65 70 75 80 85 90 95
Residual Actual Fitted
Proprit 2. Si x
t
= c, t Z avec c R, L
j
x
t
= L
j
c = c, j Z
Proprit 3. L
i
_
L
j
x
t
_
= L
i+j
x
t
= x
tij
( i, j) Z
2
La preuve est la suivante :
L
i
_
L
j
x
t
_
= L
i
(x
tj
) = x
tij
Proprit 4. L
i
x
t
= x
t+i
i Z.
Proprit 5.
_
L
i
+L
j
_
x
t
= L
i
x
t
+L
j
x
t
= x
ti
+x
tj
( i, j) Z
2
Proprit 6. Si |a| < 1
(1 aL)
1
x
t
=
x
t
(1 aL)
= lim
j
_
1 +aL +a
2
L
2
+... +a
j
L
j
_
x
t
Cette dernire proprit est particulirement utile pour inverser des polynmes dordre 1
dnis en loprateur retard. La dmonstration de cette proprit est la suivante. Dmontrons
que :
(1 aL) lim
j
_
1 +aL +a
2
L
2
+... +a
j
L
j
_
x
t
= x
t
En dveloppant le terme de gauche, il vient :
lim
j
_
1 aL +aL a
2
L
2
+a
2
L
2
+.. a
j1
L
j1
+a
j1
L
j1
+a
j
L
j
_
x
t
= lim
j
_
1 +a
j
L
j
_
x
t
De l, on montre que sous lhypothse |a| < 1, on a bien :
lim
j
_
1 +a
j
L
j
_
x
t
= x
t
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 44
4.3.2 Thorme de Wold et polynmes retard
Partant de la dnition de cet oprateur retard, on peut alors construire des polynmes coef-
cients rels en cet oprateur. Par exemple, considrons un polynme (L) dordre q :
(L) =
0
L
0
+
1
L
1
+
2
L
2
+... +
q
L
q
Lapplication de ce polynme une processus alatoire (
t
, t Z) nous donne donc :
(L)
t
=
0
L
0

t
+
1
L
1

t
+
2
L
2

t
+... +
q
L
q

t
=
0

t
+
1

t1
+
2

t2
+... +
q

tq
.
Si
0
= 1 et q on retrouve ici une forme moyenne mobile innie identique celle du
thorme de Wold. Le nouvel nonc de ce thorme (identique, bien entendu, au prcdent)
est le suivant :
Theorem 33 (Dcomposition de Wold) Tout processus stationnaire dordre deux
(x
t
, t Z) peut tre reprsent sous la forme :
x
t
= (L)
t
+
t
(4.105)
o le polynme de degr inni (L) est dni par (L) =

j=0

j
L
j
, les paramtres

j
satisfaisant
0
= 1,
j
R, j N

j=0

2
j
< et o
t
est un bruit blanc
i.i.d.
_
0,
2

_
et o la composante linaire dterministe
t
vrie cov(k
t
,
tj
) = 0, j Z.
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 45
5 Les processus ARMA
Jusqu prsent nous avons vu que tout processus stationnaire pouvait scrire sous la forme
dune somme pondre innie de chocs passs (thorme de Wold). Pour toute cette classe
de processus la dcomposition de Wold est donc une premire reprsentation possible. Toute-
fois, cette reprsentation nest jamais la reprsentation optimale parmi toutes les reprsentations
possibles dun mme processus.
En eet, nous verrons dans le troisime chapitre, que lorsque que lon cherche modliser
une srie temporelle, on applique toujours un principe de parcimonie qui veut que, qualit
dajustement gale, lon adopte en priorit la reprsentation ncessitant lestimation du mini-
mum de paramtres. Or par dnition, si lon devait appliquer la dcomposition de Wold, cela
supposerait que lon estime une innit de paramtres (les
j
et le
2

). Donc dans la pratique,


il convient de rechercher dautres reprsentations possibles pour les processus temporels.
Parmi les reprsentations les plus utilises gurent les reprsentations ARMA pour Au-
toRegressive Moving Average. Cette reprsentation consiste en ladjonction dune composante
autorgressive dordre ni ( AR) et dune composante moyenne mobile dordre ni ( MA).
Nous allons donc commencer par dnir la classe des processus AR, MA et ARMA. Nous
tudierons ensuite sous quels conditions ces processus satisfont lhypothse de stationnarit.
Enn, nous introduirons des processus ARMA saisonniers : les SARMA.
5.1 Dnition des processus ARMA
Dnissons prsent la classe des processus AR, MA et ARMA.
5.1.1 Les processus MA
La dnition gnrale dun processus MA est la suivante :
Denition 34 Le processus (x
t
, t Z) satisfait une reprsentation MA dordre q,
note MA(q), si et seulement si :
x
t
= m+(L)
t
(5.106)
avec E(x
t
) = m. Le polynme (L) tant dni par (L) =

q
j=0

j
L
j
o j < q,
j

R,
0
= 1 et
q
R

, avec
t
i.i.d.
_
0,
2

_
.
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 46
On reconnat ici la forme moyenne mobile que nous avions identi dans la dcomposition de
Wold, mais qui dans le cas prsent est un forme moyenne mobile dordre q ni. Par opposition,
la dcomposition de Wold, dnie par lquation (4.97), est aussi qualie de MA()
Les direntes conditions sur les paramtres
j
signient que dans un MA(q) , tous les
paramtres du polynmes (L) peuvent tre nuls lexception du paramtre correspondant
au q
` eme
retard. En eet, si
q
= 0, alors le processus (x
t
, t Z) satisfait une reprsentation
MA(q 1) . De la mme faon que pour la dcomposition de Wold, le premier coecient
0
associ au choc contemporain est, par convention, normalis lunit.
Pour un processus MA(q) , la constante m correspond lesprance du processus puisque
les bruits blancs sont par dnition centrs E(
tj
) = 0, j :
E(x
t
) = E
_
_
m+
q

j=0

tj
_
_
= m+
q

j=0

j
E(
tj
) = m
Voici deux exemples de processus MA(q):
x
1,t
=
t
+ 2
t3
: x
1,t
est un processus MA(3) de moyenne nulle
x
2,t
= 4 +
t
+ 0.8
t1
: x
2,t
est un processus MA(1) de moyenne 4
Une simulation de taille T = 200 de ces deux processus pour
t
N (0, 1) est reprsente
sur la gure (5.14). On vrie au passage que ces deux processus semblent stationnaires.
Figure 5.14: Simulation de Processus MA(q)
-6
-4
-2
0
2
4
6
8
20 40 60 80 100 120 140 160 180 200
X1 X2
5.1.2 Les processus AR
La dnition gnrale dun processus AR est la suivante :
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 47
Denition 35 Le processus stationnaire (x
t
, t Z) satisfait une reprsentation AR
dordre p, note AR(p), si et seulement si :
(L) x
t
= c +
t
(5.107)
avec c R, (L) =

p
j=0

j
L
j
o j < p,
j
R,
0
= 1 et
p
R

,avec
t
i.i.d.
_
0,
2

_
.
On parle ici de reprsentation autorgressive, dans le sens o la variable x
t
est dtermine par
les valeurs passes x
t1
, x
t2
, ..., x
tp
. Les direntes conditions sur les paramtres
j
signient
que dans un AR(p) , tous les paramtres du polynmes (L) peuvent tre nuls lexception
du paramtre correspondant au p
` eme
retard. En eet, si
p
= 0, alors le processus (x
t
, t Z)
satisfait une reprsentation AR(p 1) . De la mme faon que pour la dcomposition de Wold,
le premier coecient
0
associ au choc contemporain est, par convention, normalis lunit.
Contrairement au cas du MA, la constante c de lquation (5.107) ne correspond pas
lesprance du processus (x
t
, t Z). Cette esprance, dans le cas dun processus stationnaire,
est dtermine par la relation suivante si (1) = 0 :
E(x
t
) = (L)
1
c = (1)
1
c (5.108)
En eet, reprenons lcriture de lAR(p) donne par lquation (5.107) :
E(x
t
) = c
1
E(x
t1
)
2
E(x
t2
) ...
p
E(x
tp
) +E(
t
)
Par dnition E(
t
) = 0. Si lon suppose maintenant que (x
t
, t Z) , son esprance, que lon
notera m, ne dpend pas du temps :
E(x
tj
) = m j Z
Donc on a :
E(x
t
) +
1
E(x
t1
) +
2
E(x
t2
) +... +
p
E(x
tp
) = m+
1
m+
2
m+... +
3
m = c
Ce qui peut se rcrire sous la forme :
E(x
t
) = m =
c
1 +
1
+
2
+... +
p
On retrouve bien alors la formule gnrale puisque
(1)
1
=
_
_
p

j=0

j
_
_
1
=
1

0
+
1
+
2
+... +
p
avec
0
= 1
Voici deux exemples de processus AR(p):
y
1,t
= 0.5y
1,t1
+ 0.2y
1,t3
+
t
: y
1,t
est un processus AR(3) de moyenne nulle
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 48
y
2,t
= 0.8 + 0.7y
2,t1
+ 0.25y
2,t2
+
t
: y
2,t
est un processus AR(2) desprance
0.8/ (1 0.7 0.25) = 16.
Une simulation de taille T = 200 de ces deux processus pour
t
N (0, 1) est reprsente sur
la gure (5.15). Ces deux processus semblent stationnaires autour de leur moyenne respective (0
et 16), et cela si lon excepte la dynamique sur les premires priodes lies aux valeurs initiales
nulles dans les deux cas. Mais nous verrons que contrairement aux processus MA(q) ce rsultat
nest pas gnral. Il existe des processus AR non stationnaires.
Figure 5.15: Simulations de Processus AR(p)
-5
0
5
10
15
20
25
20 40 60 80 100 120 140 160 180 200
Y1 Y2
5.1.3 Les processus ARMA
Naturellement, les processus ARMA se dnissent par ladjonction dune composante autor-
gressive AR et dune composante moyenne mobile MA.
Denition 36 Le processus stationnaire (x
t
, t Z) satisfait une reprsentation ARMA,
dordre p et q, note ARMA(p, q), si et seulement si :
(L) x
t
= c +(L)
t
(5.109)
avec c R, (L) =

q
j=0

j
L
j
, (L) =

p
j=0

j
L
j
o j < q,
j
R
2
, j < p,
j
R
2
,

0
=
0
= 1 et
_

p
,
q
_
R
2
, avec
t
i.i.d.
_
0,
2

_
.
Les direntes conditions sur les paramtres
j
et
j
signient que dans un ARMA(p, q) ,
tous les paramtres du polynmes (L) peuvent tre nuls lexception du paramtre corre-
spondant au p
` eme
retard et que tous les paramtres du polynmes (L) peuvent tre nuls
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 49
lexception du paramtre correspondant au q
` eme
retard . En eet, si
p
= 0, alors le processus
(x
t
, t Z) satisfait une reprsentation ARMA(p 1, q) . De la mme faon, si
q
= 0, alors le
processus (x
t
, t Z) satisfait une reprsentation ARMA(p, q 1) .
Ainsi, on constate que les processus AR et MA ne sont que des cas particuliers des processus
ARMA. Un AR(p) correspond un ARMA(p, 0) , de la mme faon un MA(q) correspond
un ARMA(0, q) .
Tout comme pour les AR, la constante c ne correspond pas dans ce cas lesprance du
processus (x
t
, t Z). Cette dernire est donne par la mme relation que celle obtenue pour
lAR :
E(x
t
) = (1)
1
c (5.110)
Voici deux exemples de processus ARMA(p, q):
z
1,t
= 2 0.5z
1,t1
+ 0.2z
1,t3
+
t
0.5
t1
: z
1,t
est un processus ARMA(3, 1) de
moyenne nulle 2/ (1 + 0.5 0.2) = 1. 5385
z
2,t
0.2z
2,t1
1.5z
2,t2
=
t
+0.5
t1
+0.6
t4
est un ARMA(2, 4) de moyenne nulle
Une simulation de taille T = 200 de ces deux processus pour
t
N (0, 1) est reprsente sur
la gure (5.16). Dans ce cas, on constate que le processus z
1
est centr autour de sa moyenne
et semblet-tre un processus stationnaire. En revanche, le processus z
2
, de moyenne nulle, ne
semble pas tre un processus stationnaire. En eet, comme nous allons le voir il existe certaines
conditions sur les processus ARMA pour que ces derniers soient stationnaires. Ici, ces conditions
ne sont pas satisfaites.
Figure 5.16: Simulations de Processus ARMA(p, q)
-5
0
5
10
15
20
20 40 60 80 100 120 140 160 180 200
Z1 Z2
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 50
5.1.4 Les processus ARMA saisonniers
Il existe en outre des processus ARMA saisonniers ou processus SARMA
Denition 37 Un processus stationnaire (x
t
, t Z) satisfait une reprsentation ARMA
saisonnire (ou SARMA), note ARMA
s,s
(p, q) , si
p

j=0

js
x
tjs
= c +
q

j=0

js

tjs
(5.111)
avec c R, j < p,
j
R, j < q,
j
R,
0
=
0
= 1 et
_

p
,
q
_
R

, {
t
} i.i.d.
_
0,
2

_
et
o s dsigne la priode de saisonnalit de la composante AR et s

dsigne la priode
de saisonnalit de la composante MA.
Ainsi un ARMA
12,6
(2, 2) scrit :
x
t
+
12
x
t12
+
24
x
t24
= c +
t
+
6

t6

12

t12
Bien entendu, on peut construire des processus ARMA non saisonniers et saisonniers la
fois. Il en existe deux sortes. Les processus ARMA additifs (rarement employs) :
ARMA(p, q) +ARMA
s,s
( p, q)
et les processus ARMA multiplicatifs
ARMA(p, q) ARMA
s,s
( p, q)
Les processus ARMA multiplicatifs sont quivalents des ARMA(p + ps, q + qs) .
5.2 La stationnarit et linversibilit des processus ARMA
Considrons prsent des processus ARMA. La question est alors de savoir sous quelles con-
ditions sur les paramtres des polynmes (L) et (L) ces processus sont ils stationnaires.
Nous allons en outre introduire la notion dinversibilit qui consiste dterminer sil existe une
reprsentation MA (respectivement AR) quivalente pour un AR (respectivement pour un MA).
5.2.1 Conditions de stationnarit et dinversibilit
Commenons par noncer un premier thorme concernant les processus AR.
Theorem 38 Un processus (x
t
, t Z) satisfaisant une reprsentation AR(p) est tou-
jours inversible. Il est stationnaire lorsque toutes les racines du polynme (L) ,
notes
j
C, j p, sont de module strictement suprieur lunit.
(
j
) =
p

i=0

i
j
= 0
p

j=1
_
1
1

j
L
_
= 0 |
j
| > 1, j (5.112)
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 51
Ce thorme indique tout dabord que tout processus AR peut tre invers et reprsent
sous la forme dun processus MA. Le second point, plus fondamental, porte sur la stationnarit
du processus. Ce thorme indique que lorsque les racines du polynme autorgressif sont toutes
suprieures lunit en module, le processus satisfait les 3 conditions de la stationnarit du
second ordre.
Nous ne fournirons pas de dmonstration gnrale, mais nous considrerons un exemple
simple dun processus AR(1) centr dni par :
(L) x
t
= (1 L) x
t
=
t
(5.113)
On sait que si le processus x
t
est stationnaire, il peut tre exprim sous la forme dun
MA() , suivant le thorme de Wold. Daprs le thorme prcdent la condition de station-
narit se ramne montrer que la racine de (L) , note , est strictement suprieure lunit
en module :
() = 1 = 0 =
1

Donc si || < 1, alors || > 1, le processus x


t
est stationnaire et peut scrire sous la forme
MA() suivante :
x
t
= (L)
1

t
=

j=0

tj
Les paramtres
j
sont alors dnis par inversion du polynme (L) . Daprs la 6
` eme
proprit de loprateur retard, on a j N :

j
=
j
puisque
(L)
1
=
1
1 L
=

j=0

tj
(5.114)
Reste dmontrer que sous lhypothse || < 1, le processus (x
t
, t Z) qui peut scrire
sous la forme t Z :
x
t
=

j=0

tj
satisfait les trois conditions de la dnition de la stationnarit du second ordre. La premire
condition, dite condition de sommabilit, est immdiate :

j=0

2
j
=

j=0

2j
<
Sous lhypothse || < 1 cette condition est satisfaite. La seconde condition porte sur le
moment dordre un :
E(x
t
) = E
_
_

j=0

tj
_
_
=

j=0

j
E(
tj
) = 0 indpendant de t
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 52
Enn, la troisime condition porte sur les moments dordre deux et sur la fonction dauto-
covariance :
(h) = E(x
t+h
x
t
) = E
_
_

j=0

t+hj

j=0

tj
_
_
h Z
(h) =
_

j=0

2
j
E
_

2
tj
_

j=0

j+h

j
E
_

2
tj
_
si h = 0
h = 0
Dou nalement on tire que :
(h) =
_

j=0

2j

j=0

2j+h
=
si h = 0
h = 0
La fonction dautocovariance est donc bien indpendante du temps. Donc sous lhypothse
|| < 1, le processus (x
t
, t Z) est stationnaire.
Considrons trois exemples de processus AR dnis par les relations suivantes :
x
1,t
= 2x
1,t1
x
1,t2
+
t
x
2,t
= 2x
2,t1
3x
2,t2
+ 2x
2,t3
+
t
x
3,t
= 0.1x
3,t1
0.5x
3,t2
+
t
Les trois polynmes autorgressifs associs sont les suivants :

i
(L) x
i,t
=
t
i = 1, 2, 3
avec

1
(L) = 1 2L +L
2
= 0
1
1
=
1
2
= 1

2
(L) = 1 2L + 3L
2
2L
3

2
1
= 1 et
2
j
= 0.25 0.25i

7 j = 2, 3

3
(L) = 1 0.1L + 0.5L
2

3
j
= 0.1 1. 4107i j = 1, 2
Par consquent, le processus (x
1,t
, t Z) est non stationnaire puisque les deux racines sont
unitaires. Le processus (x
2,t
, t Z) est aussi non stationnaire puisquil a une racine unitaire et
deux racine de module strictement infrieures un. Seul le processus (x
3,t
, t Z) est stationnaire
puisque ses deux racines sont de module strictement suprieures lunit.
Un second thorme peut tre nonc pour les processus MA.
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 53
Theorem 39 Un processus (x
t
, t Z) satisfaisant une reprsentation MA(q) est tou-
jours stationnaire. Il est inversible lorsque toutes les racines du polynme (L) ,
notes
j
C, j q, sont de module strictement suprieure lunit.

j
_
=
q

i=0

i
j
= 0
q

j=1
_
1
1

j
L
_
= 0

> 1, j
Ce thorme nous indique tout dabord que tout processus MA, qui nest autre quune
somme pondre de bruits blancs, est toujours stationnaires. Ce rsultat se comprend aisment
compte tenu des proprits des bruits blancs. La seconde partie nous indique quun processus
x
t
dni comme un MA peut tre exprim sous la forme dun AR si le polynme associ (L)
est inversible, cest dire si ses racines sont toutes suprieures 1 en module.
Considre lexemple dun processus centr (x
t
, t Z) suivant un MA(1) dni par :
x
t
= (L)
t
= (1 L)
t
(5.115)
Par inversion du polynme (L) , on peut exprimer x
t
sous la forme dun AR() :
(L)
1
x
t
=
t
Dterminons linverse de (L) . De la mme faon que prcdemment, on montre que si
|| < 1, (L) est inversible et son inverse est :
(1 L)
1
=

j=0

j
L
j
Ds lors, le processus x
t
peut tre dni comme un AR() dont les paramtres sont donns
par la relation suivante :
(L)
1
x
t
=

j=0

j
x
tj
=
t
(5.116)
Bien entendu, il nous reste maintenant tablir les mmes rsultats en ce qui concerne les
processus ARMA.
Corollary 40 Les conditions de stationnarit dun processus ARMA sont dtermines
par les racines du polynme associ sa composante AR. Les conditions din-
versibilit sont dtermines par les racines du polynme associ sa composante
MA.
Ainsi, un processus centr (x
t
, t Z) dni par un ARMA(p, q) est stationnaire ds lors
que les racines du polynmes associ la composante AR sont strictement suprieures lunit
en module.
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 54
Reprenons les deux exemples tudis prcdemment :
z
1,t
= 2 0.5z
1,t1
+ 0.2z
1,t3
+
t
0.5
t1
z
2,t
0.2z
2,t1
1.5z
2,t2
=
t
+ 0.5
t1
+ 0.6
t4
La reprsentation de ces deux processus est la suivante :

i
(L) z
i,t
=
i
(L)
t
i = 1, 2
avec

1
(L) = 1 + 0.5L 0.2L
3
= 0
1
1
= 2.18 et
1
j
= 1.09 1.04i j = 2, 3

2
(L) = 1 0.2L 1.5L
2
= 0
2
1
= 0.88 et
2
2
= 0.75
On vrie au passage la conclusion que nous avions faite prcdemment, savoir que le
processus z
1
est stationnaire, tandis que le processus z
2
ne lest pas.
5.2.2 Recherche des conditions de stationnarit et dinversibilit des processus
ARMA
Ainsi, la recherche des conditions de stationnarit (ou des conditions dinversibilit suivant les
cas) revient dterminer la position relative des racines dun polynme dni en loprateur
retard par rapport au cercle unit du plan complexe.
On considre un polynme (L) dordre p coecients rels, dni en loprateur retard L,
avec
0
= 1. Soit (
i
)
i
lensemble des racines de ce polynme avec (
i
) C
p
(L) =
p

j=0

j
L
j
=
p

j=1
_
1
1

j
L
_
= 0 (5.117)
Dans le cas p = 2, les racines du polynme sobtiennent directement partir de lquation,
z C:
1 +
1
z +
2
z
2
=
_
1
z

1
__
1
z

2
_
= 0
Suivant la valeur de la quantit =
2
1
4
2
, on montre que :
> 0
i
= 2
2
_

1

_

2
1
4
2
_
1
i = 1, 2
< 0
i
= 2
2
_

1
i
_

2
1
+ 4
2
_
1
i = 1, 2
Dans le cas gnral, les racines du polynme coecients rels dordre p, not (z) , corre-
spondent aux valeur propres de la matrice F associe lapplication linaire
Z = FZ (5.118)
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 55
avec
Z
(p,1)
=
_
_
_
_
z
z
2
..
z
p
_
_
_
_
F
(p,p)
=
_
_
_
_

1

2
...
p
1 0 ... 0
... ... ... ...
0 ... 1 0
_
_
_
_
5.2.3 Inversion dun polynme dordre p
En analyse des sries temporelles, il est souvent utile dinverser des processus. Par exemple,
partant dun processus AR stationnaire, on peut par inversion du polynme autorgressif, dter-
miner la forme MA() associe la dcomposition de Wold. On obtient ainsi des reprsentation
quivalentes dun mme processus. Pour cela, il est ncessaire dinverser des polynmes dnis
en loprateur retard. Nous avons dj vu comment raliser cette opration pour des polynmes
de degr un. Nous allons prsent gnraliser cette mthode au cas de polynme de degr
suprieur ou gal un.
Le problme est donc le suivant. Soit (z) un polynme inversible dordre p coecients
rels avec
0
= 1. Il sagit de dterminer

(z) , le polynme inverse de (z) . Par dnition,
z C
(z)

(z) = (z) (z)


1
=
p

j=0

j
z
j

j=0

j
z
j
= 1
Plusieurs solutions existent pour dterminer

(z) . Parmi celles-ci, nous nen retiendrions
que deux.
1. Mthode didentication :
On part de la relation (z)

(z) = 1 et lon cherche dterminer les paramtres


j
, tels que

n
j=0

j
z
j
, par identication les coecients de mme degr. De faon gnrale, les n quations
du systme didentication sont dnies par :
i

k=0

ik

k
= 0 i [1, p]
p

k=0

ik

k
= 0 i > p
(5.119)
Considrons lexemple suivant. On cherche inverser le polynme AR(2) dni par
(z) x
t
=
_
1 +
1
z +
2
z
2
_
x
t
=
t
avec
1
= 0.6 et
2
= 0.3. Le polynme est inversible puisque les racines sont de module
strictement suprieur 1 :
1
= 1.23 et
2
= 3.23. Soit

(z) le polynme inverse de (z) ,
que lon suppose de degr inni. On part de la relation didentication :
(z)

(z) = 1
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 56
En dveloppant on obtient :
_
1 +
1
z +
2
z
2
_
_

0
+

1
z +

2
z
2
+

3
z
3
+... +

p
z
p
+...
_
= 1

0
+

1
z +

2
z
2
+

3
z
3
+... +

p
z
p
+...

1
z +

2
1
z
2
+

1
z
3
+

1
z
4
+... +

1
z
p+1
+...

2
z
2
+

2
z
3
+

2
2
z
4
+

2
z
5
+... +

2
z
p+2
+... = 1
Par identication des termes de mme degr droite et gauche du signe gal, on obtient
alors le systme suivant :
_

0
= 1

1
+
1
= 0

2
+

1
+
2
= 0

3
+

1
+

2
= 0
...

n
+

n1

1
+

n2

2
= 0 n > 2
La rsolution de ce systme fournit alors une suite de rcurrence qui dnit les coecients
de la reprsentation MA() du processus x
t
:
x
t
=

(z)
t
=

j=0

tj
(5.120)
o les paramtres

j
sont dnis par la relation suivante :

0
= 1 (5.121)

1
= 0.6 (5.122)

n
= 0.6

n1
+ 0.3

n2
n 2 (5.123)
2. Mthode :
Lautre mthode dinversion des polynmes est la suivante. On considre p racines
i
relles
distinctes du polynme (z) dordre p, (
i
)
i
R
p
, avec p p. On supposera ici pour simplier
que p = p, mais cette mthode peut tre tendue au cas gnral p p. Une autre faon dobtenir
les paramtres

i
du polynme inverse

(z) = (z)
1
consiste dterminer les paramtres a
j
tels que :

(z) =
1
p

j=1
_
1

j
z
_
=
p

j=1
_
a
j
1

j
z
_
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 57
o les

j
sont dnis comme linverse des racines de (z) :

j
=
1

j
j [1, p] (5.124)
De faon gnrale, les paramtres a
j
sont dnis par la relation suivante.
a
j
=

p1
j
p

k=1
k=j
_

k
_
j p (5.125)
Or on montre que :
p

j=1
_
a
j
1

j
z
_
=
p

j=1
a
j

k=0

k
j
z
k
=

k=0
_
_
p

j=1
a
j

k
j
_
_
z
k
(5.126)
Ds lors, par identication, on obtient :

i
=
_
_
p

j=1
a
j

i
j
_
_
i 0 (5.127)
Considre nouveau lexemple du polynme AR(2) dni par (z) = 1 +
1
z +
2
z
2
, avec

1
= 0.6 et
2
= 0.3. Les deux racines relles sont
1
= 1.23 et
2
= 3.23. On cherche tout
dabord dterminer les paramtres a
i
tels que z C
1
_
1

1
z
__
1

2
z
_ =
a
1
_
1

1
z
_ +
a
2
_
1

2
z
_
avec

1
=
1

1
=
1
1.23

2
=
1

2
=
1
3.23
En dveloppant, on obtient lgalit suivante, z =
i
, i = 1, 2 :
a
1
_
1

2
z
_
+a
2
_
1

1
z
_
= 1
(a
1
+a
2
)
_
a
1

2
+a
2

1
_
z = 1
Par identication des termes de mme degr, on obtient le systme :
_
a
1
+a
2
= 1
a
1

2
+a
2

1
= 0
Chapitre 1. UFR Economie Applique. Cours de C. Hurlin 58
Do lon tire nalement que :
a
1
=

2
a
2
=

1
On peut alors construire le polynme inverse.

(z) =

k=0
_
_
p

j=1
a
j

k
j
_
_
z
k
=

k=0
_
a
1

k
1
+a
2

k
2
_
z
k
=

k=0
_

k+1
1

2
+

k+1
2

1
_
z
k
=

k=0
_

k+1
2

k+1
1

1
_
z
k
On obtient donc nalement :

(z) =

j=0

j
z
j
=

j=0
_

j+1
2

j+1
1

1
_
z
j
(5.128)
On peut dmontrer que les paramtres

j
ainsi dnis satisfont lquation de rcurrence
dnie en (5.123).

You might also like