Professional Documents
Culture Documents
CHAPITRE 25
Cette annexe présente les éléments de calcul sur les processus d’Itô, qui constituent un
outil très utilisé dans la théorie et dans les techniques financières modernes. Les
démonstrations rigoureuses faisant appel à des mathématiques abstraites (notamment à
la théorie de la mesure) ne seront pas présentées dans cette annexe où l'accent sera mis
sur les outils de calcul et leur signification afin que l’exposé soit accessible à tous les
lecteurs, car ces outils sont nécessaires à la compréhension de nombreux chapitres de
cet ouvrage1. Des développements mathématiquement plus précis (et utiles seulement à
la compréhension des parties les plus techniques de ce livre) pourront être trouvés dans
les notes de bas de page et dans le chapitre suivant. Par ailleurs, les processus de
Poisson sont également succinctement présentés. Alors que les processus d’Itô sont
continus, les processus de Poisson permettent de représenter des « sauts » intervenant à
des instants aléatoires.
1 Les outils présentés dans les quatre premiers paragraphes de cette annexe sont utilisés dans une dizaine
de chapitres de ce livre. Les paragraphes 5 et 6 sont moins indispensables et pourront être omis lors d’une
première lecture.
2
Un processus stochastique (ou processus aléatoire) est une variable à une ou plusieurs
dimensions qui dépend du hasard et du temps. Il existe une infinité d’exemples de tels
processus. Pour s’en tenir au domaine de la finance citons le cours d’une action, un taux
d’intérêt, un indice boursier, ou un ensemble (vecteur) de variables comprenant
plusieurs taux, indices, taux de change,…
- Les variables et les processus aléatoires seront désignés par des lettres capitales et les
n
éléments non aléatoires de R ou de R seront en général représentés par des petites
lettres.
- Un tiret dénotera un vecteur (exemple : X est un vecteur (X1, ... Xn) de variables
n
aléatoires ; x est un élément non aléatoire de R ).
- Une matrice sera représentée par une lettre capitale, en gras, comme Σ.
fondamental muni d'une σ-algèbre F et d'une mesure de probabilité. La σ-algèbre It est représentative du
système d'information disponible en t ; l'enrichissement du système d'information au cours du temps est
représenté par une suite It de σ-algèbres emboîtées (I0 ⊆ I1⊆...⊆It... ⊆ ΙΤ = F que l'on appelle une
filtration. On se bornera implicitement dans la suite à considérer les processus dits « adaptés » ou It-
3
que le processus est « en temps discret » et dans le second qu’il est représenté « en
temps continu ». La date 0 désigne souvent (mais pas toujours) la date d’aujourd’hui.
L’état du monde ω doit être interprété comme « l’histoire exhaustive du système
étudié entre 0 et T ». Pour un état du monde ω donné toutes les réalisations du
processus X(t,ω) sont donc connues. Dès lors, pour un ω donné, X(t,ω) ≡ xω(t) est une
simple fonction du temps (sans caractère aléatoire) qui représente la réalisation
particulière du processus sous l’occurrence ω. Cette fonction du temps xω(t) pour un ω
donné s’appelle une trajectoire. Une trajectoire est donc une suite discrète ou continue
de réalisations de X ; dans le cas d’un processus en temps continu une trajectoire peut
être représentée par une simple courbe (sur un plan si le processus est unidimensionnel
ou dans un espace à n+1 dimensions s’il est n-dimensionnel).
Par ailleurs, pour un t donné, X(t,ω) ≡ Xt(ω) est une simple variable aléatoire dont la
valeur exacte n’est connue qu’en t.
Dans le vocabulaire probabiliste, une propriété concernant X(t,ω) sera dite « presque
sûrement » vraie (p.s.) si elle est vraie pour tout ω sauf éventuellement dans un sous-
ensemble de Ω de probabilité nulle. On pourra donc interpréter « p.s. » comme
synonyme de « certainement » ou « avec probabilité 1 ».
La notation X(t,ω) est la plus explicite pour désigner un processus aléatoire que l’on se
contente le plus souvent de noter X(t). L’ambiguïté est partiellement levée dans nos
notations car les lettres capitales sont réservées aux éléments aléatoires (les petites
lettres désignant en général des éléments déterministes).
En fait, les processus stochastiques que nous considérerons sont des variables
unidimensionnelles ou des vecteurs multidimensionnels, aléatoires et fonction du
n
temps, prenant leurs valeurs dans R . Un processus aléatoire vectoriel sera noté par
exemple X(t).
On considérera parfois deux instants s et t et on supposera toujours que X(s) est connu
pour s ≤ t. Cette dernière propriété caractérise les processus dits adaptés (leur valeur est
connue sans délai, « en temps réel »)3.
Au fur et à mesure que le temps s’écoule et que l’information s’enrichit, l’incertitude se
réduit. L’ensemble des informations disponibles en t est représenté par It.4 C’est à partir
mesurables, c'est-à-dire que, pour tout t, la variable aléatoire X(t, .) est connue en t c'est-à-dire mesurable
par rapport à It.
3 Cf. note 1 supra.
4
Un processus sans mémoire est, par définition, caractérisé par des probabilités
conditionnelles de X(tm) qui, quels que soient x et la suite (t0, ..., tm), ne dépendent que
de (xm-1, tm-1) caractérisant le dernier état connu; la probabilité conditionnelle
précédente se simplifie alors en : Proba {X (tm) ≤ x / X(tm-1) = xm-1} ≡ F(xm-1, tm-1 ; x, tm).
Cette probabilité de passage de l'état xm-1 en tm-1 à un état ≤ x en tm s'appelle la
probabilité de transition.
Pour résumer, un processus sans mémoire est tel que la réalisation la plus récente
contient toute l'information pertinente à l'élaboration des probabilités concernant le
futur : « le passé n’influence l’avenir que par l’intermédiaire du présent ».
Ainsi, supposer que le cours des actions suit un processus sans mémoire est en totale
contradiction avec les analyses techniques et chartistes mais en parfait accord avec
l’hypothèse d’efficience (cf. chapitre 1).
Les définitions que nous venons d'exposer se généralisent aisément au cas des processus
multivariés : X et x se transforment simplement en X et x qui représentent des vecteurs.
Définition : Un processus de Markov est un processus sans mémoire dont les
probabilités de transition respectent certaines conditions5.
Les processus continus, dits aussi processus à trajectoires continues, sont ceux pour
lesquels les trajectoires sont sûrement continues alors celles des processus à sauts sont
caractérisées par des discontinuités. Dès lors, un processus continu ne peut connaître
qu’une modification infinitésimale de sa valeur dans un intervalle de temps de durée dt.
Les processus continus ont été étudiés notamment par le mathématicien Japonais Itô.
2 Le mouvement brownien
n
• F(xs, s ; ., t) est une fonction mesurable par rapport à la σ-algèbre It et les boréliens de R.
• L'équation suivante, dite de Chapman-Kolmogorov, est satisfaite pour r < s < t:
F(x, r ; z, t) = ∫ F ( y, s ; z, t)dF(x, r ; y, s) (l’intégration s’opère sur y).
y
Cette équation signifie simplement que la probabilité que X passe de (r, x) à (t, ≤ z) est égale à la somme
des probabilités de toutes les trajectoires passant en s par tous les états intermédiaires y possibles et
aboutissant en t à une valeur ≤ z.
6Les processus stationnaires ne sont pas uniquement définis sur la classe particulière des processus
markoviens ; de manière générale un processus X(t) est stationnaire si sa fonction de distribution est telle
que :
∀h, Proba (X(tm) ≤ xm, X(tm-1) ≤ xm-1, ..., X(t0) ≤ x0) = Proba (X(tm+h) ≤ xm, ..., X(t0+h) ≤ x0)
c'est-à-dire qu'elle est invariante pour toute translation dans le temps. Cette définition générale implique la
définition particulière que nous avons donnée pour les processus markoviens.
6
l'année 1900 intitulée « Théorie de la spéculation » portant sur le comportement des prix
cotés à la Bourse de Paris, développait et formalisait la théorie et utilisait le mouvement
brownien en temps continu pour représenter les variations des cours boursiers. Le
travail de Louis Bachelier précédait celui des physiciens et des mathématiciens tels que
A. Einstein, N. Wiener, P. Levy, et K. Itô, qui ont utilisé le mouvement brownien pour
décrire des phénomènes en Physique et développer la théorie mathématique des
processus stochastiques continus. Soixante-dix ans après le travail de Bachelier, Robert
Merton, dans une série d’articles fondamentaux, fondait un pan essentiel de la théorie
actuelle des marchés financiers en s’appuyant sur les mathématiques des processus
« dérivés du mouvement brownien ».
Ce processus très simple, appelé auto-régressif du 1er ordre, est couramment utilisé en
économétrie. Le mouvement brownien peut être considéré comme une limite de ce
processus en temps continu.
b) Le temps continu
Nous allons généraliser l’approche en temps discret en considérant un processus X(t)
défini en temps continu, c'est-à-dire pour tout t ∈ (0, T) que nous définirons comme un
« mouvement brownien arithmétique7 non standardisé », ou plus simplement « un
brownien ».
Parmi les différentes définitions possibles du mouvement brownien, nous optons ici
pour la suivante :
Définition du mouvement brownien arithmétique
X(t) est un mouvement brownien arithmétique si :
(i) X(t) − X(0) est gaussien de moyenne µ t et de variance σ2 t (c'est-à-dire selon la loi
N(µ t, σ2 t)) ;
(ii) Ses accroissements sont indépendants (s’ils sont calculés sur des périodes
disjointes) ; dès lors, si t1, t2, t3, t4 désignent quatre instants successifs quelconques avec
0≤ t1 < t2 < t3 < t4 ≤ T : X(t4) − X(t3) est indépendant de X(t2) − X(t1).
Plus généralement, l’accroissement du brownien sur une période (s, t) quelconque est
indépendant de tous les évènements survenus jusqu’à la date s comprise.
7 C’est pour les distinguer des mouvements browniens géométriques (cf. 3.2, exemple 2) que les
browniens simples sont parfois qualifiés de « browniens arithmétiques ».
8
Par ailleurs, les accroissements X(t) – X(s) ne dépendant pas des évènements antérieurs
à s, le processus est markovien. En outre, X est stationnaire puisque les deux
premiers moments de X(t) − X(s) (qui définissent toutes les probabilités, puisque X est
gaussien) ne dépendent que de t − s.
Dès lors, si on considère deux instants t et t+ ∆t, X(t+ ∆t) − X(t) est distribué selon une
loi N (µ ∆t, σ2∆t) et on peut écrire :
(4) ∆X = µ ∆t + σ ∆W
Puisque ∆W = W(t+∆t) − W(t) est N(0, ∆t), cet accroissement s’exprime en fonction
d’une variable normale standard U :
(5) ∆W = √∆t U
On remarquera que (5) est un cas particulier de (2) (avec µ = 0 et σ = 1).
Nous avons déjà indiqué, sur la base d’une justification intuitive, que les trajectoires du
mouvement brownien sont continues en tout point. Reprenons ce point important avec
plus de rigueur. Situons-nous en un point quelconque (t, W(t)) d’une trajectoire
8 De façon plus générale l’accroissement W(t) − W(s) ne dépend d’aucun évènement antérieur à s et de ce
fait on peut écrire : E(W(t) − W(s)/ Is) = 0 donc E(W(t) / Is) = W(s), où Is désigne l’ensemble des
informations disponibles en s qui est représentée mathématiquement par une σ-algèbre.
10
que sa variance tend vers 0 quand ∆t tend vers 0 ; ceci annule toute probabilité de saut.
En outre, la propriété de continuité des trajectoires que l’on vient de montrer dans le cas
d’un processus de Wiener W, est vérifiée également pour un brownien non standard X,
en vertu de (3).
Les processus X(t) et W(t) sont définis en temps continu, ce qui permet d’écrire
l'équation (4) sur un intervalle infinitésimal (t, t+dt), sous la forme différentielle :
(6) dX(t) = µ dt + σ dW
Non aléatoire aléa gaussien centré
= E(dX) de variance=σ2dt
(dW est normale d’espérance nulle et de variance égale à dt).
La relation (6) est une équation différentielle stochastique (EDS dans la suite). Elle
exprime le fait que la variation dX comprend une composante déterministe µ dt égale à
son espérance mathématique et une composante stochastique σ dW d'espérance nulle et
de variance σ2 dt ; µ est appelé le terme de dérive ou de tendance (« drift » en anglais), σ
le paramètre de diffusion et σ2 la variance instantanée.
Cette EDS (6) a pour forme intégrale (ou solution) :
t t
X(t) – X(0) = ∫ µ ds + ∫ σ dW ( s ) = µ t +σ W(t).
0 0
L’EDS (6) est la généralisation de l’équation différentielle ordinaire (EDO) (sans terme
t
stochastique) la plus simple : dX = µ dt X(t) – X(0) = ∫ µ ds = µ t
0
t t t
Remarquons que ∫ σ dW ( s ) = σ ∫ dW ( s ) = σ W(t) car σ est une constante et que ∫ dW ( s )
0 0 0
définition même de cette intégrale stochastique, seraient moins évidents si σ n’était pas
constant, comme dans le cas des processus plus généraux étudiés dans la suite.
Le processus brownien peut être utilisé quand le mouvement d'un système résulte d'une
force constante qui imprime une dérive (traduite par le terme µ dt) perturbée par des
chocs aléatoires successifs, continuels et indépendants dans le temps qui impriment des
mouvements erratiques (représentés par le terme σ dW). Il a notamment été utilisé pour
représenter, à la suite des observations de R. Brown, le mouvement d'une particule en
suspension dans un fluide9.
∆W σ
Reprenons maintenant l’équation (5) qui permet d’écrire : = U
∆t ∆t
Cette expression n’ayant pas de limite quand ∆t tend vers 0 le mouvement Brownien (W
et X) est non dérivable (bien qu’il soit continu).
Les trajectoires du mouvement brownien sont donc continues en tout point alors
qu’elles ne sont dérivables en aucun point (chaque point étant « anguleux », ce qui est
difficile à concevoir).
Cette double caractéristique de continuité et de non dérivabilité ne constitue qu’une des
propriétés du brownien qui peut paraître insolite. Citons, parmi d’autres :
9 X(t) est une des coordonnées de la position de la particule (un brownien tridimensionnel représenterait
sa position dans l’espace à trois dimensions). La particule subit une succession ininterrompue de chocs
avec les molécules du fluide qui sont en constante agitation ; ces chocs provoquent des mouvements
aléatoires de la particule représentés par l’aléa gaussien σ dw. En outre, une « dérive » µdt traduit
l’existence d’un « courant » qui traverse le fluide entraînant la particule dans une direction déterminée.
12
petites, chacune répétant le tout comme un écho »10. Elle est, dans ce sens, « invariante
d’échelle ». Considérons le cas d’un processus de Wiener. Sur une période de durée ∆t
ce brownien standard a une variation égale à √∆t U où U est une gaussienne standard ;
or ce même intervalle peut être décomposée en n sous intervalles de durée ∆t/n et la
∆t
variation du brownien est la somme de n variables normales Ui où les Ui sont des
n
gaussiennes standard. De même, sur un de ces sous-intervalle de durée ∆t/n, la variation
du brownien peut être décomposée à son tour en n sous intervalles de durée ∆t/n2 sur
∆t
chacun desquels la variation du brownien est Uj ; et ainsi de suite pour des
n2
décompositions de plus en plus fines comme l’indique le schéma ci dessous.
∆t / n 3 U 1''
∆t / n 2 U1'
∆t / n U1 ∆t / n3 U n''
√∆t U ∆t / n 2 U n'
∆t / n U n
10 Benoît Mandelbrot : Une approche fractale des marchés, Odile Jacob, 2005.
13
2,5
1,5
1
X(t)
0,5
0
1 275 549 823 1097 1371 1645 1919 2193 2467 2741 3015 3289 3563 3837
-0,5
-1
t
1,8
1,6
1,4
1,2
1
X ( t)
0,8
0,6
0,4
0,2
0
t
La figure du haut présente deux trajectoires simulées d’un même brownien de dérive µ
= 0,04% (soit 0,004 × 252 # 10% sur une année de 252 jours ouvrés) et de paramètre de
diffusion σ = 0,02 par jour (soit 0,02 × √252 # 32% annualisé); le graphique retrace
l’évolution de X(t) sur 4000 jours. Comme nous le verrons plus loin X(t) pourrait
représenter le logarithme népérien du prix d’une action de volatilité égale à 32%.
On remarquera le caractère continu et partout « rugueux » des trajectoires (« qui
changent de direction en tout point ») et qui traduit leur non dérivabilité.
14
La figure du bas est un zoom sur une des trajectoires (agrandissement de 4 qui
« détaille » la trajectoire entre les jours 1200 et 2200) ; il fait apparaître la même
« structure rugueuse » que la trajectoire sur 4000 jours : sans précision sur l’échelle des
axes elle pourrait, a priori, représenter une trajectoire de brownien à une échelle
quelconque, conformément à la propriété « d’invariance à l’échelle » caractéristique
d’une structure fractale.
Le calcul différentiel sur des processus de Wiener obéit aux règles suivantes :
(7-a) (dW)2 = dt = var(dW)
(7-b) dW.dt = 0
(7-c) dW1(t).dW2(t) = ρ12 dt = cov (dW1, dW2) si W1 et W2 sont deux processus de
Wiener non indépendants et ρ12 est le coefficient de corrélation instantané entre W1et
W2.
(7-d) dW(t1).dW(t2) = 0 si t1 ≠ t2
Ces relations peuvent être justifiées à l’aide de l’équation (5) que l’on réécrit avec deux
de ses implications directes (U est une variable N(0,1)):
(5-a) ∆W = √∆t U ; (5-b) (∆W)2 = ∆t U2 ; (5-c) (dW)2 = dt U2
Justification de (7-a). La relation (7-a) peut paraître étonnante pour deux raisons.
- D'abord on peut être surpris que le carré d'un élément différentiel soit d'ordre un (et
non d’ordre deux), comme l’indique (5-c) et (7-a); la raison en est que W n'est pas
1
dérivable et que dW est d'ordre comme le montre l’équation (5-a).
2
Cette caractéristique particulière a des conséquences importantes sur la manière dont est
calculée la différentielle d'une fonction de processus de diffusion, comme on le verra
dans le paragraphe suivant.
15
- Une deuxième cause de surprise vient du fait que (7-a) indique que (dW)2 est non
aléatoire. En fait:
E [(dW)2 – dt ] = 0
et (5-c) implique : Var [(dW)2 – dt] = (dt)2 var U2 = (dt)2
La variable (dW)2 – dt a donc une espérance nulle et une variance égale à (dt)2, d'ordre
deux: la variance peut donc être considérée comme nulle11, donc (dW)2 peut être
assimilé à son espérance dt.
- Justification de (7-b) et (7-c). Les règles (7-b) et (7-c) ont des fondements analogues à
(7-a).
D'abord, var{dt.dW} = (dt)3/2, donc dt dW peut être assimilé à son espérance qui est
nulle, d'où dW dt = 0.
Ensuite dW1 dW2 = U1 U2 dt où U1 et U2 sont deux variables normales standardisées
dont on appellera ρ12 le coefficient de corrélation (égal à leur covariance). Dès lors :
- Justification de (7-d). La règle (7-d) résulte directement du fait que W est un processus
à accroissements indépendants.
ρ12σ1σ2dt.
Nous ne justifions que (9-a), les autres relations se démontrant de manière analogue.
11L'espace des variables aléatoires centrées à variance finie peut être muni d'un produit scalaire, la
covariance, et par conséquent d'une norme : la variance. Un élément de norme nulle est l'élément nul.
16
(10) dX = µ dt + Σ dW
n
Rappelons que µ est un vecteur constant de R , W un Wiener multidimensionnel à m
composantes indépendantes12 et Σ une matrice de n×m constantes.
En s'attachant à la ième composante de (10), on écrit :
m
dXi = µi d t + ∑σ
j =1
ij dW j
Malgré l'intérêt des applications auxquelles il a donné lieu, le mouvement brownien est
en fait très particulier, notamment parce que les coefficients de dérive µ et de diffusion
σ sont supposés constants. Un souci de généralisation conduit à considérer des
processus dont la dérive et le coefficient de diffusion ne sont pas constants. Nous
présentons ici les processus univariés, les processus multivariés faisant l’objet du
paragraphe 5.
Nous noterons que les notations de la dérive et de la diffusion aléatoires µ(t) et σ(t)
dérogent exceptionnellement à notre convention consistant à représenter les éléments
aléatoires par des capitales. Nous supposerons que les processus aléatoires µ(t) et σ(t)
sont connus en t : rappelons qu’ils sont de ce fait qualifiés de « processus adaptés ».
L’équation (11-a) s’interprète comme l’équation (6) qui régit le brownien : vue de
l’instant t, l’accroissement dX entre t et t+dt est la somme de son espérance µ(t) dt et
d’un aléa σ(t) dW de variance égale à (σ(t))2 dt.
La variation de X entre 0 et t, somme des variations infinitésimales entre 0 et t, s’écrit :
t t
(11-b) X(t) – X(0) = ∫ µ ( s ) ds + ∫ σ ( s ) dW (s)
0 0
18
La définition de l’équation (11-b), solution de l’EDS (11-a), repose sur celle des deux
intégrales qui en constituent le membre de droite. Ces deux intégrales sont elles-mêmes
des processus stochastiques adaptés ; leur définition, qui sera brièvement présentée dans
le paragraphe 3.3 ci-dessous, requiert que les processus µ(t) et σ(t) satisfassent certaines
conditions techniques (cf 3.3). Si ces conditions sont satisfaites, l'EDS (11-a) admet la
solution (11-b) qui, pour des conditions initiales données, est unique dans les deux sens
équivalents suivants :
- tous les processus obéissant à l'EDS (11-a) et satisfaisant la même condition initiale
ont la même réalisation (même trajectoire) : si deux processus X(t) et Y(t) obéissent à
(11-a) et X(0) = Y(0) alors X(t) = Y(t), p.s.13 et en toute date t ∈(0, T) ;
- A une valeur X(0) et à une trajectoire quelconque du brownien W(t)] t ∈(0, T) correspond
p.s. une seule trajectoire X(t)] t ∈(0, T) donnée par (11-b).
Tout comme les browniens dont ils sont dérivés, les processus d’Itô sont continus
partout et dérivables nulle part. Contrairement aux browniens, les processus d’Itô ne
sont pas nécessairement markoviens (bien que certains le soient), car les coefficients
µ(t) et σ(t) dépendent de façon générale de tout l’historique précédant la date t et, de ce
fait, ne sont pas nécessairement des processus sans mémoire.
La justification des règles (12) est analogue à celle des règles (9) relatives au brownien.
Parmi les processus d’Itô qui constituent une classe vaste de processus continus, nous
allons considérer ceux dont les coefficients de dérive et de diffusion s’expriment
comme des fonctions déterministes du temps et de la valeur courante du processus. En
notant respectivement µ(t, X(t)) et σ(t, X(t)) les valeurs prises par les coefficients de
dérive et de diffusion, un tel processus est donc régi par les équations :
Comme dans le cas plus général des processus d’Itô, les deux intégrales du membre de
droite de (13-b) sont définies et donnent des trajectoires « uniques » si les fonctions µ(t,
X) et σ(t, X), satisfont des conditions techniques (cf. 3.3 infra).
En outre, il faut remarquer que les coefficients µ(t, X(t)) et σ(t, X(t)) suivent des
processus stochastiques, bien qu’ils soient calculés avec des fonctions déterministes
habituelles de R2 dans R appelées µ(.) et σ(.), parce que l’argument X(t) dont ils
dépendent est stochastique.
Tout comme les browniens dont ils sont dérivés et les processus d’Itô dont ils sont un
cas particulier, les processus de diffusion sont continus partout et dérivables nulle
part. A l’instar des browniens, et contrairement à certains processus d’Itô, les
processus de diffusion sont markoviens car les coefficients µ(t, X(t)) et σ(t, X(t)),
donc les accroissements de X après la date t, ne dépendent que du dernier état (t, X(t)).
Dans ce cas X(0), le cours initial, est positif et µ représente l’espérance de rentabilité
instantanée qui est typiquement positive.
A ce stade de l’exposé, nous ne disposons pas encore de l’outil mathématique adéquat
pour résoudre l’EDS régissant le MBG, c'est-à-dire pour exprimer analytiquement X(t) –
X(0). Remarquons simplement que, si X(t) = 0, l’EDS régissant X implique dX = 0 et de
proche en proche X(t’) = 0 pour tout t’ >t . Dès lors, si le processus atteint une valeur
nulle, il demeure « collé » à cette valeur et on dit que le processus possède une « barrière
absorbante » en X = 0. Par ailleurs, si X(0) >0, X(t) étant continu, sa valeur ne peut
« sauter » au-dessous de zéro et X(t) ≥ 0 pour tout t > 0. Nous reprendrons plus avant
l’étude du MBG qui est un processus très utilisé pour représenter l’évolution des cours
boursiers.
* 3.3 L'intégrale stochastique (Ce paragraphe peut être omis en première lecture)
Nous allons donner quelques indications sur la signification des intégrales intervenant
dans les équations (11-b), (13-b), (14-b) et (15-b).
Pour un ω donné µ(ω, s) est une fonction déterministe du temps représentative d’une
trajectoire particulière du processus µ, et Ι1 devient une intégrale standard qui peut être
définie au sens habituel de Riemann, par exemple. Dès lors, pour tout processus µ(s)
t
pour lequel toutes les trajectoires sont intégrables15, I1(ω,t) = ∫ µ (ω , s ) ds
0
peut ainsi être
simplement défini « point par point », c'est-à-dire pour chaque trajectoire (pour chaque
ω).
t
La deuxième intégrale intervenant dans (11-b), I2 ≡ ∫ σ ( s ) dW ( s) , est plus délicate à
0
définir.
t
De façon générale, il s’agit de définir l’intégrale stochastique I ≡ ∫ Y ( s ) dW ( s)
0
où
vers 0).
On peut montrer que les Sm convergent (presque sûrement et/ou en moyenne
quadratique) si le processus Y(t) satisfait certaines conditions17, mais que la limite
dépend de la position assignée à t*k dans l'intervalle [tk-1, tk] .
t
15 On supposera donc que | µ (ω , s ) | ds < ∞ presque sûrement.
∫ 0
16 Sm tend en moyenne quadratique vers I si lim E [(Sm−I )2 ] = 0.
m→∞
22
Ainsi définie, il s’agit de l’intégrale d’Itô qui est la seule utilisée en finance.
t t
Pour résumer, le processus d’Itô, X(t) – X(0) = ∫ µ ( s ) ds + ∫ σ ( s ) dW (s) ,
0 0
avec les
intégrales qu’il implique, peut être défini sans ambiguïté si µ(t) et σ(t) sont deux
processus adaptés satisfaisant des conditions d’intégrabilité portant sur des integrales
non stochastiques et que l’on écrit, le plus souvent :
t t
(CI) E ∫ | µ ( s ) | ds < ∞ et E ∫ σ 2 ( s ) ds < ∞.
0 0
L’intégrale d’Itô possède des propriétés dont nous présentons les plus importantes sous
la forme d’une proposition.
17 Une limite en moyenne quadratique des Sm peut être obtenue si Y(t) est de carré sommable, c'est-à-dire
t t
si : E Y 2 ( s ) ds < ∞. Une limite p.s. peut être obtenue quand ∫ Y 2 ( s ) ds < ∞ p.s. Rappelons que la
∫
0 0
limite p.s. implique la limite en moyenne quadratique mais que l’inverse n’est pas toujours vrai. La
t
condition d’intégrabilité en principe la plus facile à vérifier, est E Y 2 ( s ) ds < ∞. C’est celle qui est e
∫
0
plus souvent retenue.
23
t t
t
(14-d) E ∫ Y ( u ) dW (u ) ∫ Z ( v ) dW (v) / I s = E ∫ Y ( u ) Z ( u ) du / I s
s s s
t
I(t) = I(s) + ∫ Y ( v ) dW (v) , et donc, d’après (14-a) : E [I(t) / I(s) ] = I(s).
s
- Justification de (14-c) :
t
2
t t
2
E ∫ Y ( u ) dW (u ) / I s = var ∫ Y ( u ) dW (u ) / I s + E ∫ Y ( u ) dW (u ) / I s
s
s s
t
= var ∫ Y ( u ) dW (u ) / I s en vertu de (14-a) ;
s
t t t
Par ailleurs var ∫ Y ( u ) dW (u ) / I s = ∫ var (Y ( u ) dW (u ) / I s ) = ∫ E (Y 2 ( u ) / I s ) du
s s s
(on utilise le fait que l’intégrale est la « somme » de variables indépendantes Y(u)dW(u))
- La justification de (14-d) est analogue à celle de (14-c).
Rappelons que, dans le cas d’une fonction différentiable ordinaire f(t, X) de deux
∂f ∂f
variables t et X déterministes, la différentielle de f s’écrit : df = dt + dX .
∂t ∂X
Cette règle « standard » n’est pas valide quand X est un processus stochastique. Nous
allons donc étudier la règle de différentiation qui s’applique quand X est un processus
d’Itô ou une diffusion. On commence par le cas d’un processus X unidimensionnel
avant de traiter celui d’un processus X vectoriel.
∂f ∂f 1 ∂2 f
() + () + 2 ( )(
. dX ) ;
2
(15-a) df = . dt . dX
∂t ∂x 2 ∂x
qui implique :
∂f 1 ∂2 f ∂f
(15-b) df = ( .) + 2 ( )
. σ 2 (t ) dt + (.) dX ;
∂t 2 ∂x ∂x
qui implique :
∂f ∂f 1 ∂2 f ∂f
(15-c) df = (.) + (.) µ (t ) + 2 ( )
. σ 2 (t ) dt + (.) σ (t )dW
∂t ∂x 2 ∂x ∂x
0
∂s ∂x 2 ∂x 0
∂x
(15-a) conduit directement à (15-b) car (dX)2 = σ2(t) dt en vertu de la règle de calcul 9-
a. (15-b) conduit directement à (15-c) car dX = µ(t) dt + σ(t) dW .
Le MBG a été souvent utilisé pour représenter les variations du cours des actions. La
Log-normalité du cours est compatible avec une importante propriété de celui-ci : la
valeur d'une action ne peut être négative (responsabilité limitée des actionnaires). Cette
propriété n'est pas respectée par d'autres lois de distribution, notamment la loi Normale.
b) Le processus d'Orstein-Uhlenbeck
Rappelons que ce processus de diffusion, utilisé parfois pour représenter l'évolution du
taux d'intérêt à court terme, suit une EDS qui s'écrit :
aµ+0,5aσ2)
18 Rappelons que si X a une distribution normale N(µ, σ2), alors : E(eaX)) = e( .
28
t
Y(t) − Y(s) = [X(t) − b]eat − [X(s) − b]eas = σ ∫ e au dW (u )
s
soit :
t
X(t) = e-a(t-s) [X(s) − b] + b + σ e-at ∫ e au dW (u )
s
En tant que « somme » des variables normales eaudW(u), X(t) est une variable normale.
En notant xs la réalisation en s de X(s), on peut calculer les deux premiers moments qui
caractérisent entièrement sa distribution, puisqu’elle est normale :
E [X(t)/ X(s) = xs] = e-a(t-s) [xs − b] + b ≡ φ (xs,(t-s))
t
2
Var[X(t)/ X(s) = xs] = σ e -2at
∫e
2 au
du =σ2(1− e-2a(t-s))/2a ≡ ψ(t-s).
s
Nous avons présenté en 2.3 les browniens multivariés et nous conservons les notations
qui y ont été introduites pour décrire les processus d’Itô multivariés. Par ailleurs, nous
allons étendre au cas multidimensionnel les définitions et les résultats obtenus aux
paragraphes 3. et 4. concernant les processus d’Itô et les diffusions unidimensionnels.
5.2 Lemme d’Itô (différentiation d'une fonction d’un processus d’Itô n-dimensionnel)
∂f n
∂f n n
1 ∂2 f
(20) df = (.)dt + ∑ (.)dX i + ∑∑ (.)dX i dX j
∂t i =1 ∂xi i =1 j =1 2 ∂xi ∂x j
Ce qui implique :
∂f 1 n n ∂2 f n
∂f n m
∂f
(21) df = (.) + ∑∑ υij (.) + ∑ µi (.) (.)dt + ∑∑ (.)σ ij (.)dW j
∂t 2 i =1 j =1 ∂xi ∂x j i =1 ∂xi i =1 j =1 ∂xi
n
Σ soit υij = ∑ σ ikσ jk .
υ ij dénotant l’élément général de la matrice Σ Σ’,
k =1
Sous sa forme « intégrale », (21) s’écrit :
t
∂f 1 n n ∂f 2 n
∂f
(22) f (t , X (t ) ) − f (s, X (s )) = ∫ (.) + ∑∑ υ (.) + ∑ µi (.) (.) du
∂u 2 i j ∂xi ∂x j
ij
∂xi
s i
m t n
∂f
+ ∑∫ ∑ (.)σ ij (.)dW j
j =1 s i =1 ∂xi
b) L’opérateur de Dynkin
L’écriture des équations différentielles stochastiques et du lemme d’Itô se simplifie
grandement en ayant recours à l’opérateur de Dynkin (ou plus simplement le Dynkin).
Pour simplifier, notons E (.) l’espérance conditionnelle E( . / It) et considérons
t
∂f ∂f 1 2 ∂2 f
(23-a) E df = (.) + µ (.) (.) + σ (.) 2 (.) dt
t
∂t ∂x 2 ∂x
∂f n
∂f 1 n n ∂2 f
(23-b) E df = (.) + ∑ µi (.) (.) + ∑∑υij (.) (.) dt
t
∂t i =1 ∂xi 2 i =1 j =1 ∂xi ∂x j
31
E df ∂f n
∂f 1 n n ∂2
(24) t
≡D f = t
(.) + ∑ µi (.) (.) + ∑∑ υij (.)
dt ∂t i =1 ∂xi 2 i =1 j =1 ∂xi ∂x j
n m
∂f
df = D t f dt + ∑∑ (.)σ ij (.)dW j
i =1 j =1 ∂xi
t
n ∂f
m t
f (t , X (t )) − f (s, X (s )) = ∫ D f du + ∑ ∫ ∑
u
(.)σ ij (.)dW j
s j =1 s i =1 ∂xi
t u
E { f (t , X (t )) / X ( s ) = x} = f ( s, x ) + E ∫ D f du .
s
s s
Nous allons maintenant examiner brièvement le deuxième type de processus dont les
trajectoires sont caractérisées par des discontinuités à occurrence aléatoire.
Ces processus, ont donné lieu à différentes applications en Finance, notamment dans le
domaine du risque de crédit. Le lecteur trouvera une étude plus approfondie de ces
processus dans le chapitre 29, relatif au risque de crédit.
infinitésimaux sont possibles dans des intervalles de temps infiniment petits17, les
processus à sauts, souvent représentés à l’aide d’un processus de Poisson, sont
caractérisés par des changements discrets ayant lieu à des instants aléatoires.
Pendant un intervalle de temps donné, la valeur de X(t) soit reste stable, soit subit une
modification finie et discrète ; dans le cas d’un processus de Poisson, la probabilité
d'occurrence d'un tel saut est proportionnelle à la durée de l'intervalle.
Dans un intervalle de temps de durée dt le processus à sauts X(t) subira donc une
modification finie avec une probabilité infinitésimale alors que le processus continu
subit dans ce même intervalle de durée dt une modification presque certaine mais
infinitésimale.
o(∆t )
o(∆t) dénote, comme d'habitude, un élément tel que lim = 0 et λ est une
∆t →0 ∆t
constante positive qui représente le nombre moyen d'occurrences par unité de temps.
. Propriété 2 - Les événements ayant lieu dans deux intervalles de temps disjoints sont
indépendants.
Remarquons qu'une très grande latitude est permise quant à la définition de l'événement
auquel le processus de Poisson se réfère ; il s'agira par exemple de l'arrivée de revenus à
des instants aléatoires, d'un accident qui affecte la valeur d'un actif (faillite, incendie,
...), d'une dévaluation, etc… Dans le contexte de la finance, le plus souvent cet
évènement provoque une discontinuité (un saut) dans un revenu ou un patrimoine.
De manière assez générale, on peut considérer, en temps continu, un processus X(t) dont
la variation connaît une progression continue ainsi que des « sauts discrets » d'amplitude
J(t, X(t)). L'EDS régissant ce processus unidimensionnel X s'écrit alors :
Rappelons que dN peut prendre deux valeurs : 1 avec une probabilité λdt, en cas de
discontinuité (saut) entre t et t+dt ; zéro avec une probabilité 1 − λdt.
df ∂f ∂f
E ≡D f =
t
+ µ (t , X ) + E [λ( f(t, X + J(t, X)) − f(t, X)/ It ]
dt ∂t ∂x
Cette dernière relation est l'homologue de celle qui définit le Dynkin dans le cas de
processus continus.
Pour terminer, notons que la généralisation au cas des processus multidimensionnels
s'opère ici de la même façon que pour les processus de diffusion.