You are on page 1of 53

COURS DE PROBABILITE

2i`eme annee deconomie et de gestion,


semestre 2
Laurence GRAMMONT
Laurence.Grammont@univ-st-etienne.fr
April 2, 2004

Contents
1 Lois discr`
etes usuelles
1.1 Introduction . . . . . . . . . . .
1.2 Schema de Bernoulli . . . . . .
1.3 Schema Binomial . . . . . . . .
1.4 Schema hypergeometrique . . .
1.5 Loi geometrique et loi de Pascal
1.6 Loi de Poisson . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

2 Couple de variables al
eatoires discr`
etes
2.1 Generalites . . . . . . . . . . . . . . . . .
2.1.1 Loi de probabilite conjointe
Lois de probabilite marginales . . .
2.2 Fonction de repartition dun couple
Fonctions de repartition marginales . . . .
2.3 Loi de probabilite conditionnelle
Esperance conditionnelle . . . . . . . . . .
2.3.1 Correlation lineaire . . . . . . . . .
2.4 Independance stochastique . . . . . . . . .
2.5 Equation danalyse de la variance . . . . .
2.6 Fonction de 2 variables aleatoires discr`etes
2.6.1 Esperance-Variance . . . . . . . . .
2.6.2 Calcul de la covariance . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

5
5
6
7
10
12
15

19
. . . . . . . . . . . 19
. . . . . . . . . . . 20
. . . . . . . . . . . 21
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

22
23
23
25
26
26
26

3 Couple de variables al
eatoires
continues
29
3.1 Fonction de repartition du couple (X, Y )
Fonction de repartition marginale . . . . . . . . . . . . . . . . 29
3

CONTENTS
3.2
3.3

Fonction densite conjointe


Fonctions densite marginales . . . . . . . .
Variables conditionnelles . . . . . . . . . .
3.3.1 Independance en probabilite
covariance-coefficient de correlation
3.3.2 Fonction de 2 variables aleatoires .

. . . . . . . . . . . 30
. . . . . . . . . . . 34
. . . . . . . . . . . 36
. . . . . . . . . . . 38

4 Loi Normale ou loi de Laplace - Gauss - G


en
eralit
es
4.1 Definition mathematique . . . . . . . . . . . . . . . . .
4.2 Calculs de probabilite . . . . . . . . . . . . . . . . . . .
4.2.1 Calculs `a partir de N (0, 1) : U . . . . . . . . . .
4.2.2 Loi Normale qq N (, ) . . . . . . . . . . . . .
5 Condition dapplication de la loi normale
5.1 Convergence des variables aleatoires . . . .
5.1.1 Convergence en loi . . . . . . . . .
5.1.2 Convergence en probabilite . . . . .
5.2 Loi faible des grands nombres . . . . . . .
5.3 Theor`eme central-limit . . . . . . . . . . .
5.4 Approximation dune loi B(n, p) . . . . . .
5.5 Approximation dune loi de Poisson . . . .
5.6 Exercices . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.

39
39
41
41
43

.
.
.
.
.
.
.
.

47
47
47
48
49
50
50
52
52

Chapter 1
Lois discr`
etes usuelles
1.1

Introduction

On a un phenom`ene aleatoire que lon veut comprendre. Ce phenom`ene


aleatoire est a priori complexe et on ne peut calculer directement les probabilites de ses eventualites.
ex : comprendre la depense annuelle des menages francais pour les loisirs.
Par exemple, calculer la probabilite quils depensent 5 000 F par an. On
dispose
dune population pour laquelle le mod`ele est destine,
dun individu et
dun caract`ere etudie (represente par une variable aleatoire X).

Que fait-on ?
1 - Pour avoir une premi`ere idee du phenom`ene represente par une variable aleatoire X, on peut faire plusieurs observations de X.
ex : X = depense annuelle pour les loisirs dun menage (variable aleatoire
attachee `a un individu). On demande `a un certain nombre de menages ses
depenses annuelles en loisirs. On a donc la valeur de Xi . Xi etant la depense
annuelle pour le menage i.
Cette suite dobservation debouche sur la definition dune variable statistique
5

`
CHAPTER 1. LOIS DISCRETES
USUELLES

x souvent decrite de la mani`ere suivante :


valeurs de x
xi

frequences
ni

On etudie cette variable statistique `a laide des techniques des statistiques


descriptives (1ere annee)
2 - Il y a quelques lois de probabilite ou lois theoriques qui decrivent assez bien un grand nombre de phenom`enes aleatoires. On veut representer le
phenom`ene aleatoire par une loi de probabilite theorique. Cette modelisation
est evidemment plus riche que la representation par une variable statistique
: ici on peut calculer la probabilite de tout evenementassocie au phenom`ene
aleatoire. Dans ce chapitre, nous allons fournir un catalogue de lois de probabilite discr`etes (description, etude) souvent utiles en pratique.
Le statisticien plus chevrone construira ses propres mod`eles theoriques.
3 - Apr`es le choix dun mod`ele theorique se pose la question suivante : peut-on
quantifier lapproximation du phenom`ene aleatoire par le mod`ele theorique.

1.2

Sch
ema de Bernoulli

Toute epreuve nayant que 2 resultats possibles peut-etre consideree comme


une situation dalternative.
En dautres termes, les 2 resultats possibles sont complementaires lun de
lautre.
Il sagit dune situation frequente dans la pratique d`es que lon cherche `a
mettre en evidence un caract`ere particulier au sein dune population :
tout individu de cette population peut etre decrit selon une alternative : soit
il presente ce caract`ere, soit il ne le presente pas.
Exemple : Etude de limpact dune campagne publicitaire pour un nouveau
produit.
Q1 : Est-ce que lindividu possedait ce produit auparavant ?
Q2 : Lindividu a-t-il ete touche par la campagne ?
Q3 : La campagne a-t-elle induit lachat ?


1.3. SCHEMA
BINOMIAL

Souvent les resultats possibles sont des objets qualitatifs. Pour les quantifier, il faut leur trouver un codage.
On definit ainsi une v.a. X dites de Bernoulli (savant suisse 1654-1705) par
0
1
1p p
D
efinition
On realise une experience aleatoire qui a 2 resultats possibles : le succ`es S, de probabilite. p,
et lEchec
E de probabilite 1 p. La v.a

1 si succ`es est une v.a. de Bernoulli
X:
0 si echec

Mode
p>q
p<q

M ode = 1
M ode = 0

M
ediane
p > q q < 1/2 Me = 1
p < q q > 1/2 Me = 0

Propri
et
e
E(X) = p
V (X) = p(1 p)
Remarque :
La v.a. de Bernoulli est une v.a. indicatrice : elle indique la realisation
eventuelle de levenementde probabilite p. Le shema de Bernoulli est le plus
simple des mod`eles probabilistes.

1.3

Sch
ema Binomial

Cest une succession depreuves de Bernoulli (n) independantes.


D
efinition :

`
CHAPTER 1. LOIS DISCRETES
USUELLES

On realise n fois successivement et dune mani`ere independante une experience aleatoire


qui a 2 resultats possibles, S (succ`es) de probabilite p et E (echec) de probabilite 1 p
X = nombre de succ`es obtenus est une v.a. binomiale de param`etre n et p.
Notation B(n, p).
Remarque :
On peut egalement la definir comme une somme de v.a. de Bernoulli.
A chaque epreuve i, on associe la v.a. de Bernoulli Xi
X=

n
X

Xi .

i=1

X B(n, p)
Loi de probabilit
e
X() = {0, . . . , n}
P (X = k) = Cnk pk (1 p)nk
k X()
n : nb depreuves,
k : nb de S (succ`es),
p : probabilite du succ`es.
Propri
et
es

E(X) = np

V (X) = np(1 p)
Propri
et
e
SiX1 B(n1 , p) et X2 B(n2 , p)
avecX1 , X2 independantes, alors
X1 + X2 B(n1 + n2 , p)
Preuve : somme de v.a Benouilli.
Il y a des tables pour eviter de calculer les probabilites d evenements lies `a
la loi binomiale. On peut egalement, dans certains cas, approximer B(n, p)
par une autre loi.
Exercice :
Une machine `a embouteiller peut tomber en panne. La probabilite dune
panne `a chaque emploi est de 0,01. La machine doit etre utilisee 100 fois.


1.3. SCHEMA
BINOMIAL

Soit X= nb de pannes obtenues apr`es 100 utilisations.


1) Quelle est la loi de X ?
Calculer P (X = 0) ; P (X = 1) ; P (X 4).
2) On estime le co
ut dune reparation `
a 500 F.
Y : depense pour les reparations apr`es 100 utilisations.
Exprimer Y en fonction de X et calculer E(Y ) V (Y ).
Solution :
0
1) X B(100, 0, 01) ; P (X = 0) = C100
(0, 01)0 0, 99100 = 0, 366
1
P (X = 1) = C100
0, 01 0, 9999 = 100 0, 01 0, 9999 = 0, 377
P (X 4) = 1 (. . .) = 0, 061
2) Y = 500X
E(Y ) = 500 E(X) = 500 100 0, 01 = 500
V (Y ) = 5002 V (X) = 5002 0, 99 = 247500
Exercice :
Dans une pepini`ere 95% des scions (jeunes arbres greffes) sont supposes sans
virus. Par commodite les scions sont ranges par paquets de 2. Un paquet est
dit sain si les 2 scions le sont.
1) Proba davoir un paquet sain ?
2) X = nb de paquets sains sur un lot de 10
Quelle est la loi de X ?
3) Un lot de 10 est accepte par lacheteur si 9 au moins des paquets sont
sains. Proba quun lot soit accepte ?
Solution :
1) p = 0, 95 0, 95 = 0, 9025
2) X B(10, p)
3) P (X 9) = P (X = 9) + P (X = 10)
= 0, 7361
Remarque
Le schema binomial correspond au processus de tirage dun echantillon aleatoire
avec remise :
N1 : nb dindividus ayant la propriete S
N2 : nb dindividus nayant pas la propriete S
N = N1 + N2 : nb total dindividus
On fait n tirages avec remise
Soit X = nb dindividus ayant la propriete S

`
CHAPTER 1. LOIS DISCRETES
USUELLES

10
X B(n, p) avec p =

N1
N

Propri
et
e
Calcul en chaine des probalites de la loi binomiale.
Si X B(n, p) alors
(n k + 1)p
P (X = k 1)
k(1 p)
P (X = k)
nk+1 p
=
P (X = k 1)
k
1p

P (X = k) =
Preuve :

1.4

Sch
ema hyperg
eom
etrique

Exemple : En pratique lorsque lon tire un echantillon de taille n parmi une


population de taille N , le bon sens veut que lon ne prenne pas 2 fois le
meme individu. Cela signifie que le tirage se fait sans remise. Les v.a de
Bernoulli associees aux differents elements de lechantillon et indicatrices de
la presence ou absence dun caract`ere donne, sont alors dependantes. Le
schema binomiale nest plus adapte.
Le schema hypergeometrique est une succession depreuves de Bernoulli non
independantes.
D
efinitionSi dans une population de taille N ,on a 2 types de populations
N1
N1 individus type 1 en proportion p =
et
N
N2 individus type 2 : N2
On fait n tirages sans remise dans la population et la v.a
X = nb individus de type 1 dans lechantillon
X obeit au schema hypergeometrique H(N, n, p)
X
X=
Xi , avec Xi des v.a de Bernoulli non independantes.
i

Loi de probabilit
e

1.4. SCHEMA
HYPERGEOM
ETRIQUE

11

Si X H(N, n, p), alors



Les valeurs de X sont les entiers compris entre 0 et n si
P (X = k) =

CNk 1 CNnk
2
CNn

n < N2
et
n < N1

(denombrement classique)

Propri
et
es
E(X) = np
V (X) = np(1 p)

N n
N 1

Th
eor`
eme :
Quand N + avec n, p fixes, alors
la loi hypergeometrique H(N, n, p) tend vers la loi binomiale B(n, p).
Que signifie une loi qui tend vers une autre loi ?
dapplication)
Dans la pratique, on utilise lapproximation d`es que

(cf chap.

condition

n
< 0, 1
N

preuve :
n!(N n)!
(N p)!(N q)!
k!(N p k)!(n k)!(N q n + k)!
N!
n!
(N p)k (N q)nk n!

pk q nk
= Cnk pk q nk
k!(n k)!N n
k!(n k)!

P (X = k) =

Exemple 1
A un guichet SNCF se presentent 2 femmes et 3 hommes. On choisit au
hasard 2 personnes 6= pour une enquete.
Soit X = nb de femmes.
a) Probabilite de choisir une femme au moins.
b) Calculer E(X) et (X).

2
a) X H 5, 2,
5
C 1C 1 C 2C 0
7
P (X 1) = P (X = 1) + P (X = 2) = 2 2 3 + 2 2 3 =
= 0, 7
C5
C5
10
3
4
b) E(X) = np = 2 = = 0, 8
5
5

`
CHAPTER 1. LOIS DISCRETES
USUELLES

12
V (X) = npq

N n
2 3 3
9
=2 =
= 0, 36
N 1
5 5 4
25

(X) = 0, 6
Exemple 2
On choisit au hasard 10 etudiants de DEUG 6= pour un entretien : 304
etudiants sont inscrits en 1`ere annee, 233 en 2`eme .
X = nb detudiants de 1`ere annee parmi les 10.
Calculer la probabilite davoir 5 etudiants de 1`ere annee et determiner E(X)
et (X).
304
X H(537, 10,
)
537
5
5
C C
P (X = 5) = 30410 233 ' 0, 227
C537
Mais on peut utiliser lapproximation




n
10
304
304
Comme
=
< 0, 1, on peut approximer H 537, 10,
par B 10,
N
537
537
537

5 
5
304
233
5
P (X = 5) = C10
' 0, 225.
537
537
304
E(X) = np = 10
= 5, 661
537
N n
304 233 527
V (X) = npq
= 10

' 2, 415
N 1
537 537 536
(X) = 1, 554

avec lapproximation (X) = npq = 1, 567.

1.5

Loi g
eom
etrique et loi de Pascal

On se place dans une optique differente.


A la base, il y a toujours lepreuve de Bernoulli qui a 2 resultats possibles :
un evenementde probabilite p et lautre. Mais cette fois, on ne connait pas
le nombre depreuves.

D
efinition
X suit la loi geometrique de param`etre p, G(p), si elle est egale au nombre depreuves de
Bernoulli independantes quil faut realiser pour obtenir pour la 1`ere fois levenementde
probabilite p.

1.5. LOI GEOM


ETRIQUE
ET LOI DE PASCAL

13

Loi de probabilit
e

X() = N
, (lensemble des valeurs est denombrable)
P (X = k) = q k1 p

k N

fonction de r
epartition
n
n1
X
X
1 qn
k1
P (X n) =
q p=p
qk = p
= 1 qn
1

q
K=0
k=1
FX (n) = 1 q n
caract
eristiques
1
p
1p
V (X) =
p2
E(X) =

La loi de Pascal est la generalisation de la loi geometrique lorsque lon


sinteresse `a lobtention pour la k i`eme fois de levenementde probabilite p
D
efinition
X suit la loi de Pascal G(k, p), si elle est egale au nombre depreuves de Bernoulli
independantes quil faut realiser pour obtenir pour la k`em fois levenementde
probabilite p.
Loi de probabilit
e
X() = {k, . . . , }
k1 k1 jk
P (X = j) = Cj1
p q p
jk
Caract
eristiques
k
p
k(1 p)
V (X) =
p2
E(X) =

Remarque : la ressemblance avec la loi binomiale nest quapparente. La


grande difference est que le nombre de repetitions de lepreuve elementaire
de Bernoulli nest pas connu, et cest lui qui represente laleatoire du probl`eme

`
CHAPTER 1. LOIS DISCRETES
USUELLES

14
!

Application
Ces 2 lois interviennent particuli`erement en controle de qualite mais aussi
dans la surveillance des evenements dont une certaine frequence de survenue
est interpretee en terme de signal dalarme.
Remarque de modelisation
La probabilite de levenement qui nous interesse est toujours p, elle est
constante au cours du temps. Cette propriete de stationnarite nest pas
systematique dans les situations reelles que lon doit modeliser.
Exemple
Supposons que 5 % des pi`eces en sortie dune chaine de production soient
defectueuses. On souhaite connaitre la probabilite quun echantillon de 20
pi`eces issu de cette chaine ne contienne aucune pi`ece defectueuse.
On peut traiter cet exemple en utilisant soit la loi Binomiale,

soit la loi geometrique.


- chaque pi`ece est indentifiee par un caract`ere `a 2 modalites :
defectueuse
non defectueuse
La modelisation de base est donc le schema de Bernoulli avec p = 0, 05. On
peut faire lhypoth`ese de lindependance des epreuves de Bernoulli (grande
taille de la population). Soit la v.a X = nb de defectueux apr`es la realisation
de 20 epreuves de Bernoulli. On a
X B(20, 0, 05)
P (X = 0) = 0, 9520 = 0, 3585.
- On garde la modelisation des pi`eces par les aleas de Bernoulli. On fait
lhypoth`ese dindependance (gd nb de pi`eces). Mais le nombre de pi`eces
nest plus donne : cest un alea.
Soit la v.a Y = nombre de pi`eces observees jusqu`a lobtention dune pi`ece
defectueuse.
Y G(0, 05)

1.6. LOI DE POISSON


P (Y 21) =

1 0, 95
0, 05
1 0, 95
0, 05
= 0, 9520
= 0, 3585
0, 05

0, 95k1 0, 05 = 0, 9520

k=21

1.6

15

Loi de Poisson

Simeon-Denis Poisson(1781-1840)est un probabiliste, mathematicien et physicien francais `a qui lon doit dimportants developpements sur la loi des grands
nombres, les suites depreuves de Bernoulli mais aussi sur les applications des
probabilites dans le domaine du droit.

d
efinition
X est une v.a. de Poisson de param`etre m si et seulement si
X() = N et
mk m
e
P (X = k) =
k!
Notation : P(m)
On est dans la situation X() infini denombrable.
On peut maintenant poser la loi de Poisson comme mod`ele dune epreuve
aleatoire :
Th
eor`
eme dapproximation
Soit X B(n, p)
quand n + etp 0 tq np m,
L
alors X P(m)
Modelisation
Lorsquun evenement a une faible probabilite p dapparition lors dune epreuve
de Bernoulli et si lon rep`ete un grand nombre de fois cette epreuve (n) le
nombre total de realisations de levenement considere suit `a peu pr`es une loi
de Poisson de param`etre m = np.
Dans la pratique :

n > 50
p < 0, 1

`
CHAPTER 1. LOIS DISCRETES
USUELLES

16

Rmq : plus p est petit, meilleure est lapproximation. Pour cette raison
la loi de Poisson a ete appelee loi des phenom`enes rares.
Les processus de Poisson sont frequents dans les probl`emes de gestion :
- nb de pi`eces defectueuses dans un echantillon de grande taille preleve dans
une production o`
u la proportion des defectueuses est faible.
- nb de quadruples, quintuples par an dans un pays donne.
- nb dappels intercontinentaux sur une ligne pendant une duree donnee.
- nb derreurs commises au cours dune longue suite doperations (inventaire).
- pannes de machine.
- emission de particules radio-actives.
caract
eristiques Si X P(m),
alors

E(X) = m
V (X) = m

Il faut savoir que

X mk
k0

k!

= em

X mk1
mk m
E(X) =
k
e = em m
=m
k!
(k

1)!
k0
k1
k
X
X
X mk
m
mk
V (X) =
k2
em m2 =
k(k 1) em +
k
em m2
k!
k!
k!
K1
k0
k1
X mk2
X mk1
= m2
em + m
em m2
(k 2)!
(k 1)!
k2
k1
X

=m
Propri
et
e : somme de v.a de Poisson
Si X1 et X2 sont 2 variables de Poisson P(m1 ), P(m2 ) independantes alors
X1 + X2 P(m1 + m2 )
(ceci est vrai pour une somme finie quelconque de v.a de Poisson independantes)
Preuve :

1.6. LOI DE POISSON

17
"

P (Y = k) = P (X1 + X2 = k) = P

k
[

#
{X1 = i} {X2 = k i}

i=0

=
=

k
X
i=0
K
X
i=0

K
X
i=0

P (X1 = i).P (X2 = k i)


mi1 m1 mki
2
e
em2
i!
(k i)!
Cki mi1 mki
2

e(m1 +m2 )
k!

(m1 + m2 )k (m1 +m2 )


=
e
k!

.

Propri
et
e
Si X P(m)
m
P (X = k)
=
P (X = k 1)
k
Cons
equence statistique
On peut envisager une loi de Poisson comme mod`ele representatif de donnees statistiques
discr`etes pour lesquelles la variable ne prend que des valeurs enti`eres, positives ou nulles et pour lesquelles
- la moyenne ' la variance et
fk
1
est proportionnel `a
fk etant les frequences.
fk1
k
Exemple 1
Lors dun sondage portant sur un grand nombre de personnes, on sait que 2%
des personnes interrogees acceptent de ne pas rester anonymes. Sachant que
lun des sondeurs a interroge 250 personnes (en les choisissant de mani`ere
independante), calculer la probabilite
a) que ces 250 personnes souhaitent rester anonymes
b) 3 personnes acceptent de ne pas rester anonymes
c) plus de 10 personnes acceptent de ne pas rester anonymes
X = nb de personnes ne souhaitant pas rester anonymes.
X B(250, 0, 02) h P(5).
0
P (X = 0) = e5 50! = e5 = 0, 0067,

`
CHAPTER 1. LOIS DISCRETES
USUELLES

18
3

P (X = 3) = e5 53! = 0, 14,
P (X 10) = 1 P (X < 10) = 1 P (X 9).
Exemple 2
Dans un hopital parisien, il arrive en moyenne 1,25 personnes `
a la minute
aux urgences entre 9 h et 12 h.
X : nb de personnes observees `
a la minute `
a lentree de ce service.
On admet X P(m) avec m = 1, 25
Determiner les probabilites suivantes
a) En 1mn il arrive 2 personnes b) 4 personnes au plus c) 3 personnes au
moins.
a) P (X = 2) = 0, 2238
b) P (X 4) = 0, 9909
c) P (X 3) = 1 P (X 2)
= 1 0, 8685
= 0, 1315.

Chapter 2
Couple de variables al
eatoires
discr`
etes
2.1

G
en
eralit
es

On se consacre `a letude simultanee de 2 variables aleatoires X, Y discr`etes.


(X, Y ) est appele couple aleatoire ou variable aleatoire `a 2 dimensions ou
vecteur aleatoire de dimension 2.
Exemples :
Experience aleatoire : choisir un individu dans une population P,
X : taille dun individu, Y : poids dun individu.
Experience aleatoire : 2 jets successifs dun de,
X = nb de points du 1er jet,
Y = somme des points.
Soient X, Y deux v.a. discr`etes. Dans la suite, on utilisera les notations
suivantes:
X() = {x1 , . . . , xn }
Y () = {y1 , . . . , yp }
19


`
20 CHAPTER 2. COUPLE DE VARIABLES ALEATOIRES
DISCRETES

2.1.1

Loi de probabilit
e conjointe
Lois de probabilit
e marginales

D
efinition
La loi de probabilite conjointe de X et Y ou loi du couple (X, Y ) est definie par
1) les valeurs de (X, Y )
{(xi , yi ) i {1, . . . , n} j {1, . . . , p}}
2) les probabilites correspondantes
pij = P ((X, Y ) = (xi , yi ))
= P (X = xi , Y = yj )
= P ((X = xi ) (Y = yj ))
Presentation : dans un tableau :
valeurs de Y

y1

y2

...

yp

x1
x2
..
.

p11 p12
p21 p22

+ p1p
p2p

xn

pn1 pn2

valeurs de X

pnp

Question 1 :
Si on a la loi de probabilite du couple (X, Y ), peut-on en deduire la loi de
probabilite de X et la loi de probabilite de Y ?
reponse : oui mais linverse nest pas vrai.

D
efinition
Si on donne la loi du couple (X, Y ), la loi de probabilite de X et celle de Y sont appelees
lois de probabilite marginales.
Propri
et
e
pour X : P (X = xi ) =

p
X

pij

(somme dune ligne du tableau)

pij

(somme dune colonne)

j=1

pour Y : P (Y = yj ) =

n
X
i=1

preuve : TVA

2.2. FONCTION DE REPARTITION


DUN COUPLEFONCTIONS DE REPARTITION
MARGIN
Notations
pi = P (X = xi ) =

p
X

pij

j=1

pj = P (Y = yj ) =

n
X

pij

i=1

Propriete
p
n X
X

pij = 1

i=1 j=1

2.2

Fonction de r
epartition dun couple
Fonctions de r
epartition marginales

D
efinition
La fonction de repartition du couple (X, Y ) est definie par
FX,Y (x, y) = P [(X x) (Y y)]
Propriete
X

i tq

xi x

yj y

F(X,Y ) (x, y) =

pij

tq

Question 2 : Si on a F(X,Y ) (x, y) peut-on en deduire FX (x) et FY (y) les


fonctions de repartition marginales.
reponse : oui
FX (x) = lim F(X,Y ) (x, y)
y+

FY (y) = lim F(X,Y ) (x, y)


x+


`
22 CHAPTER 2. COUPLE DE VARIABLES ALEATOIRES
DISCRETES

2.3

Loi de probabilit
e conditionnelle
Esp
erance conditionnelle

D
efinition
On appelle variable aleatoire conditionnelle X sachant Y = yj , notee X|Y = yj
la v.a. discr`ete de valeurs {xi , i = 1, . . . , n}
et dont les probabilites sont
P (X = xi |Y = yj ) =

pij
pj

Propri
et
es
n
X

P (X = xi |Y = yj ) = 1

yj

P (Y = yj |X = xi ) = 1

xi

i=1

p
X
j=1

D
efinition
On appelle esperance conditionnelle de X sachant Y = yj la quantite
E(X|Y = yj ) =

n
X

xi P (X = xi |Y = yj ).

i=1

Th
eor`
eme de lesp
erance conditionnelle
p
X
E(X) =
E(X|Y = yj )P (Y = yj )
j=1
p

preuve :

X
j=1

E(X|Y = yj ) P (Y = yj ) =

p
n
X
X
j=1 i=1

X X
pij
pj =
xi
pij
xi
pj
i=1
j=1
n
X
=
pi xi = E(X)
i=1


2.4. INDEPENDANCE
STOCHASTIQUE

2.3.1

23

Corr
elation lin
eaire

D
efinition
On appelle covariance du couple (X, Y ) la quantite
cov(X, Y ) = E(XY ) E(X)E(Y )
On appelle correlation lineaire entre X et Y
cov(X, Y )
(X, Y ) = p
V (X)V (Y )
Propri
et
es
1 (X, Y ) 1
(1)
V (X + Y ) = V (X) + V (Y ) + 2cov(X, Y ) (2)
cov(a X, Y ) = a cov(X, Y )
(3)

2.4

Ind
ependance stochastique

D
efinition
2 v.a.d. X et Y sont independantes en probabilite (ou stochastiquement) si lune de ces
proprietes equivalentes est verifiee (si elle a un sens) :
(i)

i {1, . . . , n}
j {1, . . . , p}

P (X = xi |Y = yi ) = P (X = xi ).

(ii) i, j

P (Y = yj |X = xi ) = P (Y = yj ).

(iii) i, j

P (X = xi Y = yj ) = P (X = xi ) P (Y = yj ).

Propri
et
es
(1) Si X et Y sont independantes en probabilite alors (X, Y ) = 0
(2) Si (X, Y ) 6= 0 alors X et Y ne sont pas independantes en probabilite
(3) Si (X, Y ) = 0 alors X et Y ne sont pas forcement independantes en probabilite.
Exemple
Une urne contient b boules blanches (B) et r boules rouges (R).
On tire une boule au hasard
B0
Soit X :
R1
Si la boule tiree est B on la remet accompagnee de n autres boules blanches.


`
24 CHAPTER 2. COUPLE DE VARIABLES ALEATOIRES
DISCRETES
Si elle est R, on la remet avec n autres rouges.
On tire alors une boule.
B0
Soit Y :
R1
a) Donner la loi de probabilite de (X, Y ).
b) Lois marginales.
c) independance stochastique ?
solution
X prend les valeurs 0 et 1 et
Y prend les valeurs 0 et 1. On a
P (X = 0 ; Y = 0) = P (X = 0 Y = 0)
= P (Y = 0|X = 0) P (X = 0)

la v.a. Y est conditionnee `a la valeur de X


P (X = 0) = P (B) =

b
b+r

P (Y = 0|X = 0) = proba de tirer une blanche sachant quon a tire une B au 1er tirage
= proba de tirer une blanche dans une urne qui comprend r rouges et
b + n blanches
b+n
=
.
b+r+n
b
b+n
b+r b+r+n
P (X = 1 Y = 1) = P (Y = 1|X = 1) P (X = 1)
r+n
r
.
=
b+r+n b+r
X\Y
0
1
Loi de X
b(b + n)
rb
b
0
(b + r)(b + r + n) (b + r)(b + r + n)
b+r
br
(r + n)r
r
1
(b + r)(b + r + n) (b + r)(b + r + n)
b+r
b
r
Loi de Y
1
b+r
b+r
Si X et Y etaient independantes on aurait par exemple

P (X = 0, Y = 0) =

2.5. EQUATION DANALYSE DE LA VARIANCE

b+n

2.5

b
b+r


=

25

b(b + n)
b
b+n

=
b + r(b + n + r)
b+r
b+n+r
b(b + n + r) = (b + n)(b + r)
b2 + bn + br = b2 + nb + nr + br
nr = 0 (impossible)

Equation danalyse de la variance

D
efinition
On appelle variance conditionnelle de X|Y = yj la variance de la variable aleatoire
conditionnelle X sachant Y = yj soit :
n
X
V (X|Y = yj ) =
x2i P (X = xi |Y = yj ) E 2 (X|Y = yj )
i=1

Propri
et
e
Equation danalyse de la variance.
V (X) = Vinter (X) + Vintra (X)
o`
u
p
X
Vinter (X) =
E(X|Y = yj )2 P (Y = yj ) E(X)2
j=1

Vintra (X) =

p
X
j=1

Preuve :

V (X|Y = yj )P (Y = yj )


`
26 CHAPTER 2. COUPLE DE VARIABLES ALEATOIRES
DISCRETES
p
X
x2i P (X = xi ) E 2 (X) or P (X = xi ) =
P (X = xi Y = yj )
i=1
j=1
!
p
n
X
X
=
x2i
P (X = xi |Y = yj )P (Y = yj ) E 2 (X)
i=1
j=1
!
p
n
X
X
=
x2i P (X = xi |Y = yj ) P (Y = yj ) E 2 (X)

V (X) =

n
X

j=1

p
X

i=1


V (X|Y = yj ) + E 2 (X|Y = yj ) P (Y = yj ) E 2 (X)

j=1

p
X

V (X|Y = yj )P (Y = yj ) +

p
X

j=1

2.6
2.6.1

E 2 (X|Y = yj )P (Y = yj ) E 2 (X)

j=1

{z

Vintra (X)

{z

Vinter (X)

Fonction de 2 variables al
eatoires discr`
etes
Esp
erance-Variance

Soit Z = (X, Y ) avec : R2 R, une v.a


de valeurs zij = (xi , yj )
P (Z = zij ) = P ((X, Y ) = (xi , yj )).
On peut calculer E(Z) et V (Z) sans avoir `a calculer la loi de Z :
Propri
et
e
X
E(Z) =
pij (xi , yi )
i,j
X
V (Z) =
pij 2 (xi , yi ) E(Z)2
i,j

2.6.2

Calcul de la covariance

cov(X, Y ) =
XE(XY ) E(X)E(Y ),
E(XY ) =
xi yi pij . Propri
et
e
i,j


`
2.6. FONCTION DE 2 VARIABLES ALEATOIRES
DISCRETES

E(XY ) =
=

n
X
i=1
n
X

27

xi E(Y |X = xi )P (X = xi )
yj E(X|Y = yj )P (Y = yj )

j=1

Preuve :
n
X
X X
xi E(Y |X = xi )P (X = xi ) =
xi
yj P (Y = yj |X = xi )P (X = xi )
i=1
i
j
X
=
xi yj P (Y = yj X = xi )
i,j
X
=
xi yj pij .
i,j


`
28 CHAPTER 2. COUPLE DE VARIABLES ALEATOIRES
DISCRETES

Chapter 3
Couple de variables al
eatoires
continues
Soient (X, Y ) deux variables aleatoires continues.
exemple : Pour decrire la position dun point aleatoire M dans un rep`ere
cartesien, on utilise le couple de variables aleatoires (X, Y ) o`
u X designe
labscisse et Y lordonnee.
Remarque : si on est dans lespace, on rep`ere un point `a laide dun triplet de
variables aleatoires (X, Y, Z). On peut ainsi generaliser `a un vecteur aleatoire
`a n composantes : par exemple un circuit electrique compose de n composantes en serie. Si Xi : duree de vie de la composante i alors la duree de
vie du circuit se decrit `a laide du vecteur aleatoire (X1 , . . . , Xn ).

3.1

Fonction de r
epartition du couple (X, Y )
Fonction de r
epartition marginale

D
efinition
La fonction de repartition du couple (X, Y ) (ou fonction de repartition conjointe)
est une fonction de R2 dans [0, 1] definie par FX,Y (x, y) = P (X x Y y)
Propri
et
es
29


30CHAPTER 3. COUPLE DE VARIABLES ALEATOIRESCONTINUES
lim

FX,Y (x, y) = 1

x+
y+

lim FX,Y (x, y) = 0

lim FX,Y (x, y) = 0

Propri
et
es
Si FX est la fonction de repartition de X et
FX (x) = lim FX,Y (x, y)
FY la fonction de repartition de Y ,

y+

FY (y) = lim FX,Y (x, y)


x+

Dans le cas dune variable continue, on pouvait calculer la probabilite des


evenements {a < X b} avec la fonction de repartition : P (a < X b) =
F (b) F (a).
Est-ce le cas ici ?
Question : que vaut P [a < X b, c < Y d] ?
FX,Y (b, d) = P [] , b]] , d]] = P ((] , a]]a, b]] , d]))
= P (] , a]] , d]) + P (]a, b]] , d])
= F (a, d) + P (]a, b]] , c]) + P (]a, b]]c, d])
or F (b, c) = P (] , b]] , c]) = P (] , a]] , c]) + P (]a, b]]
, c])
do`
u P (]a, b]] , c]) = F (b, c) F (a, c)
Ainsi

P (a < X b, c Y d) = F (b, d) F (b, c) + F (a, c) F (a, d).

Mais cest une formule difficile `a retrouver.


Cest pourquoi on pref`erera passer par la fonction densite conjointe pour
calculer les probabilites.

3.2

Fonction densit
e conjointe
Fonctions densit
e marginales

D
efinition

CONJOINTEFONCTIONS DENSITE
MARGINALES31
3.2. FONCTION DENSITE
fonction densite du couple (X, Y ) est definie , si elle existe, par pour presque tout x ety,
d2 FX,Y (x, y)
fX,Y (x, y) =
.
dx dy
On peut egalement donner la fonction de repartition conjointe en fonction
de la fonction densite:
Z x Z y
FX,Y (x, y) =
fX,Y (u, v)du dv
(x, y) R2 .

On a alors
Z bZ

P (a < X b c Y d) =

fX,Y (x, y)dx dy


a

que lon peut egalement ecrire


Z bZ
P ((X, Y ) ]a, b]]c, d]) =
a

fX,Y (x, y)dx dy.

Question : peut-on calculer la probabilite P ((X, Y ) D) o`


u D est un do2
maine de R different dun rectangle ?
Propriete
Z Z
P ((X, Y ) D) =

fX,Y (x, y)dx dy


D

Exemple 1 aiguille de Buffon


Exemple 2 Soit (X, Y ) un couple dont la loi conjointe est une loi uniforme
sur [0, 1] [0, 1]
1
(x, y) [0, 1] [0, 1]
f (x, y) =
0
ailleurs
Soit D = {(x, y) R2 : x > 0 y > 0
Calculer P ((X, Y ) D).

et

x + y < 1}


32CHAPTER 3. COUPLE DE VARIABLES ALEATOIRESCONTINUES
Z Z
P ((X, Y ) D) =

1dx dy
Z

=
Z0 1
=
0

DZ


1x

dy dx

1
1
x2
1 x dx = x
= .
2 0 2
0

A partir de la fonction densite conjointe, peut-on retrouver les fonctions densite marginales de X et Y ?
Z +
fX (x) =
fX,Y (x, y)dy

Z +
fY (y) =
fX,Y (x, y)dx

Propri
et
e
Z + Z +
fX,Y (x, y)dx dy = 1

Exemple :

kx2 + y 2 xy x [1, 1] et y [1, 0]
f (x, y) =
0
sinon
a) determiner k pour que f soit effectivement une fonction densite dun couple (X, Y ).
b) calculer P [{0 < X < 1} {1/2 < Y < 0}]
c) fonctions densite marginales.
d) fonction de repartition conjointe.

CONJOINTEFONCTIONS DENSITE
MARGINALES33
3.2. FONCTION DENSITE
Z Z
sol : a)

f (x, y)dx dy = 1
ZR2Z

kx2 + y 2 xy dy dx = 1
DZ

Z 1
0
2
2
kx + y xy dy dx = 1

1
Z11
1 x

(kx2 + + ) dx = 1
3 2
1
 3 1
 2 1
x
1 1
x
2
2
k
+ [x]1 +
=1
k+ =1
3 1 3
4 1
3
3
1
k= .
2
Z 1Z 0
Z
1 2
x2
x
1
x
b)
+ y 2 xy dy dx =
+
+ dx
2
24 8
0
1/2
0 4
 1
 1
1 x3
1
1 x2
=
+
+
4 3 0 24 8 2 0
1
1
1
3
1
1
1
3
=
+
+
=
+
= +
= .
12 24 16
24 16
8 16
16
Z
+

c)On a fX (x) =

f (x, y)dy.

Si x
/ [1, 1],

fX (x) = Z
0.

Si x [1, 1],

fX (x) =
Z

On a fY (y) =

x2
x2 1 x
+ y 2 xy dy =
+ + .
2
2
3 2

f (x, y)dx.

Si y
/ [1, 0],
y [1, 0],

fy (y) = 0.
 1
 2 1
Z 1
1 2
1 x3
x
2
1
2
fy (y) =
x + y xy dx =
+ y [x]1 y
2 3 1
2 1
1 2
1
= + 2y 2 .
3
Z x Z y

d) FX,Y (x, y) =

f (u, v)dv du.

Si x < 1 ou y < 1, FX,Y (x, y) = 0


Si (x, y) [1, 1] [1, 0],


34CHAPTER 3. COUPLE DE VARIABLES ALEATOIRESCONTINUES
Z

(ku2 + v 2 uv) dv du
 2 y
 3 y
Z1x 1
v
v
y
2
u
du
=
ku [v]1 +
3 1
2 1
Z1x
y3 + 1
y2 1
=
(y + 1)ku2 +
u
du
3
2
1
 x
y3 + 1
y 2 1  2 x
y + 1 u3
+
=
(x + 1)
u /2 1
2
3 1
3
2
y + 1 x3 + 1
y 3 + 1 y 2 1 x2 1
FX,Y (x, y) =
+ (x + 1)

.
2
3
3
2
2
Si y > 0 et x [1, 1],
x3 + 1 x + 1 1 2
FX,Y (x, y) =
+
+ (x 1).
6
3
4
F (x, y)

Si y [1, 0] et x > 1,
y+1 2 3
F (x, y) =
+ (y + 1).
3
3
Si y > 0 et x > 1,
F (x, y) = 1.

3.3

Variables conditionnelles

On veut definir la loi de probabilite de la variable conditionnelle Y |X = x


avec X, Y deux variables aleatoires de fonction densite conjointe fX,Y .
fonction de repartition conditionnelle de Y |X = x
P (Y y|X = x) a priori nest pas defini car P (X = x) = 0, X etant une
variable continue.
On note FX=x cette fonction de repartition conditionnelle, que lon definit
de la mani`ere
suivante:

3.3. VARIABLES CONDITIONNELLES

35

FX=x (y) = lim P (Y y|x  X x + ) = lim


0

0

= lim
0

P (Y y x  X x + )
FX (x + ) FX (x )

P (Y y X [x , x + ])
FX (x + ) FX (x )

= lim
0

FX,Y (x + , y) FX,Y (x , y)
FX (x + ) FX (x )

dF
dFX,Y
(x, y)
(x, y)
dx
dx
=
=
.
fX (x)
fX (x)
D
efinition
La fonction de repartition de la variable conditionnelle Y |X = x, si elle existe, est egale `a
dFX,Y
(x, y)
FX=x (y) = dxfX (x)
.

Fonction densite de la variable conditionnelle Y |X = x


Notation : fX=x (y)
On a fX=x (y) =

ou

f (y|X = x)

d
f (x, y)
FX=x (y) =
.
dy
fX (x)

D
efinition
La fonction densite de la variable conditionnelle Y |X = x est
fX=x (y) =

f (x, y)
fX (x)

Y |X = x est une variable aleatoire definie par sa fonction densite ; on peut


calculer E(Y |X = x) , V (Y |X = x) et des probabilites associees `a cette
variable :
Z b
Z +
P (a < Y < b|X = x) =
fX=x (y) dy,
E(Y |X = x) =
y fX=x (y) dy
a


36CHAPTER 3. COUPLE DE VARIABLES ALEATOIRESCONTINUES

Exemple : reprendre f (x, y) = kx2 + y 2 xy.


e) Donner la fonction densite conditionnelle de X|Y = 0.
f ) Calculer P (0 < X < 1|Y = 0).
g) Calculer lesperance de X|Y = 0.
x2 /2
3x2
f (x, 0)
=
=
six [1, 1]. Ainsi
sol : e) fY =0 (x) =
1/3
2
fY (0)
3x2
x [1, 1]
fY =0 (x) =
0 2 sinon
 1
Z 1 2
3 x3
1
3x
dx =
= .
f) P (0 < X < 1|Y = 0) =
2
2 3
2
0
 1
Z +
Z 1 30
3x
3 x4
g) E(X|Y = 0) =
x fY =0 (x)dx =
dx =
= 0.
2 4 1

1 2
Th
eor`
eme de lesp
erance conditionnelle
Z +
E(X) =
E(X|Y = y)fY (y) dy

Preuve :

+
f (x, y)
E(X|Y = y) =
x fY =y (x)dx =
x
dx.
f (y)

Z +
Z + Z+ Y
E(X|Y = y)fY (y)dy =
x f (x, y)dy dx

Z + Z +
=
x(
f (x, y)dy)dx .

|
{z
}

fX (x)

3.3.1

Ind
ependance en probabilit
e
covariance-co
efficient de corr
elation

Comme dans le cas des variables discr`etes, intuitivement on peut penser que
X et Y sont independantes si et seulement si tout evenement lie `a X est
independant de tout evenement lie `a Y .

3.3. VARIABLES CONDITIONNELLES

37

i.e. {X x} et {Y y} sont independants x, y


i.e. P ({X x} {Y y}) = P (X x)P (Y y).
D
efinition-propri
et
e
2 v.a. X, Y continues sont independantes en probabilite si et seulement si
lune des
proprietes suivantes equivalentes sont verifiees (si elles ont un sens)
(1) fX,Y (x, y) = fX (x) fY (y)
x, y
(2) FX,Y (x, y) = FX (x) FY (y)
x, y
(3) fX=x (y) = fY (y)
partout o`
u cela a un sens
(4) fY =y (x) = fX (x) partout o`
u cela a un sens.
preuve :
(2) (1)

d2
dxdy
Z Z
x

(1) (2)

f (u, v)du dv =

fX (u)du

fY (v)dv

f (x, y)
= fY (y) x, y tq fX (x) 6= 0
fX (x)
(3) (1) on a f (x, y) = fX (x) fY (y) x, y tq fX (x) 6= 0
(4) (1) pareil.
(1) (3) fX=x (y) =

Th
eor`
eme
Si X et Y sont independants alors
(1)
(2)
(3)
(4)

cov(X, Y ) = 0
(X, Y ) = 0
E(XY ) = E(X)E(Y )
V (X + Y ) = V (X) + V (Y ).

Comme dans la chapitre precedent, la covariance est :


cov(X, Y ) = E(XY ) E(X)E(Y ).
Ici, cela se traduit par
R
R2

xy fX,Y (x, y) dxdy E(X)E(Y ).


38CHAPTER 3. COUPLE DE VARIABLES ALEATOIRESCONTINUES

On peut egalement exprimer la covariance `a laide de lesperance conditionnelle:


Z
cov(X, Y ) =
x E(Y |X = x)fX (x)dx E(X)E(Y ).
R

3.3.2

Fonction de 2 variables al
eatoires

Soit Z = (X, Y ) avec (X, Y ) couple aleatoire de densite f (x, y).


Z nest pas forcement une variable aleatoire. Si cela en est une, on a les
formules
ZZ
E((X, Y )) =
(x, y) f (x, y) dxdy
ZZ
V ((X, Y )) =
2 (x, y) f (x, y) dx dy E 2 ((X, Y ))

Chapter 4
Loi Normale ou loi de Laplace Gauss - G
en
eralit
es
La loi Normale est une des distributions que lon rencontre le plus souvent
en pratique.
Cest la loi qui sapplique en general `a une variable qui est la resultante dun
grand nombre de causes independantes dont les effets sadditionnent et dont
aucune nest preponderante.

Exemple :
Diam`etres et poids de pi`eces fabriquees en serie.
Fluctuations accidentelles dune grandeur economique autour de sa tendance.
Historiquement elle apparat vers 1773 comme limite de la loi binomiale.
Gauss en 1809 et Laplace en 1812 lui donn`erent sa forme definitive.

4.1

D
efinition math
ematique

La variable Normale X est une v.a absolument continue pouvant prendre


nimporte quelle valeur dans ] , +[ avec la densite de probabilite

2
1 x

f (x) =
e 2
2
39

ERALIT

40CHAPTER 4. LOI NORMALE OU LOI DE LAPLACE - GAUSS - GEN


ES
Cette v.a depend donc de 2 param`etres et .
notation : X N (, ).
representation graphique
la courbe en cloche. (cf T.D)
La valeur de determine la position de la courbe, x = est axe de
symetrie pour la courbe (f ( + x) = f ( x) x)
determine la dispersion de la courbe.
Fonction de repartition
Z

F (x) =

f (t)dt =

e 2

2
dt

caracteristiques
E(X) =
V (X) = 2
preuve :(T.D)
Propri
et
e1
X suit la loi N (, ) si et seulement si

X
suit la loi N (0, 1)

preuve : T.D.
x2
1
La loi N (0, 1) sappelle loi Normale centree reduite. f (x) = e 2 .
2
Elle est importante car la propriete signifie que tout calcul de probabilite
associe `a la loi N (, ) se ram`ene `a un calcul de probabilite associe `a la loi
N (0, 1) en faisant un changement de variable.
Propri
et
e2
X1 N (1 , 1 ), X2 N (p
X1 , X2 independantes,
2 , 2 ),
2
2
alors X1 + X2 N (1 + 2 , 1 + 2 )
preuve : (T.D.)
g
en
eralisation


4.2. CALCULS DE PROBABILITE

41

Xi N (i , i ), Xi sont independantes alors


n
n
n
X
X
X
2
Xi N (, ) avec =
i et =
i2 .
i=1

4.2
4.2.1

i=1

i=1

Calculs de probabilit
e
Calculs `
a partir de N (0, 1) : U

Le probl`eme vient du fait quil nexiste pas de fonction analytiquement exx2


1
primable qui corresponde `a une primitive de f (x) = e 2 .
2
Rb
Comment calculer P (a < U < b) = a f (t)dt = F (b)F (a) si lon ne connait
pas dexpression de F ?
La seule possibilite est dutiliser des methodes numeriques permettant de
faire le calcul approche de lintegrale.
Ainsi des specialistes ont etabli des tables permettant de faire les calculs de
probabilite.
On a `a notre disposition 2 tables :
La fonction de repartition (table 1) et les fractiles(table 2):
La table 1
On lit les valeurs de la fonction de repartition F de N (0, 1).
Cest une table `a double entree qui donne P (U u) pour u donne.

N (0,1)

on cherche la ligne correspondant `a la partie enti`ere et au 1er chiffre


decimal de u.
la colonne correspondant au 2eme chiffre decimal de u.
puis `a lintersection, on lit la probabilite cherchee.
ex : P (U 0, 38) = 0, 6480
P (U 1, 29) = 0, 9015
Que fait-on pour calculer P (U < 1) si U N (0, 1) ?
Propri
et
e1

ERALIT

42CHAPTER 4. LOI NORMALE OU LOI DE LAPLACE - GAUSS - GEN


ES
U N (0, 1) u > 0
P (U < u) = F (u) = 1 F (u)
P (U < 1) = 1 P (U < 1) = 0, 1587
Propri
et
e2
u>0
P (U > u) = 1 P (U < u) = 1 F (u)
Propri
et
e3
P (u1 U u2 ) = F (u2 ) F (u1 )
Propri
et
e4
F (u) 1/2 u 0
F (u) 1/2 u 0
Remarque 1 : pour les probabilites dintervalles, il est indifferent de considerer des intervalles fermes, ouverts ou mixtes puisque la probabilite dun
point est nulle.
Remarque 2 : Si on a `a calculer P (U u)avec U N (0, 1) avec 3 decimales :
(ex P (U < 1, 645)) on fait une interpolation lineaire :
Supposons que figurent dans la table 1 u1 et u2 tq u1 < u < u2 on consid`ere
F (u) F (u1 )
F (u) F (u2 )
que
'
ce qui donnera
u u1
u u2
1
F (u) =
[(u u2 )F (u1 ) + (u1 u)F (u2 )].
u1 u 2
Pour lexemple: 1, 64 < u < 1, 65
F (u) F (1, 64)
F (u) F (1, 65)
'
0, 05
0, 05
0, 095

F (u) '

F (1, 65) + F (1, 64)


=
2

Propri
et
e5
U N (0, 1)
P (|U| < u) = 2F (u) 1
ex : P (|U| < 1.96) = 2F (1, 96) 1 = 2.0, 9750 1 = 0, 95
Propri
et
e6
U N (0, 1)
P (|U| > u) = 2[1 F (u)]


4.2. CALCULS DE PROBABILITE

43

Cest la probabilite pour quune loi Normale centree reduite secarte de sa


moyenne de plus de u fois son ecart type.
Remarque : pour les grandes valeurs de u, on dispose dune ligne supplementaire
mais detaillee. Pour u > 3, les valeurs de F (u) varient peu et sont proches
de 1.
La table 2
Elle donne les fractiles de la loi N (0, 1).
Definition : on appelle fractile dordre (0 1),
pour une fonction de repartition F , la valeur u tq F (u ) =

i.e

P (U u ) = .

Exemple
P (U < t) = 0, 01 u0,01 = 2, 3263
P (U < t) = 0, 96 u0,96 = 1, 7507 
P (U < t) = 0, 975 u0,975 = 1, 96
(fractile tr`es important en statisP (U < t) = 0, 95 u0,95 = 1, 6449
tique inferentielle)
Ces calculs de fractiles seront particuli`erement utiles pour lobtention des
intervalles de confiance et realisation des tests.

4.2.2

Loi Normale qq N (, )

X N (, )
1er etape : se ramener `a la loi N (0, 1) : on sait que si X N (, ) alors
X
N (0, 1).

e
2 etape : Utiliser les tables 1 et 2.
3e etape : Donner le resultat.
X N (3, 2)

Calculer
P (X < 6, 24) 

X 3
6, 24 3
P (X < 6, 24) = P
<
= P (U < 1, 62) = F (1, 62) =
2
2
0, 9474

ERALIT

44CHAPTER 4. LOI NORMALE OU LOI DE LAPLACE - GAUSS - GEN


ES
X N (4, 5)

Calculer P 
(X < 1, 65)

X +4
er
< 1, 13
1 etape : P (X < 1, 65) = P
5
X +4
2e etape :
= U N (0, 1) P (U < 1, 13) = F (1, 13) = 0, 8708
5
e
3 etape : P (X < 1, 65) = 0, 8708
P (X > 4, 94) X N (2, 
4)

X +2
er
1 etape : P (X > 4.94) = P
> 1, 735
4
2e etape : P (U > 1, 735) = 1 F (1, 735)
F (1, 73) = 0, 9582
or 1, 73 < 1, 735 < 1, 74
Par interpolation
F (1, 74) = 0, 9591
F (u) F (1, 73)
F (u) F (1, 74)
F (1, 74) + F (1, 73)
'
F (u) =
= 0, 9586
0, 05
0, 05
2
3e etape : P (X > 4, 94) = 1 0, 95865 = 0, 04135

X N (3, 2)
P (4 < X < 0)
er
1 etape : P (4 < X < 0) = P (0, 5 < X+3
< 1, 5)
2
e
2 etape : P (0, 5 < U < 1, 5) = F (1, 5) F (0, 5)
= F (1, 5) [1 F (0, 5)]
= F (1, 5) + F (0, 5) 1 = 0, 9332 + 0, 6915 1 = 0, 6247
3e etape : P (4 < X < 0) = 0, 6247
P (0 < X < 2)
P (X > 2)
X1
e
1 etape : P (0 < X < 2) = P [1/3 < 3 < 1/3] = P (|U| < 1/3)
P (X > 2) = P X1
> 1 = P (U > 1)
3
2e etape : P (|U| < 1/3) = 2F (1/3) 1
P (U > 1) = P (U < 1)
e
3 etape : Proba ' 0, 31

X N (1, 3) P (0 < X < 2|X > 2) =

X N (2, 0, 5) calculer le fractile dordre 0,675 de X


P (X u0,675 ) = 0, 675


X 2
x0,675 2
er
1 etape : P (X x0,675 ) = 0, 675 P

= 0, 675.
0, 5
0, 5
2e etape : P (U < u0,675 ) = 0, 675 u0,675 = 0, 4538


4.2. CALCULS DE PROBABILITE
3e etape : 2[x0,675 2] = u0,675 = 0, 4538 x0,675 = 2, 2269

45

ERALIT

46CHAPTER 4. LOI NORMALE OU LOI DE LAPLACE - GAUSS - GEN


ES

Chapter 5
Condition dapplication de la
loi normale
5.1

Convergence des variables al


eatoires

Les variables aleatoires sont des applications de dans R, etant lunivers


defini par lexperience aleatoire.
On peut concevoir une suite depreuves aleatoires definissant des univers n
et donc des v.a. aleatoires Xn .
On peut se demander quel est le comportement limite de ces v.a. quand
n +.
Il existe plusieurs notions de convergence.

5.1.1

Convergence en loi

D
efinition
(Xn )nN converge en loi vers une v.a. X ssi
lim Fn (x) = F (x)

n+

x tq F (x) est continue.

Fn : fonction de repartition de Xn
F : fonction de repartition de X

(notation : Xn X)

Propri
et
es
L

Pour les v.a. discr`etes Xn X P (Xn = x) P (X = x) x.


n

Pour les v.a continues Xn X (a, b) R2


47

P (a Xn < b) P (a X < b).


n+

48CHAPTER 5. CONDITION DAPPLICATION DE LA LOI NORMALE

5.1.2

Convergence en probabilit
e

D
efinition
(Xn ) converge en probabilite vers X si et seulement si
 > 0, P (|Xn X| > ) 0
n

(notation : Xn X)
Propri
et
e
la convergence en probabilite convergence en loi
La reciproque est fausse.
Th
e
or`
eme
P
E(Xn ) alors Xn

n+
Si
V (Xn ) 0
n+

Preuve : il sagit de demontrer que P (|Xn | > ) 0. Pour simn+

plifier on supposera que E(Xn ) = n.


Pour cela, on a besoin du resultat suivant :
In
egalit
e de Bienaym
e-Tchebychev

Soit la v.a Z telle que E(Z) = ,
(Z) = ,

1

alors P (|Z | > k) 2
k R+ .
k
preuve de linegalite de B.J admise

Fin de la preuve du theor`eme : soit n = (Xn ), soit kn R tq kn n =


1
n
. On a
=
, do`
u
kn

P (|Xn | > ) = P (|Xn | > kn n ).
Dapr`es linegalite B.T, on a
1
n2
1
0 < P (|Xn | > kn n ) 2 =
=
V (Xn )
|
{z
} kn

| {z }
n +
n +
0
0

.

5.2. LOI FAIBLE DES GRANDS NOMBRES

5.2

49

Loi faible des grands nombres

Th
eor`
eme Loi faible des grands nombres
Soient (Xi )i=1,...,n n v.a independantes telles que
i=n

1X
Si
i et
n i=1 n+
i=n
1X
P
alors
Xi .
n i=1

E(Xi ) = i
V (Xi ) = i2

n
1 X 2
0,
n2 i=1 i n+

preuve :
n

1X
i
on
a
E(S
)
=
n
n
n i=1
1X
Soit Sn =
Xi .
n
n i=1
1 X 2
V (Sn ) = 2
0
n i=1 i

Sn

Application du theor`eme du paragraphe precedent.



Corollaire : Th
eor`
eme de Moivre-Laplace
Soit une experience aleatoire qui a
2 resultats possibles S et E et
P (S) = p.
On rep`ete n fois de facon independante.
Soit Fn : proportion de S.
P
Alors Fn p.
preuve :
n
1X
Fn =
Xi
Xi : variables de Bernoulli independantes.
n i=1
1X
1
E(Fn ) =
E(Xi ) = np = p
n X
n
1
1
1
V (Fn ) = 2
V (Xi ) = 2 np(1 p) = p(1 p) 0
n
n
n
Donc dapr`es la loi faible des grands nombres
P

Fn p

50CHAPTER 5. CONDITION DAPPLICATION DE LA LOI NORMALE


Fn sont appelees frequences empiriques.
A partir de ce resultat, toute lapproche frequentiste des probabilites sest
developpee sur levaluation de la probabilite dun evenement(p) par la limite
de la frequence relative dapparition de ce phenom`ene (valeur des Fn ).
Ce resultat sera essentiel dans la theorie de lestimation.

5.3

Th
eor`
eme central-limit

Th
eor`
eme
Soient Xi i = 1, . . . , n n v.a independantes, de meme loi,
desperance et decart type ,
i=n
1X
alors si on pose X =
Xi , on a
n i=1

n(X ) L
N (0, 1).

Remarque
On avait montre que ce resultat etait vrai pour Xi N (, ) mais le
theor`eme central limit est beaucoup plus fort puisque cela est vrai pour
nimporte quelle loi : il nest pas necessaire de connaitre la loi de Xi pour
i=n
X
connaitre celle
Xi pour n grand!!
i=1

Le resultat joue un role essentiel dans toute la statistique classique. Sa


demonstration est en dehors du cadre de ce cours.

5.4

Approximation dune loi B(n, p)

Th
eor`
eme
Soit X B(n, p),
X np
L
alors p
N (0, 1).
np(1 p)
n
X
Preuve : X =
Xi avec Xi B(1, p) la loi de Bernoulli.
i=1

Or E(Xi ) = p, V (Xi ) = p(1 p), donc dapr`es le theor`eme central- limit


X np
L
p
N (0, 1).
np(1 p)

5.4. APPROXIMATION DUNE LOI B(N, P )


En pratique : npq > 18

ou

51

n > 30
p [0, 1 ; 0, 9]

Comment proc`ede t-on pour approcher une loi discr`ete par une loi continue ?
En effet pour les lois discr`etes, les probabilites sont concentrees en des points
et pour les lois continues tout point a une probabilite nulle !
Exemple : soit X B(100, 0, 4) alors X N (40, 4, 9)
Comment approche-t-on P (X = 50) ?
On fait ce quon appelle une correction de continuite
Proposition : correction de continuit
e
Soit X une v.a.d telle que E(X) = , (X) = et X() N
que lon approche par Y une
loi N (, ) alors

1
P (X < k) = P Y k
2

1
P (X k) = P Y k +
2


1
1
P (X = k) = P k Y k +
2
2

1
1
P (k1 X k2 ) = P k1 Y k1 +
2
2
Exemple : Dans une population bovine, on admet que la robe dun animal se
caracterise par la presence dun g`ene dominant S (robe unie) ou dun g`ene
recessif s (robe tachetee bleue).
Selon la theorie de Mendel un croisement danimaux heterozygotes (S, s)
(S, s) donne 3/4 robes unies et 1/4 robes tachetees bleues.
Sur un echantillon de 160 bovins issus de croisements (S, s) (S, s) on note
X = nombre danimaux ayant une robe tachetee bleue.
a) Determiner la loi de X
(X B(160, 1/4))

b) Par quelle loi peut-on approximer X


(par N (40, 30) car n > 30 p
[0, 1, 0, 9] ou npq = 30 > 18)
c) Probabilite que parmi 160 bovins le nombre de tachetees de bleues soit entre 35 et 50:

52CHAPTER 5. CONDITION DAPPLICATION DE LA LOI NORMALE


P (35 X 50) P (35 1/2 Y 50 + 1/2)
= P (34,
 5 Y 50, 5)

=P

=F
=F

5.5

5,5
10,5

U
30 
 30
10,5

F 5,5
30
30 
  h
i
10,5
5,5

F
30
30

Approximation dune loi de Poisson

Th
eor`
eme

Si m 20 alors la loi de Poisson P(m) peut etre approximee par N (m, m).
X m L

N (0, 1).
m
La preuve rigoureuse peut se faire mais demande des connaissances en analyse mathematique.
On admettra le theor`eme.

La formulation mathematique est: si X P(m) alors

Remarque : comme precedemment on fait la correction de continuite.

5.6

Exercices

Exemple 1
Les gains mensuels en francs G dun representant sont supposes suivre une
loi Normale. Il a pu constater, sur un grand nombre de mois, la repartition
suivante des gains en F :
P (gain > 18000) = 4, 46%
P (15800 < gain 18000) = 93, 26%
P (gain 15800) = 2, 28%
1 - Calculer la moyenne et lecart type de G qui suit N (, ).
2 - Si on suppose que les gains du representant sont independants dun mois
`a lautre, quelle est la loi de proba de X = gain durant 3 mois ?
3 - P (X 53000) ?

Exercice 2
Un vigneron commercialise 2 types de vin :

5.6. EXERCICES

53

les vins du terroir et les vins grand cru et vendus `


a 30 F la bouteille. Il
subsiste des erreurs detiquetage et on admet quun acheteur de vin grand
cru aura une probabilite p = 0, 12 davoir en fait une bouteille de vin du
terroir.
1) Un restaurateur ach`ete 200 bouteilles grand cru
X : nb de bouteille de vin du terroir parmi ces bouteilles
Quelle est la loi de probabilite de X ? Calculer E(X) V (X)
Par quelle loi peut-on approcher X ?
2) Calculer P (X > 20) et P (X < 30|X > 20)
3) Au fur et `a mesure de la consommation des 200 bouteilles, le restaurateur
a pu detecter chacune des bouteilles du terroir. Il decide alors de ne payer
que les bouteilles grand cru et de refuser de payer les bouteilles du terroir.
Calculer, avec cette hypoth`ese, la probabilite dun benefice neanmoins positif
pour le vigneron sachant que chaque bouteille de grand cru lui revient `
a 18
F et terroir 8 F.

You might also like