Professional Documents
Culture Documents
Contents
1 Lois discr`
etes usuelles
1.1 Introduction . . . . . . . . . . .
1.2 Schema de Bernoulli . . . . . .
1.3 Schema Binomial . . . . . . . .
1.4 Schema hypergeometrique . . .
1.5 Loi geometrique et loi de Pascal
1.6 Loi de Poisson . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Couple de variables al
eatoires discr`
etes
2.1 Generalites . . . . . . . . . . . . . . . . .
2.1.1 Loi de probabilite conjointe
Lois de probabilite marginales . . .
2.2 Fonction de repartition dun couple
Fonctions de repartition marginales . . . .
2.3 Loi de probabilite conditionnelle
Esperance conditionnelle . . . . . . . . . .
2.3.1 Correlation lineaire . . . . . . . . .
2.4 Independance stochastique . . . . . . . . .
2.5 Equation danalyse de la variance . . . . .
2.6 Fonction de 2 variables aleatoires discr`etes
2.6.1 Esperance-Variance . . . . . . . . .
2.6.2 Calcul de la covariance . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
6
7
10
12
15
19
. . . . . . . . . . . 19
. . . . . . . . . . . 20
. . . . . . . . . . . 21
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
22
23
23
25
26
26
26
3 Couple de variables al
eatoires
continues
29
3.1 Fonction de repartition du couple (X, Y )
Fonction de repartition marginale . . . . . . . . . . . . . . . . 29
3
CONTENTS
3.2
3.3
. . . . . . . . . . . 30
. . . . . . . . . . . 34
. . . . . . . . . . . 36
. . . . . . . . . . . 38
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
39
39
41
41
43
.
.
.
.
.
.
.
.
47
47
47
48
49
50
50
52
52
Chapter 1
Lois discr`
etes usuelles
1.1
Introduction
Que fait-on ?
1 - Pour avoir une premi`ere idee du phenom`ene represente par une variable aleatoire X, on peut faire plusieurs observations de X.
ex : X = depense annuelle pour les loisirs dun menage (variable aleatoire
attachee `a un individu). On demande `a un certain nombre de menages ses
depenses annuelles en loisirs. On a donc la valeur de Xi . Xi etant la depense
annuelle pour le menage i.
Cette suite dobservation debouche sur la definition dune variable statistique
5
`
CHAPTER 1. LOIS DISCRETES
USUELLES
frequences
ni
1.2
Sch
ema de Bernoulli
1.3. SCHEMA
BINOMIAL
Souvent les resultats possibles sont des objets qualitatifs. Pour les quantifier, il faut leur trouver un codage.
On definit ainsi une v.a. X dites de Bernoulli (savant suisse 1654-1705) par
0
1
1p p
D
efinition
On realise une experience aleatoire qui a 2 resultats possibles : le succ`es S, de probabilite. p,
et lEchec
E de probabilite 1 p. La v.a
1 si succ`es est une v.a. de Bernoulli
X:
0 si echec
Mode
p>q
p<q
M ode = 1
M ode = 0
M
ediane
p > q q < 1/2 Me = 1
p < q q > 1/2 Me = 0
Propri
et
e
E(X) = p
V (X) = p(1 p)
Remarque :
La v.a. de Bernoulli est une v.a. indicatrice : elle indique la realisation
eventuelle de levenementde probabilite p. Le shema de Bernoulli est le plus
simple des mod`eles probabilistes.
1.3
Sch
ema Binomial
`
CHAPTER 1. LOIS DISCRETES
USUELLES
n
X
Xi .
i=1
X B(n, p)
Loi de probabilit
e
X() = {0, . . . , n}
P (X = k) = Cnk pk (1 p)nk
k X()
n : nb depreuves,
k : nb de S (succ`es),
p : probabilite du succ`es.
Propri
et
es
E(X) = np
V (X) = np(1 p)
Propri
et
e
SiX1 B(n1 , p) et X2 B(n2 , p)
avecX1 , X2 independantes, alors
X1 + X2 B(n1 + n2 , p)
Preuve : somme de v.a Benouilli.
Il y a des tables pour eviter de calculer les probabilites d evenements lies `a
la loi binomiale. On peut egalement, dans certains cas, approximer B(n, p)
par une autre loi.
Exercice :
Une machine `a embouteiller peut tomber en panne. La probabilite dune
panne `a chaque emploi est de 0,01. La machine doit etre utilisee 100 fois.
1.3. SCHEMA
BINOMIAL
`
CHAPTER 1. LOIS DISCRETES
USUELLES
10
X B(n, p) avec p =
N1
N
Propri
et
e
Calcul en chaine des probalites de la loi binomiale.
Si X B(n, p) alors
(n k + 1)p
P (X = k 1)
k(1 p)
P (X = k)
nk+1 p
=
P (X = k 1)
k
1p
P (X = k) =
Preuve :
1.4
Sch
ema hyperg
eom
etrique
Loi de probabilit
e
1.4. SCHEMA
HYPERGEOM
ETRIQUE
11
CNk 1 CNnk
2
CNn
n < N2
et
n < N1
(denombrement classique)
Propri
et
es
E(X) = np
V (X) = np(1 p)
N n
N 1
Th
eor`
eme :
Quand N + avec n, p fixes, alors
la loi hypergeometrique H(N, n, p) tend vers la loi binomiale B(n, p).
Que signifie une loi qui tend vers une autre loi ?
dapplication)
Dans la pratique, on utilise lapproximation d`es que
(cf chap.
condition
n
< 0, 1
N
preuve :
n!(N n)!
(N p)!(N q)!
k!(N p k)!(n k)!(N q n + k)!
N!
n!
(N p)k (N q)nk n!
pk q nk
= Cnk pk q nk
k!(n k)!N n
k!(n k)!
P (X = k) =
Exemple 1
A un guichet SNCF se presentent 2 femmes et 3 hommes. On choisit au
hasard 2 personnes 6= pour une enquete.
Soit X = nb de femmes.
a) Probabilite de choisir une femme au moins.
b) Calculer E(X) et (X).
2
a) X H 5, 2,
5
C 1C 1 C 2C 0
7
P (X 1) = P (X = 1) + P (X = 2) = 2 2 3 + 2 2 3 =
= 0, 7
C5
C5
10
3
4
b) E(X) = np = 2 = = 0, 8
5
5
`
CHAPTER 1. LOIS DISCRETES
USUELLES
12
V (X) = npq
N n
2 3 3
9
=2 =
= 0, 36
N 1
5 5 4
25
(X) = 0, 6
Exemple 2
On choisit au hasard 10 etudiants de DEUG 6= pour un entretien : 304
etudiants sont inscrits en 1`ere annee, 233 en 2`eme .
X = nb detudiants de 1`ere annee parmi les 10.
Calculer la probabilite davoir 5 etudiants de 1`ere annee et determiner E(X)
et (X).
304
X H(537, 10,
)
537
5
5
C C
P (X = 5) = 30410 233 ' 0, 227
C537
Mais on peut utiliser lapproximation
n
10
304
304
Comme
=
< 0, 1, on peut approximer H 537, 10,
par B 10,
N
537
537
537
5
5
304
233
5
P (X = 5) = C10
' 0, 225.
537
537
304
E(X) = np = 10
= 5, 661
537
N n
304 233 527
V (X) = npq
= 10
' 2, 415
N 1
537 537 536
(X) = 1, 554
1.5
Loi g
eom
etrique et loi de Pascal
D
efinition
X suit la loi geometrique de param`etre p, G(p), si elle est egale au nombre depreuves de
Bernoulli independantes quil faut realiser pour obtenir pour la 1`ere fois levenementde
probabilite p.
13
Loi de probabilit
e
X() = N
, (lensemble des valeurs est denombrable)
P (X = k) = q k1 p
k N
fonction de r
epartition
n
n1
X
X
1 qn
k1
P (X n) =
q p=p
qk = p
= 1 qn
1
q
K=0
k=1
FX (n) = 1 q n
caract
eristiques
1
p
1p
V (X) =
p2
E(X) =
`
CHAPTER 1. LOIS DISCRETES
USUELLES
14
!
Application
Ces 2 lois interviennent particuli`erement en controle de qualite mais aussi
dans la surveillance des evenements dont une certaine frequence de survenue
est interpretee en terme de signal dalarme.
Remarque de modelisation
La probabilite de levenement qui nous interesse est toujours p, elle est
constante au cours du temps. Cette propriete de stationnarite nest pas
systematique dans les situations reelles que lon doit modeliser.
Exemple
Supposons que 5 % des pi`eces en sortie dune chaine de production soient
defectueuses. On souhaite connaitre la probabilite quun echantillon de 20
pi`eces issu de cette chaine ne contienne aucune pi`ece defectueuse.
On peut traiter cet exemple en utilisant soit la loi Binomiale,
1 0, 95
0, 05
1 0, 95
0, 05
= 0, 9520
= 0, 3585
0, 05
0, 95k1 0, 05 = 0, 9520
k=21
1.6
15
Loi de Poisson
Simeon-Denis Poisson(1781-1840)est un probabiliste, mathematicien et physicien francais `a qui lon doit dimportants developpements sur la loi des grands
nombres, les suites depreuves de Bernoulli mais aussi sur les applications des
probabilites dans le domaine du droit.
d
efinition
X est une v.a. de Poisson de param`etre m si et seulement si
X() = N et
mk m
e
P (X = k) =
k!
Notation : P(m)
On est dans la situation X() infini denombrable.
On peut maintenant poser la loi de Poisson comme mod`ele dune epreuve
aleatoire :
Th
eor`
eme dapproximation
Soit X B(n, p)
quand n + etp 0 tq np m,
L
alors X P(m)
Modelisation
Lorsquun evenement a une faible probabilite p dapparition lors dune epreuve
de Bernoulli et si lon rep`ete un grand nombre de fois cette epreuve (n) le
nombre total de realisations de levenement considere suit `a peu pr`es une loi
de Poisson de param`etre m = np.
Dans la pratique :
n > 50
p < 0, 1
`
CHAPTER 1. LOIS DISCRETES
USUELLES
16
Rmq : plus p est petit, meilleure est lapproximation. Pour cette raison
la loi de Poisson a ete appelee loi des phenom`enes rares.
Les processus de Poisson sont frequents dans les probl`emes de gestion :
- nb de pi`eces defectueuses dans un echantillon de grande taille preleve dans
une production o`
u la proportion des defectueuses est faible.
- nb de quadruples, quintuples par an dans un pays donne.
- nb dappels intercontinentaux sur une ligne pendant une duree donnee.
- nb derreurs commises au cours dune longue suite doperations (inventaire).
- pannes de machine.
- emission de particules radio-actives.
caract
eristiques Si X P(m),
alors
E(X) = m
V (X) = m
X mk
k0
k!
= em
X mk1
mk m
E(X) =
k
e = em m
=m
k!
(k
1)!
k0
k1
k
X
X
X mk
m
mk
V (X) =
k2
em m2 =
k(k 1) em +
k
em m2
k!
k!
k!
K1
k0
k1
X mk2
X mk1
= m2
em + m
em m2
(k 2)!
(k 1)!
k2
k1
X
=m
Propri
et
e : somme de v.a de Poisson
Si X1 et X2 sont 2 variables de Poisson P(m1 ), P(m2 ) independantes alors
X1 + X2 P(m1 + m2 )
(ceci est vrai pour une somme finie quelconque de v.a de Poisson independantes)
Preuve :
17
"
P (Y = k) = P (X1 + X2 = k) = P
k
[
#
{X1 = i} {X2 = k i}
i=0
=
=
k
X
i=0
K
X
i=0
K
X
i=0
e(m1 +m2 )
k!
.
Propri
et
e
Si X P(m)
m
P (X = k)
=
P (X = k 1)
k
Cons
equence statistique
On peut envisager une loi de Poisson comme mod`ele representatif de donnees statistiques
discr`etes pour lesquelles la variable ne prend que des valeurs enti`eres, positives ou nulles et pour lesquelles
- la moyenne ' la variance et
fk
1
est proportionnel `a
fk etant les frequences.
fk1
k
Exemple 1
Lors dun sondage portant sur un grand nombre de personnes, on sait que 2%
des personnes interrogees acceptent de ne pas rester anonymes. Sachant que
lun des sondeurs a interroge 250 personnes (en les choisissant de mani`ere
independante), calculer la probabilite
a) que ces 250 personnes souhaitent rester anonymes
b) 3 personnes acceptent de ne pas rester anonymes
c) plus de 10 personnes acceptent de ne pas rester anonymes
X = nb de personnes ne souhaitant pas rester anonymes.
X B(250, 0, 02) h P(5).
0
P (X = 0) = e5 50! = e5 = 0, 0067,
`
CHAPTER 1. LOIS DISCRETES
USUELLES
18
3
P (X = 3) = e5 53! = 0, 14,
P (X 10) = 1 P (X < 10) = 1 P (X 9).
Exemple 2
Dans un hopital parisien, il arrive en moyenne 1,25 personnes `
a la minute
aux urgences entre 9 h et 12 h.
X : nb de personnes observees `
a la minute `
a lentree de ce service.
On admet X P(m) avec m = 1, 25
Determiner les probabilites suivantes
a) En 1mn il arrive 2 personnes b) 4 personnes au plus c) 3 personnes au
moins.
a) P (X = 2) = 0, 2238
b) P (X 4) = 0, 9909
c) P (X 3) = 1 P (X 2)
= 1 0, 8685
= 0, 1315.
Chapter 2
Couple de variables al
eatoires
discr`
etes
2.1
G
en
eralit
es
`
20 CHAPTER 2. COUPLE DE VARIABLES ALEATOIRES
DISCRETES
2.1.1
Loi de probabilit
e conjointe
Lois de probabilit
e marginales
D
efinition
La loi de probabilite conjointe de X et Y ou loi du couple (X, Y ) est definie par
1) les valeurs de (X, Y )
{(xi , yi ) i {1, . . . , n} j {1, . . . , p}}
2) les probabilites correspondantes
pij = P ((X, Y ) = (xi , yi ))
= P (X = xi , Y = yj )
= P ((X = xi ) (Y = yj ))
Presentation : dans un tableau :
valeurs de Y
y1
y2
...
yp
x1
x2
..
.
p11 p12
p21 p22
+ p1p
p2p
xn
pn1 pn2
valeurs de X
pnp
Question 1 :
Si on a la loi de probabilite du couple (X, Y ), peut-on en deduire la loi de
probabilite de X et la loi de probabilite de Y ?
reponse : oui mais linverse nest pas vrai.
D
efinition
Si on donne la loi du couple (X, Y ), la loi de probabilite de X et celle de Y sont appelees
lois de probabilite marginales.
Propri
et
e
pour X : P (X = xi ) =
p
X
pij
pij
j=1
pour Y : P (Y = yj ) =
n
X
i=1
preuve : TVA
p
X
pij
j=1
pj = P (Y = yj ) =
n
X
pij
i=1
Propriete
p
n X
X
pij = 1
i=1 j=1
2.2
Fonction de r
epartition dun couple
Fonctions de r
epartition marginales
D
efinition
La fonction de repartition du couple (X, Y ) est definie par
FX,Y (x, y) = P [(X x) (Y y)]
Propriete
X
i tq
xi x
yj y
F(X,Y ) (x, y) =
pij
tq
`
22 CHAPTER 2. COUPLE DE VARIABLES ALEATOIRES
DISCRETES
2.3
Loi de probabilit
e conditionnelle
Esp
erance conditionnelle
D
efinition
On appelle variable aleatoire conditionnelle X sachant Y = yj , notee X|Y = yj
la v.a. discr`ete de valeurs {xi , i = 1, . . . , n}
et dont les probabilites sont
P (X = xi |Y = yj ) =
pij
pj
Propri
et
es
n
X
P (X = xi |Y = yj ) = 1
yj
P (Y = yj |X = xi ) = 1
xi
i=1
p
X
j=1
D
efinition
On appelle esperance conditionnelle de X sachant Y = yj la quantite
E(X|Y = yj ) =
n
X
xi P (X = xi |Y = yj ).
i=1
Th
eor`
eme de lesp
erance conditionnelle
p
X
E(X) =
E(X|Y = yj )P (Y = yj )
j=1
p
preuve :
X
j=1
E(X|Y = yj ) P (Y = yj ) =
p
n
X
X
j=1 i=1
X X
pij
pj =
xi
pij
xi
pj
i=1
j=1
n
X
=
pi xi = E(X)
i=1
2.4. INDEPENDANCE
STOCHASTIQUE
2.3.1
23
Corr
elation lin
eaire
D
efinition
On appelle covariance du couple (X, Y ) la quantite
cov(X, Y ) = E(XY ) E(X)E(Y )
On appelle correlation lineaire entre X et Y
cov(X, Y )
(X, Y ) = p
V (X)V (Y )
Propri
et
es
1 (X, Y ) 1
(1)
V (X + Y ) = V (X) + V (Y ) + 2cov(X, Y ) (2)
cov(a X, Y ) = a cov(X, Y )
(3)
2.4
Ind
ependance stochastique
D
efinition
2 v.a.d. X et Y sont independantes en probabilite (ou stochastiquement) si lune de ces
proprietes equivalentes est verifiee (si elle a un sens) :
(i)
i {1, . . . , n}
j {1, . . . , p}
P (X = xi |Y = yi ) = P (X = xi ).
(ii) i, j
P (Y = yj |X = xi ) = P (Y = yj ).
(iii) i, j
P (X = xi Y = yj ) = P (X = xi ) P (Y = yj ).
Propri
et
es
(1) Si X et Y sont independantes en probabilite alors (X, Y ) = 0
(2) Si (X, Y ) 6= 0 alors X et Y ne sont pas independantes en probabilite
(3) Si (X, Y ) = 0 alors X et Y ne sont pas forcement independantes en probabilite.
Exemple
Une urne contient b boules blanches (B) et r boules rouges (R).
On tire une boule au hasard
B0
Soit X :
R1
Si la boule tiree est B on la remet accompagnee de n autres boules blanches.
`
24 CHAPTER 2. COUPLE DE VARIABLES ALEATOIRES
DISCRETES
Si elle est R, on la remet avec n autres rouges.
On tire alors une boule.
B0
Soit Y :
R1
a) Donner la loi de probabilite de (X, Y ).
b) Lois marginales.
c) independance stochastique ?
solution
X prend les valeurs 0 et 1 et
Y prend les valeurs 0 et 1. On a
P (X = 0 ; Y = 0) = P (X = 0 Y = 0)
= P (Y = 0|X = 0) P (X = 0)
b
b+r
P (Y = 0|X = 0) = proba de tirer une blanche sachant quon a tire une B au 1er tirage
= proba de tirer une blanche dans une urne qui comprend r rouges et
b + n blanches
b+n
=
.
b+r+n
b
b+n
b+r b+r+n
P (X = 1 Y = 1) = P (Y = 1|X = 1) P (X = 1)
r+n
r
.
=
b+r+n b+r
X\Y
0
1
Loi de X
b(b + n)
rb
b
0
(b + r)(b + r + n) (b + r)(b + r + n)
b+r
br
(r + n)r
r
1
(b + r)(b + r + n) (b + r)(b + r + n)
b+r
b
r
Loi de Y
1
b+r
b+r
Si X et Y etaient independantes on aurait par exemple
P (X = 0, Y = 0) =
b+n
2.5
b
b+r
=
25
b(b + n)
b
b+n
=
b + r(b + n + r)
b+r
b+n+r
b(b + n + r) = (b + n)(b + r)
b2 + bn + br = b2 + nb + nr + br
nr = 0 (impossible)
D
efinition
On appelle variance conditionnelle de X|Y = yj la variance de la variable aleatoire
conditionnelle X sachant Y = yj soit :
n
X
V (X|Y = yj ) =
x2i P (X = xi |Y = yj ) E 2 (X|Y = yj )
i=1
Propri
et
e
Equation danalyse de la variance.
V (X) = Vinter (X) + Vintra (X)
o`
u
p
X
Vinter (X) =
E(X|Y = yj )2 P (Y = yj ) E(X)2
j=1
Vintra (X) =
p
X
j=1
Preuve :
V (X|Y = yj )P (Y = yj )
`
26 CHAPTER 2. COUPLE DE VARIABLES ALEATOIRES
DISCRETES
p
X
x2i P (X = xi ) E 2 (X) or P (X = xi ) =
P (X = xi Y = yj )
i=1
j=1
!
p
n
X
X
=
x2i
P (X = xi |Y = yj )P (Y = yj ) E 2 (X)
i=1
j=1
!
p
n
X
X
=
x2i P (X = xi |Y = yj ) P (Y = yj ) E 2 (X)
V (X) =
n
X
j=1
p
X
i=1
V (X|Y = yj ) + E 2 (X|Y = yj ) P (Y = yj ) E 2 (X)
j=1
p
X
V (X|Y = yj )P (Y = yj ) +
p
X
j=1
2.6
2.6.1
E 2 (X|Y = yj )P (Y = yj ) E 2 (X)
j=1
{z
Vintra (X)
{z
Vinter (X)
Fonction de 2 variables al
eatoires discr`
etes
Esp
erance-Variance
2.6.2
Calcul de la covariance
cov(X, Y ) =
XE(XY ) E(X)E(Y ),
E(XY ) =
xi yi pij . Propri
et
e
i,j
`
2.6. FONCTION DE 2 VARIABLES ALEATOIRES
DISCRETES
E(XY ) =
=
n
X
i=1
n
X
27
xi E(Y |X = xi )P (X = xi )
yj E(X|Y = yj )P (Y = yj )
j=1
Preuve :
n
X
X X
xi E(Y |X = xi )P (X = xi ) =
xi
yj P (Y = yj |X = xi )P (X = xi )
i=1
i
j
X
=
xi yj P (Y = yj X = xi )
i,j
X
=
xi yj pij .
i,j
`
28 CHAPTER 2. COUPLE DE VARIABLES ALEATOIRES
DISCRETES
Chapter 3
Couple de variables al
eatoires
continues
Soient (X, Y ) deux variables aleatoires continues.
exemple : Pour decrire la position dun point aleatoire M dans un rep`ere
cartesien, on utilise le couple de variables aleatoires (X, Y ) o`
u X designe
labscisse et Y lordonnee.
Remarque : si on est dans lespace, on rep`ere un point `a laide dun triplet de
variables aleatoires (X, Y, Z). On peut ainsi generaliser `a un vecteur aleatoire
`a n composantes : par exemple un circuit electrique compose de n composantes en serie. Si Xi : duree de vie de la composante i alors la duree de
vie du circuit se decrit `a laide du vecteur aleatoire (X1 , . . . , Xn ).
3.1
Fonction de r
epartition du couple (X, Y )
Fonction de r
epartition marginale
D
efinition
La fonction de repartition du couple (X, Y ) (ou fonction de repartition conjointe)
est une fonction de R2 dans [0, 1] definie par FX,Y (x, y) = P (X x Y y)
Propri
et
es
29
30CHAPTER 3. COUPLE DE VARIABLES ALEATOIRESCONTINUES
lim
FX,Y (x, y) = 1
x+
y+
Propri
et
es
Si FX est la fonction de repartition de X et
FX (x) = lim FX,Y (x, y)
FY la fonction de repartition de Y ,
y+
3.2
Fonction densit
e conjointe
Fonctions densit
e marginales
D
efinition
CONJOINTEFONCTIONS DENSITE
MARGINALES31
3.2. FONCTION DENSITE
fonction densite du couple (X, Y ) est definie , si elle existe, par pour presque tout x ety,
d2 FX,Y (x, y)
fX,Y (x, y) =
.
dx dy
On peut egalement donner la fonction de repartition conjointe en fonction
de la fonction densite:
Z x Z y
FX,Y (x, y) =
fX,Y (u, v)du dv
(x, y) R2 .
On a alors
Z bZ
P (a < X b c Y d) =
et
x + y < 1}
32CHAPTER 3. COUPLE DE VARIABLES ALEATOIRESCONTINUES
Z Z
P ((X, Y ) D) =
1dx dy
Z
=
Z0 1
=
0
DZ
1x
dy dx
1
1
x2
1 x dx = x
= .
2 0 2
0
A partir de la fonction densite conjointe, peut-on retrouver les fonctions densite marginales de X et Y ?
Z +
fX (x) =
fX,Y (x, y)dy
Z +
fY (y) =
fX,Y (x, y)dx
Propri
et
e
Z + Z +
fX,Y (x, y)dx dy = 1
Exemple :
kx2 + y 2 xy x [1, 1] et y [1, 0]
f (x, y) =
0
sinon
a) determiner k pour que f soit effectivement une fonction densite dun couple (X, Y ).
b) calculer P [{0 < X < 1} {1/2 < Y < 0}]
c) fonctions densite marginales.
d) fonction de repartition conjointe.
CONJOINTEFONCTIONS DENSITE
MARGINALES33
3.2. FONCTION DENSITE
Z Z
sol : a)
f (x, y)dx dy = 1
ZR2Z
kx2 + y 2 xy dy dx = 1
DZ
Z 1
0
2
2
kx + y xy dy dx = 1
1
Z11
1 x
(kx2 + + ) dx = 1
3 2
1
3 1
2 1
x
1 1
x
2
2
k
+ [x]1 +
=1
k+ =1
3 1 3
4 1
3
3
1
k= .
2
Z 1Z 0
Z
1 2
x2
x
1
x
b)
+ y 2 xy dy dx =
+
+ dx
2
24 8
0
1/2
0 4
1
1
1 x3
1
1 x2
=
+
+
4 3 0 24 8 2 0
1
1
1
3
1
1
1
3
=
+
+
=
+
= +
= .
12 24 16
24 16
8 16
16
Z
+
c)On a fX (x) =
f (x, y)dy.
Si x
/ [1, 1],
fX (x) = Z
0.
Si x [1, 1],
fX (x) =
Z
On a fY (y) =
x2
x2 1 x
+ y 2 xy dy =
+ + .
2
2
3 2
f (x, y)dx.
Si y
/ [1, 0],
y [1, 0],
fy (y) = 0.
1
2 1
Z 1
1 2
1 x3
x
2
1
2
fy (y) =
x + y xy dx =
+ y [x]1 y
2 3 1
2 1
1 2
1
= + 2y 2 .
3
Z x Z y
d) FX,Y (x, y) =
34CHAPTER 3. COUPLE DE VARIABLES ALEATOIRESCONTINUES
Z
(ku2 + v 2 uv) dv du
2 y
3 y
Z1x 1
v
v
y
2
u
du
=
ku [v]1 +
3 1
2 1
Z1x
y3 + 1
y2 1
=
(y + 1)ku2 +
u
du
3
2
1
x
y3 + 1
y 2 1 2 x
y + 1 u3
+
=
(x + 1)
u /2 1
2
3 1
3
2
y + 1 x3 + 1
y 3 + 1 y 2 1 x2 1
FX,Y (x, y) =
+ (x + 1)
.
2
3
3
2
2
Si y > 0 et x [1, 1],
x3 + 1 x + 1 1 2
FX,Y (x, y) =
+
+ (x 1).
6
3
4
F (x, y)
Si y [1, 0] et x > 1,
y+1 2 3
F (x, y) =
+ (y + 1).
3
3
Si y > 0 et x > 1,
F (x, y) = 1.
3.3
Variables conditionnelles
35
0
= lim
0
P (Y y x X x + )
FX (x + ) FX (x )
P (Y y X [x , x + ])
FX (x + ) FX (x )
= lim
0
FX,Y (x + , y) FX,Y (x , y)
FX (x + ) FX (x )
dF
dFX,Y
(x, y)
(x, y)
dx
dx
=
=
.
fX (x)
fX (x)
D
efinition
La fonction de repartition de la variable conditionnelle Y |X = x, si elle existe, est egale `a
dFX,Y
(x, y)
FX=x (y) = dxfX (x)
.
ou
f (y|X = x)
d
f (x, y)
FX=x (y) =
.
dy
fX (x)
D
efinition
La fonction densite de la variable conditionnelle Y |X = x est
fX=x (y) =
f (x, y)
fX (x)
36CHAPTER 3. COUPLE DE VARIABLES ALEATOIRESCONTINUES
1 2
Th
eor`
eme de lesp
erance conditionnelle
Z +
E(X) =
E(X|Y = y)fY (y) dy
Preuve :
+
f (x, y)
E(X|Y = y) =
x fY =y (x)dx =
x
dx.
f (y)
Z +
Z + Z+ Y
E(X|Y = y)fY (y)dy =
x f (x, y)dy dx
Z + Z +
=
x(
f (x, y)dy)dx .
|
{z
}
fX (x)
3.3.1
Ind
ependance en probabilit
e
covariance-co
efficient de corr
elation
Comme dans le cas des variables discr`etes, intuitivement on peut penser que
X et Y sont independantes si et seulement si tout evenement lie `a X est
independant de tout evenement lie `a Y .
37
d2
dxdy
Z Z
x
(1) (2)
f (u, v)du dv =
fX (u)du
fY (v)dv
f (x, y)
= fY (y) x, y tq fX (x) 6= 0
fX (x)
(3) (1) on a f (x, y) = fX (x) fY (y) x, y tq fX (x) 6= 0
(4) (1) pareil.
(1) (3) fX=x (y) =
Th
eor`
eme
Si X et Y sont independants alors
(1)
(2)
(3)
(4)
cov(X, Y ) = 0
(X, Y ) = 0
E(XY ) = E(X)E(Y )
V (X + Y ) = V (X) + V (Y ).
38CHAPTER 3. COUPLE DE VARIABLES ALEATOIRESCONTINUES
3.3.2
Fonction de 2 variables al
eatoires
Chapter 4
Loi Normale ou loi de Laplace Gauss - G
en
eralit
es
La loi Normale est une des distributions que lon rencontre le plus souvent
en pratique.
Cest la loi qui sapplique en general `a une variable qui est la resultante dun
grand nombre de causes independantes dont les effets sadditionnent et dont
aucune nest preponderante.
Exemple :
Diam`etres et poids de pi`eces fabriquees en serie.
Fluctuations accidentelles dune grandeur economique autour de sa tendance.
Historiquement elle apparat vers 1773 comme limite de la loi binomiale.
Gauss en 1809 et Laplace en 1812 lui donn`erent sa forme definitive.
4.1
D
efinition math
ematique
f (x) =
e 2
2
39
ERALIT
F (x) =
f (t)dt =
e 2
2
dt
caracteristiques
E(X) =
V (X) = 2
preuve :(T.D)
Propri
et
e1
X suit la loi N (, ) si et seulement si
X
suit la loi N (0, 1)
preuve : T.D.
x2
1
La loi N (0, 1) sappelle loi Normale centree reduite. f (x) = e 2 .
2
Elle est importante car la propriete signifie que tout calcul de probabilite
associe `a la loi N (, ) se ram`ene `a un calcul de probabilite associe `a la loi
N (0, 1) en faisant un changement de variable.
Propri
et
e2
X1 N (1 , 1 ), X2 N (p
X1 , X2 independantes,
2 , 2 ),
2
2
alors X1 + X2 N (1 + 2 , 1 + 2 )
preuve : (T.D.)
g
en
eralisation
4.2. CALCULS DE PROBABILITE
41
4.2
4.2.1
i=1
i=1
Calculs de probabilit
e
Calculs `
a partir de N (0, 1) : U
N (0,1)
ERALIT
F (u) '
Propri
et
e5
U N (0, 1)
P (|U| < u) = 2F (u) 1
ex : P (|U| < 1.96) = 2F (1, 96) 1 = 2.0, 9750 1 = 0, 95
Propri
et
e6
U N (0, 1)
P (|U| > u) = 2[1 F (u)]
4.2. CALCULS DE PROBABILITE
43
i.e
P (U u ) = .
Exemple
P (U < t) = 0, 01 u0,01 = 2, 3263
P (U < t) = 0, 96 u0,96 = 1, 7507
P (U < t) = 0, 975 u0,975 = 1, 96
(fractile tr`es important en statisP (U < t) = 0, 95 u0,95 = 1, 6449
tique inferentielle)
Ces calculs de fractiles seront particuli`erement utiles pour lobtention des
intervalles de confiance et realisation des tests.
4.2.2
Loi Normale qq N (, )
X N (, )
1er etape : se ramener `a la loi N (0, 1) : on sait que si X N (, ) alors
X
N (0, 1).
e
2 etape : Utiliser les tables 1 et 2.
3e etape : Donner le resultat.
X N (3, 2)
Calculer
P (X < 6, 24)
X 3
6, 24 3
P (X < 6, 24) = P
<
= P (U < 1, 62) = F (1, 62) =
2
2
0, 9474
ERALIT
Calculer P
(X < 1, 65)
X +4
er
< 1, 13
1 etape : P (X < 1, 65) = P
5
X +4
2e etape :
= U N (0, 1) P (U < 1, 13) = F (1, 13) = 0, 8708
5
e
3 etape : P (X < 1, 65) = 0, 8708
P (X > 4, 94) X N (2,
4)
X +2
er
1 etape : P (X > 4.94) = P
> 1, 735
4
2e etape : P (U > 1, 735) = 1 F (1, 735)
F (1, 73) = 0, 9582
or 1, 73 < 1, 735 < 1, 74
Par interpolation
F (1, 74) = 0, 9591
F (u) F (1, 73)
F (u) F (1, 74)
F (1, 74) + F (1, 73)
'
F (u) =
= 0, 9586
0, 05
0, 05
2
3e etape : P (X > 4, 94) = 1 0, 95865 = 0, 04135
X N (3, 2)
P (4 < X < 0)
er
1 etape : P (4 < X < 0) = P (0, 5 < X+3
< 1, 5)
2
e
2 etape : P (0, 5 < U < 1, 5) = F (1, 5) F (0, 5)
= F (1, 5) [1 F (0, 5)]
= F (1, 5) + F (0, 5) 1 = 0, 9332 + 0, 6915 1 = 0, 6247
3e etape : P (4 < X < 0) = 0, 6247
P (0 < X < 2)
P (X > 2)
X1
e
1 etape : P (0 < X < 2) = P [1/3 < 3 < 1/3] = P (|U| < 1/3)
P (X > 2) = P X1
> 1 = P (U > 1)
3
2e etape : P (|U| < 1/3) = 2F (1/3) 1
P (U > 1) = P (U < 1)
e
3 etape : Proba ' 0, 31
= 0, 675.
0, 5
0, 5
2e etape : P (U < u0,675 ) = 0, 675 u0,675 = 0, 4538
4.2. CALCULS DE PROBABILITE
3e etape : 2[x0,675 2] = u0,675 = 0, 4538 x0,675 = 2, 2269
45
ERALIT
Chapter 5
Condition dapplication de la
loi normale
5.1
5.1.1
Convergence en loi
D
efinition
(Xn )nN converge en loi vers une v.a. X ssi
lim Fn (x) = F (x)
n+
Fn : fonction de repartition de Xn
F : fonction de repartition de X
(notation : Xn X)
Propri
et
es
L
5.1.2
Convergence en probabilit
e
D
efinition
(Xn ) converge en probabilite vers X si et seulement si
> 0, P (|Xn X| > ) 0
n
(notation : Xn X)
Propri
et
e
la convergence en probabilite convergence en loi
La reciproque est fausse.
Th
e
or`
eme
P
E(Xn ) alors Xn
n+
Si
V (Xn ) 0
n+
.
5.2
49
Th
eor`
eme Loi faible des grands nombres
Soient (Xi )i=1,...,n n v.a independantes telles que
i=n
1X
Si
i et
n i=1 n+
i=n
1X
P
alors
Xi .
n i=1
E(Xi ) = i
V (Xi ) = i2
n
1 X 2
0,
n2 i=1 i n+
preuve :
n
1X
i
on
a
E(S
)
=
n
n
n i=1
1X
Soit Sn =
Xi .
n
n i=1
1 X 2
V (Sn ) = 2
0
n i=1 i
Sn
Fn p
5.3
Th
eor`
eme central-limit
Th
eor`
eme
Soient Xi i = 1, . . . , n n v.a independantes, de meme loi,
desperance et decart type ,
i=n
1X
alors si on pose X =
Xi , on a
n i=1
n(X ) L
N (0, 1).
Remarque
On avait montre que ce resultat etait vrai pour Xi N (, ) mais le
theor`eme central limit est beaucoup plus fort puisque cela est vrai pour
nimporte quelle loi : il nest pas necessaire de connaitre la loi de Xi pour
i=n
X
connaitre celle
Xi pour n grand!!
i=1
5.4
Th
eor`
eme
Soit X B(n, p),
X np
L
alors p
N (0, 1).
np(1 p)
n
X
Preuve : X =
Xi avec Xi B(1, p) la loi de Bernoulli.
i=1
ou
51
n > 30
p [0, 1 ; 0, 9]
Comment proc`ede t-on pour approcher une loi discr`ete par une loi continue ?
En effet pour les lois discr`etes, les probabilites sont concentrees en des points
et pour les lois continues tout point a une probabilite nulle !
Exemple : soit X B(100, 0, 4) alors X N (40, 4, 9)
Comment approche-t-on P (X = 50) ?
On fait ce quon appelle une correction de continuite
Proposition : correction de continuit
e
Soit X une v.a.d telle que E(X) = , (X) = et X() N
que lon approche par Y une
loi N (, ) alors
1
P (X < k) = P Y k
2
1
P (X k) = P Y k +
2
1
1
P (X = k) = P k Y k +
2
2
1
1
P (k1 X k2 ) = P k1 Y k1 +
2
2
Exemple : Dans une population bovine, on admet que la robe dun animal se
caracterise par la presence dun g`ene dominant S (robe unie) ou dun g`ene
recessif s (robe tachetee bleue).
Selon la theorie de Mendel un croisement danimaux heterozygotes (S, s)
(S, s) donne 3/4 robes unies et 1/4 robes tachetees bleues.
Sur un echantillon de 160 bovins issus de croisements (S, s) (S, s) on note
X = nombre danimaux ayant une robe tachetee bleue.
a) Determiner la loi de X
(X B(160, 1/4))
=F
=F
5.5
5,5
10,5
U
30
30
10,5
F 5,5
30
30
h
i
10,5
5,5
F
30
30
Th
eor`
eme
Si m 20 alors la loi de Poisson P(m) peut etre approximee par N (m, m).
X m L
N (0, 1).
m
La preuve rigoureuse peut se faire mais demande des connaissances en analyse mathematique.
On admettra le theor`eme.
5.6
Exercices
Exemple 1
Les gains mensuels en francs G dun representant sont supposes suivre une
loi Normale. Il a pu constater, sur un grand nombre de mois, la repartition
suivante des gains en F :
P (gain > 18000) = 4, 46%
P (15800 < gain 18000) = 93, 26%
P (gain 15800) = 2, 28%
1 - Calculer la moyenne et lecart type de G qui suit N (, ).
2 - Si on suppose que les gains du representant sont independants dun mois
`a lautre, quelle est la loi de proba de X = gain durant 3 mois ?
3 - P (X 53000) ?
Exercice 2
Un vigneron commercialise 2 types de vin :
5.6. EXERCICES
53