Professional Documents
Culture Documents
PROBABILITES ET STATISTIQUES
Troisième année : Filière Offshoring. Option : qualité logicielle
LAKHEL El Hassan
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi
www.ensasafi.ma
I Probabilités 4
1
3.6.7 La loi de Poisson de paramètre λ ∈]0, ∞[ . . . . . . . . . . . . . . . . 38
3.6.8 Le cas continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.6.9 La loi uniforme continue sur le segment [a, b] : . . . . . . . . . . . . . . 40
3.6.10 lois gaussiennes (ou lois normales) . . . . . . . . . . . . . . . . . . . . 40
3.6.11 La loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.7 Variables aléatoires indépendantes . . . . . . . . . . . . . . . . . . . . . . . . 43
3.8 Résumé du troisième chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.9 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
6 Théorèmes limites 77
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.2 Les différents types de convergence . . . . . . . . . . . . . . . . . . . . . . . . 77
6.2.1 La convergence en probabilité . . . . . . . . . . . . . . . . . . . . . . . 77
6.2.2 La convergence presque sûre . . . . . . . . . . . . . . . . . . . . . . . . 77
6.2.3 La loi faible des grands nombres . . . . . . . . . . . . . . . . . . . . . 78
6.2.4 La convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
6.3 Le théorème central limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
6.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
2
II Statistiques 84
3
Première partie
Probabilités
4
Chapitre 1
1.1 Introduction :
La théorie des probabilités est la science qui étudie les expériences aléatoires. On entend
par expérience aléatoire toute procédure ayant un ensemble bien défini de résultats mais dont
on ne sait pas dire à l’avance lequel va avoir lieu.
Le but du cours de probabilités est de modéliser des situations où intervient le hasard. On
aimerait pouvoir construire un cadre commun pour étudier des expériences aléatoires très
divers :
Exemples :
1. Le jet d’un dé,
2. Le jet successif de n pièces de monnaie,
3. La durée de vie d’une ampoule.
Ce cadre commun sera l’espace de probabilité. Il est composé de plusieurs ingrédients : un
univers qui décrit l’ensemble des issues possibles de l’expérience aléatoire, une tribu qui donne
l’ensemble des événements et une probabilité qui associe à chaque événement un nombre qui
donne la chance qu’à cet événement de se réaliser.
1.2 L’univers
Définition 1.1. L’ensemble des résultats d’une expérience aléatoire est appelé l’univers. On
le note généralement Ω.
Exemples : Dans chacun des exemples précédents, on a :
1. Ω = {1, 2, 3, 4, 5, 6}.
2. Ω = {P, F }n (pour n = 2, on a Ω = {P P, P F, F P, F F } = {P, F }2 ).
3. Ω = R+
Remarque :
On peut aussi modéliser des phénomènes aléatoires plus complexes. Donnons un exemple :
Etude d’une file d’attente. Des clients arrivent successivement d’une manière aléatoire et
forment ainsi une file d’attente devant un guichet. Le temps de service pour chaque client,
peut être également modélisé par une grandeur aléatoire. On étudie la longueur de la file
d’attente, en fonction du temps et des paramètres qui interviennent dans la modélisation, à
savoir la durée de service, le temps d’inter-arrivée des clients.
On se demande si la file à tendance à se diminuer ou au contraire à augmenter.
5
1.3 Evénements et opérations sur les événements
Définition 1.2. Un événement est une partie A de Ω, c’est un fait lié à une expérience qui
peut se produire ou non.
Exemples : Dans nos trois situations, A pourrait, par exemple, être :
1. A = {2, 4, 6} : ”obtenir un nombre pair.”
2. A = {P } × {P, F }n−1 : ” Le premier lancer est pile.”
3. A = [100, +∞[ : ”l’ampoule fonctionne plus de cent heures.”
1.4 Tribu
En général, on ne peut pas prendre toutes les parties de Ω comme événements, on doit se
limiter à des familles vérifiant certaines propriétés :
Définition 1.3. Soit Ω un ensemble. Une famille F de parties de Ω est appelée une tribu si
elle vérifie les propriétés suivantes :
i) Ω est un élément de F
ii) (stabilité par complémentaire) Si A est un élément de F, alors Ac est un élément de
F
iii) (stabilité par union dénombrable) Si les (Ai )i∈N sont des éléments de F, alors ∪i∈N Ai
est un élément de F.
Définition 1.4. Soit Ω un ensemble muni d’une tribu F, le couple (Ω, F) est appelé ensemble
mesurable, et les éléments de F sont appelés des événements.
♣ Exercice : Soit A une partie de Ω. Montrer que {∅, A, Ac , Ω} est une tribu sur Ω.
Remarque : Si Ω = R, la tribu habituellement utilisée est la plus petite tribu contenent tous
les intervalles ouverts. On l’appelle tribu borélienne et on la note B(R)
6
Proposition 1.5. Soit Ω un ensemble muni d’une tribu F, alors :
i) ∅ est dans F,
ii) Pour tout A et B de F, on a A ∩ B, A ∪ B A\B sont dans F.
iii) Si les (Ai )i∈N , sont des éléments de F, alors ∩i∈N Ai est un élément de F (stabilité
par intersection dénombrable).
Preuve.
i) ∅ = Ω et Ω ∈ F, donc ∅ ∈ F.
ii) A ∪ B ∈ F par définition.
A ∩ B = A ∪ B ∈ F car A ∪ B ∈ F
A\B = A ∩ B ∈ F d’après ce qui précède.
iii) ∩i∈N Ai = ∪i∈N Ai ∈ F.
2. Si Ω est fini, on peut remplacer ii) par ii)’ pour tout A, B de P(Ω) tels que A∩B = ∅,
P (A ∪ B) = P (A) + P (B).
Exemples :
1. Jet d’un dé : Ω = {1, 2, ..., 6}, les faces sont équiprobables. On prend F = P(Ω) et on
définit P par :
1
P ({1}) = P ({2}) = ... = P ({6}) = .
6
1
P ({2, 3}) = P ({2}) + P ({3}) = .
3
2. Jet d’une pièce de monnaie Ω = {P, F }, si la pièce est équilibrée, on choisit :
1
P ({P }) = P ({F }) = .
2
Attention ! Le mot probabilité désigne donc deux choses différentes : l’application et le
nombre associé par cette application à un événement. Le contexte permet en général de lever
toute ambiguı̈té.
♣ Exercice : Soit P1 et P2 deux probabilités sur un espace mesurable (Ω, F), et soit α ∈
[0, 1]. Montrer que P = αP1 + (1 − α)P2 est une probabilité sur (Ω, F).
7
Nous avons regroupé dans la proposition suivante les règles fondamentales auxquelles obéit
une probabilité :
Proposition 1.7. Soit (Ω, F, P ) un espace de probabilité.
i) P (∅) = 0
ii) si (Ai )1≤i≤n sont des éléments de F deux à deux disjoints, alors
n
[ n
X
P( Ai ) = P (Ai ).
i=1 i=1
8
v) On écrit A ∪ B comme la réunion disjointe A ∩ B c , A ∩ B et B ∩ Ac (vérifier et faire
un dessin), et on remarque que A est la réunion disjointe A ∩ B c , et A ∩ B, tandis que
B est la réunion disjointe A ∩ B et B ∩ Ac . On obtient donc :
P (A ∪ B) = P (A ∩ B) + P (A ∩ B c ) + P (B ∩ Ac )
= (P (A ∩ B c ) + P (A ∩ B)) + (P (A ∩ B) + P (B ∩ Ac )) − P (A ∩ B)
= P (A) + P (B) − P (A ∩ B).
Pour les trois derniers points, on construit à partir de la famille (Ai )i∈N une famille
(Bi )i∈N de la façon suivante :
i−1
[
B0 = A0 et ∀i ≥ 1, Bi = Ai \ ( Aj ),
j=0
♣ Exercice : Un dé a six faces, avec deux faces marquées 5. Donner un espace de probabilité
correspondant au lancer de ce dé.
Preuve.
⇒) Supposons qu’il existe une probabilité P sur (Ω, P(Ω)) telle que pour tout
i ∈ |[1, n]| pi = P ({ωi }). P P
On a : pi ≥ 0, ∀i ∈ |[1, n]| et ni=1 pi = ni=1 p({ωi }) = P (Ω) = 1.
De plus pour tout événement A ∈ P(Ω) :
X X
P (A) = P ({ωi }) = pi .
i/ωi ∈A i/ωi ∈A
9
⇐) Supposons que ½
∀i ∈ P
{1, 2, ..., n}, pi ≥ 0,
n
et i=1 pi = 1.
Donc P est une probabilité sur (Ω, P(Ω)) et par définition de P , P ({ωi }) = pi pour
tout i ∈ |[1, n]|.
Exemple : Un dé biaisé :
Ω 1 2 3 4 5 6
1 1 1 1 1
pi 3 6 12 12 4 p
Déterminer p pour que les pi définissent une probabilité. Calculer la probabilité que le résultat
du dé soit pair.
1.6.1 Equiprobabilité
Définition 1.9. On dit qu’il y a équiprobabilité, lorsque les probabilités de tous les événements
élémentaires sont égales.
On dit aussi que P est la probabilité uniforme sur (Ω, P(Ω)).
10
Proposition 1.10. S’il y a équiprobabilité, pour tout événement A, on a :
card(A) nb de cas f avorables
P (A) = =
card(Ω) nb de cas possibles
Preuve.
Dans un univers muni de l’équiprobabilité, de cardinal n, la probabilité d’un événement
élémentaire vaut n1 . En effet, posons α = pi . On a :
n
X n
X
1 = P (Ω) = pi = α = nα.
i=1 i=1
Donc α = n1 .
De plus, si A est un événement quelconque de P(Ω), on a :
X X 1 card(A)
P (A) = pi = = .
n n
i/ωi ∈A i/ωi ∈A
Exercice : Un sac contient deux boules blanches et trois boules noires. On tire une boule du
sac. Quelle est la probabilité qu’elle soit blache ?
On peut choisir deux modèles ; deux univers Ω1 , Ω2 peuvent modéliser le tirage aléatoire
précédent :
1) Ω1 = {B, N }, la probabilité P1 étant définie par
2 3
P1 ({B}) = , P1 ({N }) =
5 5
P1 n’est pas une probabilité uniforme.
2) On choisit Ω2 = {B1 , B2 , N1 , N2 , N3 }. Chaque boule du sac a la même probabilité d’être
tirée. On considère sur Ω2 la probabilité uniforme, que l’on note P2 .
1
P2 ({B1 }) = P2 ({B2 }) = P2 ({N1 } = P2 ({N2 } = P2 ({N3 }) = .
5
Soit A l’événement ”tirer une boule blanche”. Et on a :
card(A) 2
P2 (A) = = .
card(Ω) 5
3- Les permutations : Toutes suite de n éléments distincts choisis parmi les n éléments
d’un ensemble E est appelé permutation de n éléments. Le nombre total de permuta-
tions d’un ensemble de n éléments est n!.
11
Afin d’aborder les problèmes d’analyse combinatoire, rappelons les définitions et les pro-
priétés des coefficients Cnk et Akn .
Coefficient Cnk :
Cnk est un entier naturel qui est défini par
n!
Cnk = , 0 ≤ k ≤ n, avec (0! = 1)
k!(n − k)!
Cnk possède une interprétation très utile en pratique : Cnk est le nombre de façons de choisir
simultanément k éléments parmi n éléments.
Cnk est aussi le nombre de parties à k éléments distincts, pris dans un ensemble à n éléments.
Coefficient Akn :
Par définition :
n!
Akn = , 1 ≤ k ≤ n.
(n − k)!
(Akn est le nombre de façons de choisir successivement et sans remise k éléments parmi n
éléments).
Nous sommes à présent en mesure de préciser les trois modèles de base qui interviennent
fréquemment en pratique.
12
b. Modèle de tirage sans remise et sans ordre : Combinaison.
Un sac contient k boules différentes numérotées de 1 à k. On tire en une seule fois m
boules du sac m ≤ k. On choisit pour Ω l’ensemble des parties à m éléments. On a
card(Ω) = Cnm . On prend sur Ω la probabilité uniforme :
1
P ({ω}) = .
Cnm
Exemple : On distribue 4 cartes parmi 32, quelle est la probabilité p d’avoir 4 figures
(valet, dame, roi) ?
card(B) A22 2 1
P(A) = card(Ω) = 20 = 20 = 10 .
card(A) A23 6 3
P(B) = card(Ω) = 20 = 20 = 10 .
card(C) 12
P(C) = card(Ω) = 20 = 53 ,
card(C) = 2 × 3 × 2 = 12.
13
1.7 Résumé du premier chapitre
1. Phénomène aléatoire : Tout phénomène dans lequel intervient le hasad est dit
aléatoire ou stochastique. En revanche, si l’on est certain de l’évolution du phénomène,
on parle de phénomène déterministe.
P (A) = 1 − P (A).
14
1.8 Exercices
Exercice 1. Trois boules sont tirées d’un sac contenant des boules blanches et des boules
rouges. Soient les événements :
Exercice 4. On lance 2 dés équilibrés, l’un après l’autre, et on considère les événements
suivants :
A = “ le premier dé donne un résultat pair”
B = “ le deuxième dé donne un résultat impair”
C = “ les deux dés donnent des résultats de même parité”.
1) Calculer P (A ∩ B ∩ C) et P (A).P (B).P (C).
2) Calculer P (A ∩ B) et P (A).P (B).
Exercice 5. Dans un aquarium, il y a cinq poissons rouges trois poissons noirs et deux
poissons argentés. On pêche au hasard trois poissons. Calculer la probabilité des événements
suivants :
15
Exercice 6. Soit (Ω, B) un espace probabilisable ( B est l’ensemble des événements).
Pn p1 , p2 , ..., pn
sont n probabilités sur (Ω, B). λ1 , λ2 , ..., λn sont n réels positifs tels que i=1 λi = 1. On
pose
Xn
P = λi pi .
i=1
x
Exercice 7. Soit f l’application de R dans R définie par f (x) = 3 .
(1+x2 ) 2
Ω = {a, b, c}. Soit F une primitive de f sur R. ( F existe car f est continue).
α et β deux réels tels que 0 < α < β.
On considère l’application P de P(Ω) dans R définie par :
Rα Rβ
P {a} = 0 f (x)dx, P {b} = α f (x)dx, P {c} = 1 − F (β)
P {a, b} = P {a} + P {b}
P {a, c} = P {a} + P {c}
P {b, c} = P {b} + P {c}
P (Ω) = P {a} + P {b} + P {c}
P (∅) = 0
Exercice 8. Un jeu de toto foot consiste à prévoir les résultats de dix équipes de football
en inscrivant les prévisions sur une feuille réponse. Pour chaque match trois résultats sont
possibles : victoire d’une équipe, victoire de l’autre équipe, match nul. combien de chances
a-t-on de gagner si on a joué, d’abord une feuille et puis deus feuilles ?
Exercice 10.
Soit (Ω, A) un espace probabilisable et A un événement. On appelle fonction indicatrice
de l’événement A et on note IA la fonction définie sur Ω à valeurs dans {0, 1} définie par :
½
1 si ω ∈ A
IA (ω) =
0 si ω ∈ /A
6. Montrer que si A ⊆ B, IA ≤ IB .
Exercice 11. Soit (An ) une suite d’événements. On pose
\ [ [ \
lim sup An = ( Am ) et lim inf An = ( Am ).
n n
n m≥n n m≥n
16
1) Interpréter lim supn An et lim inf n An . Montrer que lim inf n An ⊆ lim supn An .
2) Montrer la propriété suivante :
X
Si P (An ) < +∞, alors P (lim sup An ) = 0.
n
n≥0
Exercice 12. Soit Γ = {B1 , ..., BN } une partition de Ω. On appelle tribu engendée par Γ
et on note BΓ la plus petite tribu contenant les éléments de Γ. Les Bn sont les “informations
élémentaires” qu’il est possible d’obtenir sur Ω.
3) En déduire que si H est une famille quelconque de parties de Ω, il existe une σ−algèbre
contenant H et qui est contenue dans toutes les tribus contenant H (ce qui revient à dire qu’il
existe une plus petite σ−algèbre contenant H notée σ(H)).
4) Soit d ∈ N∗ . On appelle tribu borélienne sur Rd la tribu engendrée par la famille O des
ensembles ouverts de Rd . On la notera B(Rd ). Ainsi B(Rd ) = σ(O). Montrer que :
σ(O) = σ(F),
17
Chapitre 2
Probabilités conditionnelles et
indépendance
2.1 Introduction
Il s’agit de définir la façon dont les probabilités affectées aux événements sont susceptibles
d’être modifiées par l’arrivée d’informations nouvelles. Une information est ici une affirma-
tion du type 00 l’événement A est réalisé 00 ou 00 l’événement B est réalisé 00 .
Exemple :
On lance une fois un dé cubique parfait dont les faces sont numérotées de 1 à 6.
Soit A l’événement : 00 on obtient un nombre inférieur ou égal à 5 00
et B l’événement : 00 on obtient un nombre supérieur ou égal à 3 00 .
Supposons que l’on sache que A est réalisé.
Le résultat du lancer est donc un élément de {1, 2, 3, 4, 5} et il y a 5 cas possibles.
B est réalisé si, et seulement si, ω ∈ {3, 4, 5}. Il y a donc 3 cas favorables pour que B soit
réalisé.
La probabilité que B soit réalisé sachant A l’est est 35 .
Or, on a P (A) = 56 et P (A ∩ B) = 36 , donc
3 P (A ∩ B)
= .
5 P (A)
18
• On a A ∩ B ∈ A donc P (A ∩ B) existe et on a aussi A ∩ B ⊂ A donc PA (B) ∈ [0, 1].
• Soit (Bn )n∈N une suite d’éléments 2 à 2 disjoints. On a :
∞
P (A ∩ (∪n≥0 Bn )) P (∪n≥0 (A ∩ Bn ) X P (A ∩ Bn )
PA (∪∞
n=0 Bn ) = = = .
P (A) P (A) P (A)
n=0
2. Si A, B ∈ A sont tels que P (A) > 0 et P (B) > 0, on a la propriété évidente mais très
utile suivante :
P (A ∩ B) = PB (A)P (B) = PA (B)P (A).
Théorème 2.2. (Formule des probabilités composées)
Soit (Ai )1≤i≤n une famille d’événements telle que P (A1 ∩ A2 ∩ ... ∩ An−1 ) 6= 0. Alors,
P (∩ni=1 Ai ) = P (A1 )PA1 (A2 )...PA1 ∩A2 ∩...∩An−1 (An ).
Preuve.
Voir TD.
Soit Bk (resp. Nk ) l’événement 00 le k ieme tirage donne une boule blanche 00 (resp. noire).
Soit A l’événement 00 on obtient 3 boules blanches 00 .
A = B1 ∩ B2 ∩ B3 .
D’après la formule des probabilités composées, on a :
19
Définition 2.3. Une suite finie ou non (Bn )n∈I⊆N d’événements de Ω est appelée une
partition de Ω si les Bn sont deux à deux disjoints et si leur réunion est égale à Ω.
On a alors le théorème :
Preuve.
P (A) = P (A ∩ Ω) = P (A ∩ ∪n∈I Bn )
=PP(∪n∈I (A ∩ Bn )) P
= n∈I P (A ∩ Bn ) = n∈I PBn (A)P (Bn ).
Exemple On effectue des tirages sans remise dans un sac contenant 3 boules blanches et 7
boules noires.
Quelle est la probabilité d’obtenir une boule noire au deuxième tirage ?
Le premier tirage a donné soit une boule blanche soit une boule noire, donc :
On a
3 7
P (B1 ) = , et P (N1 ) = .
10 10
À l’issue du premier tirage, le sac ne contient que 9 boules dont 7 noires si B1 a été réalisé
et 6 boules noires si c’est N1 qui a été réalisé. Donc :
7 6
PB1 (N2 ) = et PN1 (N2 ) =
9 9
D’où :
3 7 7 6 7
P (N2 ) = × + × = .
10 9 10 9 10
Théorème 2.5. (Formule de Bayes) Soit (Ω, A, P ) un espace probabilisé, soit (Bk )nk=1 une
partition de Ω telle que P (Bk ) > 0, pour tout k ∈ {1, ..., n} :
PB (A)P (Bk )
PA (Bk ) = P k
n PBn (A)P (Bn )
Preuve. On a :
X
PBk (A)P (Bk ) = PA (Bk )P (A) = PA (Bk ) PBn (A)P (Bn ).
20
Interprétation : Soient (Bk )nk=1 une partition de Ω.
A chacun des événements (Bk ) correspond une information initiale qui permet d’évaluer a
priori (en partant de ce qui précéde) les probabilités P (B1 ), P (B2 ),...,P (Bn ).
Soit A un événement quelconque pour lequel on connaı̂t a priori les probabilités condition-
nelles PB1 (A), PB2 (A),..., PBn (A).
Le théorème de Bayes permet de calculer les probabilités conditionnelles a posteriori( en
partant de ce qui vient) PA (Bk ) à partir des probabilités a priori les P (Bk ) et les PBk (A).
Exemple : Reprenons l’exemple précédent et effectuons deux tirages. Le second tirage ayant
donné une boule blanche, quelle est la probabilité que la première boule tirée ait été blanche ?
Cherchons PB2 (B1 ) :
PB2 (B1 ) = P (B 2 ∩B1 )
P (B2 )
P (B1 )PB1 (B2 )
= P (B1 )PB1 (B2 )+P (N1 )PN1 (B2 )
3
× 29
= 3
10
× + 7 ×3
2 = 29 .
10 9 10 9
1. On prélève une pièce au hasard. Quelle est la probabilité qu’elle soit défectueuse ?
2. On prélève une pièce. Elle est défectueuse. Quelle est la probabilité qu’elle vienne de
A?
3. On prélève une pièce. Elle est saine. Quelle est la probabilité qu’elle vienne de C ?
Solution :
Soit A : ”être fabriqué par A”, B : ” être fabriqué par B”,...
D : ” être défectueuse” et D : ”saine”.
On a
P (A) = 0.4, P (B) = 0.3, P (C) = 0.3.
A, B et C sont tels que A ∩ B = A ∩ C = B ∩ C = ∅ et A ∪ B ∪ C = Ω.
1) En applicant la formule des probabilités totales on a :
21
Définition 2.6. Soit (Ω, A, P ) un espace probabilisé.
1. Deux événements A et B sont dits indépendants si :
P (A ∩ B) = P (A)P (B).
2. Une suite finie (Ai )i∈{1,2,...,n} d’événements est dite mutuellement indépendante si,
pour toute partie non vide I ⊂ {1, 2, ..., n}, on a
Y
P (∩i∈I Ai ) = P (Ai )
i∈I
3. Une suite finie ou non (Ai ) d’événements est dite indépendante deux à deux si, on a
Remarques :
P (A ∩ Ac ) = P (∅) = 0.
Et
P (A)P (Ac ) = P (A)(1 − P (A)) 6= 0 en général.
♣ Exercice Soit A et B deux événements. Montrer que si A et B sont indépendants, alors
Ac et B (resp. A et B c , Ac et B c ) sont indépendants.
22
et
G 0 = {∅, Ω, {ω1 , ω3 }, {ω2 , ω4 }}.
Alors G et G 0 sont deux sous tribus de A indépendantes.
♣ Exercice : Si deux tribus A1 et A2 sur (Ω, A, P ) sont indépendantes et ayant un élément
commun A, on a :
P (A) = 0 ou 1.
On a :
P (A ∩ A) = P (A)2 = P (A).
D’où
P (A) = 0 ou 1.
On note An l’événement 00 pile apparait au n-ième lancer 00 . On sait par les hypothèses
que les (An )n∈N∗ sont indépendants et que P (An ) = p > 0 pour tout n.
On note A l’événement 00 pile apparait au mois une fois 00 . Alors
Ac = ∩n≥1 Acn
23
2.5 Résumé du deuxième chapitre
1. Ce qui concerne les probabilités conditionnelles
Probabilité sachant B : si PB (A) = P P(A∩B)
(B) .
Partition de Ω : (B1 , B2 , ..., Bn ) est une partition de Ω si
Ω = ∪ni=1 Bi
et si Bi ∩ Bj = ∅ chaque fois que i 6= j (càd que les Bi sont deux à deux disjoints).
Principe des probabilités totales : si (B1 , B2 , ..., Bn ) est une partition de Ω telle
que P (Bi ) > 0 pour tout i, on a :
n
X
P (A) = PBi (A)P (Bi ).
i=1
Formule de Bayes : si (B1 , B2 , ..., Bn ) est une partition de Ω telle que P (Bi ) > 0
pour tout i, on a :
PBk P (Bk )
PA (Bk ) = Pn .
i=1 PBi (A)P (Bi )
2. Ce qui concerne l’indépendance
Dans un espace probabilisé (Ω, A, P ), deux événements A et B sont indépendants si :
P (A ∩ B) = P (A)P (B).
Cette notion est plus forte que l’indépendance deux à deux. Par exemple, il peut arriver
que trois événements A, B et C soient deux à deux indépendants, mais ne vérifient
pas la condition supplémentaire P (A ∩ B ∩ C) = P (A)P (B)P (C) pour l’indépendance
mutuelle.
24
2.6 Exercices
Exercice 3.
Un test sanguin a une probabilité de 0.95 de détecter un certain virus lorsque celui ci est
effectivement présent. Il donne néanmoins un faux résultat positif pour 1% des personnes
non infectées. Notons V = {la personne testée a le virus}, T = {la personne testée a un test
positif}.
1. Si 0.5% de la population est porteuse du virus, quelle est la probabilité qu’une personne
ait le virus sachant qu’elle a un test positif ?
2. Interpréter le résultat.
Exercice 4.
T
1. Soit n ≥ 2, Etablir que, si (A1 , ..., An ) est une suite d’événements telle que P ( ni=1 Ai ) >
0, alors
\n Yn
P ( Ai ) = P (A1 ) P∩i−1 Ak (Ai ).
k=1
i=1 i=2
25
(Indication : On pourra raisonner par rucurrence sur n).
Exercice 5.
Un sac contient initialement une boule blanche et une boule noire. On réalise indéfiniment
l’expérience suivante : on tire une boule, on regarde sa couleur, on la remet dans le sac
et on rajoute une nouvelle boule de la même couleur que celle obtenue.
Notons X le nombre de tirage(s) nécessaire(s) avant d’obtenir une boule noire, avec la
convention X = 0 si on ne tire jamais de boule noire.
Notons Bi l’événement “On obtient une boule blanche au ieme tirage”.
+∞
X
(X = n) = 1.
n=1
Exercice 7. Pour juger de l’éfficacité d’une compagne publicitaire ayant porté sur un produit,
on a sondé 1500 personne ; 1000 dans la région du Nord et 500 dans la région du sud. Les
résultats sont :
26
2. Probabilité de connaı̂tre le produit et le consommer.
3. Probabilité de connaı̂tre le produit et ne pas le consommer.
4. Probabilité d’être du nord.
5. Quelle est la probabilité pour qu’une personne qui connaisse le produit soit consom-
matrice de ce produit ?
6. Quelle est la probabilité pour qu’une personne prise au hasard du sud ne connaisssent
pas le produit ?
Exercice 8.
guerre passe au-dessus de trois batteries antiaériennes. Chaque batterie a une chance sur trois
d’abattre l’avion. Quelle est la probabilité que l’avion soit abattu ?
Exercice 9.
Une usine s’adresse à deux fournisseurs A et B pour l’approvisionnement d’un composant
électronique. Le contrôle de conformité efféctué sur un échantillon aléatoire de composants
électroniques a donné la répartition suivante des pourcentages de défauts :
Fournisseur\ Répartition du nb de défauts 0 défauts 1 défauts 2 défauts
A 60 % 35% 5%
B 65% 25% 10%
Exercice 10.
Dans cet exercice on étudie une maladie rare qui atteint, disons 1 individu sur 1000 ( par
exemple la maladie de la vache foulle). On met au point un test pour détecter si un individu
est infecté par la maladie. Lorsqu’un individu est malade, le test a une prbabilité de 0.99 de
se révéler positif. Si un individu n’est pas porteur de la maladie, le test a une probabilité 0.98
de l’identifier comme tel.
On teste un individu est le rérultat est positif.
1) Quelle est la probabilité que l’individu ainsi testé soit effectivement infecté ?
2) Déduire que si on applique un tel test pour dépister la maladie de la vache foulle et qu’on
abat les vaches testées positives, on va déclencher un massacre inutile.
Exercice 11.
On considère n “ menteurs” I1 ,..., In . I1 reçoit une information sous la forme de “ oui” ou
“non”, la transmet à I2 , et ainsi de suite jusqu’à In et In l’annonce au monde. Chacun d’eux
transmet ce qu’il a entendu avec la probabilité p ∈]0, 1[, le contraire avec la probabilité 1 − p.
Les réponses des n personnes sont indépendantes.
On note Ak = “Ik transmet l’information initiale”, Bk = “Ik transmet ce qu’il a entendu” et
pk = P (Ak ).
1. a. Montrer que, pour tout k = 2, ..., n , Ak = (Ak−1 ∩ Bk ) ∪ (Ack−1 ∩ Bkc )
1. b. En déduire que, pour tout k = 2, ..., n, pk = 1 − p + (2p − 1)pk−1 .
2. Montrer que la suite (uk ) définie par uk = pk − 21 est géométrique1 de raison 2p − 1.
En déduire une formule explicite pour un puis pour pn .
3. Quelle est la limite de pn quand n −→ ∞ ? interpréter le résultat.
27
1
Rappel : Une suite (xk ) est géométrique de raison q si, pour tout k ∈ N, xk+1 − qxk = 0. Dans ce cas, on
a la formule explicite xn = x0 q n valable pour tout n ∈ N.
28
Chapitre 3
3.1 Introduction
Soit Ω l’univers associe à une expérience aléatoire. Il est parfois intéressant d’associer à
chaque ω un nombre réel, par exemple la somme des points obtenus lorsqu’on jette deux dés.
On est donc amené à étudier des applications de Ω dans R qui sont sous certaines conditions
appelées variables aléatoires réelles.
♣ Exercice : On lance deux dés équilibrés et on note X la somme des deux résultats. Décrire
un espace de probabilité correspondant à cette expérience aléatoire et définir précisément X.
29
et l’application
PX : B −→ [0, 1]
B 7−→ PX (B) = P (X −1 (B)) = P (X ∈ B)
définit une probabilité sur (E, B), appelée loi de X ou loi image de P par la variable
aléatoire X.
Preuve. Vérifions les trois axiomes des probabilités :
i) Il est clair que PX est à valeur dans [0, 1].
ii) PX (E) = P (X −1 (E)) = P (Ω) = 1.
iii) Si (Bi )i∈N est une suite d’événements deux à deux disjoints, on a :
PX (∪∞
i=1 Ai ) = P (X
−1 (∪∞ A ))
i=1 i
=PP (∪i=1 X −1 (Ai )) (car X −1 (∪∞
∞ ∞
i=1 Ai ) = ∪i=1 X
−1 (A ))
i
= Pi∈N P (X (Ai ) (car Les (X (Ai )i∈N sont 2 à 2 disjoints)
−1 −1
= i∈N PX (Ai ).
♠ Attention : Ne pas confondre la variable aléatoire avec sa loi. Considérons un dé bleu et
un dé rouge, et notons Xb , respectivement Xr , le résultat du lancer du bleu, respectivement
rouge. Alors P (Xb 6= Xr ) > 0 ( En effet ;
6
[ 6 1
P (Xb = Xr ) = P ( (Xb , Xr ) = (k, k)) = = .
36 6
k=1
5
Donc P (Xb 6= Xr ) = 6 ).
Donc les variables aléatoires Xb et Xr sont différentes ; par contre,
elles ont la même loi.
Exemple :
On tire, avec remise chaque fois, deux boules d’un sac contenant 3 boules numérotées de 1
à 3.
Soit X la v.a. : ”Somme des points obtenus”. On a :
Ω = {1, 2, 3}2 et card(Ω) = 32 = 9. On a aussi :
X(Ω) = {2, 3, 4, 5, 6}.
D’où :
{X = 2} = {(1, 1)}, P (X = 2) = 19 .
{X = 3} = {(1, 2), (2, 1)}, P (X = 3) = 29 .
{X = 4} = {(1, 3), (3, 1), (2, 2)}, P (X = 4) = 39 = 13 .
{X = 5} = {(2, 3), (3, 2)}, P (X = 5) = 29
{X = 6} = {(3, 3)}, P (X = 6) = 19 .
On peut représenter les résultats sous forme d’un tableau :
xi 2 3 4 5 6
1 2 3 2 1
P (X = xi ) 9 9 9 9 9
On vérifie que
1 2 3 2 1
+ + + + =1
9 9 9 9 9
Remarque : La loi de X est déterminer par X(Ω) et des valeurs
pi = P (X = xi ) = PX ({xi }).
Pn
Autrement dit, la loi de X est l’ensemble des (xi , pi ) tels que pi ≥ 0 et i=1 pi = 1.
30
3.4 Cas des variables aléatoires réelles
Quand l’espace d’arrivée E d’une v. a. X est une partie de R, On dit que X est une v.
a. réelle.
P (X = x) = FX (x) − F (x− ).
Preuve.
1. L’encadrement 0 ≤ FX ≤ 1 vient du fait que P est à valeurs dans [0, 1].
On a :
∅ = ∩n∈N∗ {X ≤ −n}
et d’après la propriété de la continuité monotone, on a
Tandis que :
[
Ω= (X ≤ n) (d’après la propriété d’Archimid),
n∈N
Par suite :
1 = P (Ω) = lim P (X ≤ n) = lim FX (n)
n−→+∞ n−→+∞
1
] − ∞, x] = ∩+∞
n=1 ] − ∞, x + ].
n
1
(En effet, pour tout y ∈] − ∞, x], on a y ≤ x ≤ x + n pour tout n et donc
1
y ∈ ∩] − ∞, x + ].
n
31
Réciproquement, tout y dans cette intersection vérifié : ∀n ∈ N∗ , y ≤ x + n1 . Le passage
à la limite qd n tend vers l’infini conservant cette inégalité large.
On en déduit y ≤ x i.e. y ∈] − ∞, x].)
D’après la propriété de la croissance monotone,
PX = PY ⇐⇒ FX = FY .
32
♣ Exercice : Montrer les autres inéglités.
X(Ω) = {2, 3, 4, 5, 6}
On a :
xi 2 3 4 5 6
1 2 3 2 1
P (X = xi ) 9 9 9 9 9
Déterminons la fonction de répartition de X :
FX (x) = P (X ≤ x).
• Si x < 2, on a (X ≤ x) = ∅ =⇒ FX (x) = 0.
• Si 2 ≤ x < 3, on a (X ≤ x) = (X = 2) =⇒ FX (x) = P (X = 2) = 19 .
• Si 3 ≤ x < 4, on a (X ≤ x) = (X = 2) ∪ (X = 3), de plus les événements (X = 2) et
(X = 3) sont disjoints =⇒ FX (x) = P (X = 2) + P (X = 3) = 91 + 92 = 13 .
• Si 4 ≤ x < 5 , on a : FX (X) = 19 + 29 + 39 = 23 .
• Si 5 ≤ x < 6, on a Fx (x) = 23 + 29 = 89 .
• Si x ≥ 6, on a FX (x) = 1.
Dans ce cas, connaitre la loi de probabilité de X, c’est connaitre les probabilités élémentaires :
∀xi ∈ X(Ω) : P (X = xi ) = pi .
P
Remarque : Il est toujours utile de vérifier que pi ≥ et i∈I pi = 1.
33
♣ Exercice : Soit X une v.a. réelle dont la loi est définie par :
xi -1 1 2
1 1 1
pi 4 2 4
Déterminer la loi de Y = 2X + 1 et de Z = X 2 .
Solution :
On a l’univers image de Y est {−1, 3, 5}.
1
P (Y = −1) = P (X = −1) = .
4
1
P (Y = 3) = P (X = 1) = .
2
1
P (Y = 5) = P (X = 2) = .
4
De même , l’univers image de Z est {1, 4}. On a :
3
P (Z = 1) = P (X = −1) + P (X = 1) = .
4
1
P (Z = 4) = P (X = 2) = .
4
Remarques :
1. Soit X une v.a. de Ω dans {x1 , x2 , ..., xn }.
La fonction de répartition vérifie :
• x ∈] − ∞, x1 [, FX (x) = P (∅) = 0,
• x ∈ [x1 , x2 [, FX (x) = P (X ≤ x) = FX (x1 ) = P (X = x1 ) = p1 .
..
.
• x ∈ [xi , xi+1 [, FX (x) = p1 + p2 + ... + pi ( car {X ≤ x} = {X = xi ou X =
xi−1 ou ....ou X = x1 }).
• X ≥ xn , FX (x) = 1 = P (Ω).
2. Dans le cas discret, comme
FX (xi ) − FX (xi−1 ) = pi = P (X = xi ).
34
Définition 3.6. On dit qu’une v. a. r. X admet une densité s’il existe une fonction positive
fX : R −→ R
(FX )0 = fX .
X ∼ U{1,2,...,6} .
35
3.6.3 La loi de Bernoulli
Définition 3.8. La v. a. r. X suit la loi de Bernoulli de paramètre p ∈ [0, 1] si elle ne prend
que deux valeurs 0 et 1 avec :
P (X = 1) = p, P (X = 0) = 1 − p = q.
Exemple : On jette une pièce de monnaie qui tombe sur pile avec la probabilité p et on
définit X par X = 1 si on tombe sur pile et X = 0 sinon. X est une v. a. de Bernoulli.
Remarques :
1. Si X ∼ B(p), on peut toujours écrire
36
- Le nombre de ω tels que X(ω) = k est le nombre de suites de longueur n, formées
de k lettres S et (n − k) lettres E. Si la place de S est fixée, celle de E l’est aussi.
Ce qui revient à choisir k place parmi n soit Cnk .
D’où
P (X = k) = Cnk pk (1 − p)n−k , ∀k = 0, 1, ..., n.
Par exemple, si n = 5 , k = 3 et et ω0 = (S, E, E, S, S). On a choisi ω0 tel que
X(ω0 ) = 3. Les résultats sont indépendantes :
P ({ω}) = pk (1 − p)n−k .
♣ Exercice .
Un couple souhaite avoir exactement n enfants (n ∈ N∗ ). On considère qu’à chaque naissance
l’ensemble des possibilités est Ω = {G, F } : G étant l’événement ”avoir un garçon“ et F étant
l’événement ”avoir une fille“, ces 2 événements étant équiprobables.
On considère que les naissances sont indépendantes.
A la ieme naissance, on associe la variable aléatoire discrète Xi de Bernoulli, qui prend la
valeur 1 si G est réalisé, et la valeur 0 sinon. Soit X = X1 + ... + Xn .
Solution :
1-a. X ∼ B(3, 12 )
1 3
P (X = 3) = P (X = 0) = , P (X = 2) = P (X = 1) = .
8 8
1-b. La fonction de répartition de X :
37
3.6.5 Le cas dénombrable
On rappelle qu’un ensemble Ω est dit dénombrable si et seulement si il existe une bijection
de N dans Ω. Un ensemble dénombrable est donc un ensemble dont on peut numéroter les
éléments.
X ∞
X 1
rn converge ⇐⇒ |r| < 1 et alors rn = .
1−r
n∈ N n=0
Exemple : On lance une pièce de monnaie - qui tomble sur pile avec la probabilité p- jusqu’à
ce qu’on tombe sur pile et ci on note X le nombre de lancers effectués, la v. a. X suit la loi
géométrique de paramètre p.
En effet, soit (Xk )k∈N une suite de v. a. de bernoulli indépendante et de même loi B(p)
Remarque : Le fait que la somme des probabilités fasse 1 vient de la formule de sommation
de la série exponentielle :
X λn X λn
∀λ ∈ R, converge et = exp(λ).
n! n!
n∈ N n∈ N
Champs d’applications : C’est la loi qu’on obtient en comptant des événements aléatoires
indépendants :
1. Arrivée des particules sur un capteur,
2. Nombre de clients entrant dans un magasin,
3. comptage de voiture sur une route,
4. Etude d’attente dans les réseaux dec communication...
Exemple : On supppose que le nombre de clients entrant dans un magasin un jour donné
est une variable aléatoire de Poisson de paramètre λ = 12. Quelle est la probabilité de ne pas
tomber en dessous de 250 entrées de clients durant un mois de 22 jours ouverables ?
(On suppose que les v. a. comptant le nombre d’entrées de chaque jour sont indépendantes.)
38
Soit X le nombre de clients entrant dans le magasin durant un mois de 22 jours ouverables.
On a X = X1 + X2 + ... + X22 , avec les Xi sont i.i.d. et Xi ∼ P(12).
Donc,
X ∼ P(12 × 22) = P(264).
249
X (264)i
P (X ≥ 250) = 1 − P (X < 250) = 1 − e−264 = 0, 813.
i!
i=0
λk
lim P (Xn = k) = e−λ .
n−→∞ k!
Preuve. On a
P (Xn = k) = Cnk pkn (1 − pn )n−k
n! npn −k (npn )k npn n
= (n−k)!nk
(1 − n ) k! (1 − n )
xn n
De la limite bien connue limn−→∞ (1 + n ) = ex valable qd xn −→n−→∞ x.
On en déduit que :
λk
lim P (Xn = k) = e−λ .
n−→∞ k!
Remarque : En pratique, on remplace la loi binomiale par la loi de Poisson P(np) dès que :
n > 50 et p < 0, 1. Plus p est petit l’approximation est meilleure.
Exemple : Un jeu de tombola comptant 100 billets ait lieu pendant 100 jours. Chaque
tombola ne compte qu’un billet gagnant. Une personne décide de participer au jeu en achetant
un billet par jour. Notons X le nb de fois où elle gagne pendant ces 100 jours. Calculer la
probabilité des événements suivants :
Soit
1
X ∼ B(100, ) et Y ∼ P(1).
100
D’après la proposition précédente, on ne se retrompe pas beaucoup en approximant la loi de
X par celle de Y .
Voici une comparaison numérique pour les petites valeurs de k.
k 0 1 2 3
P(X=k) 0.3660 0.3697 0.1849 0.0794
P(Y=k) 0.3679 0.3679 0.1839 0.0803
L’intérêt de cette approximation est que les calculs des probabilités liées à la loi de Poisson
sont plus faciles à effectuer.
39
3.6.8 Le cas continu
3.6.9 La loi uniforme continue sur le segment [a, b] :
Définition 3.13. Une v.a.r. x est dite uniforme sur l’intervalle [a, b] (avec b > a) si elle
admet pour densité :
½ 1
1 b−a si a ≤ x ≤ b,
f (x) = 1 (x) =
b − a [a,b] 0 sinon.
Champs d’applications : La loi gaussienne est la lois la plus utilisée en théorie des
probabilités et en statistique. Cela est dû au caractéristiques suivantes :
1. Elle permet des développements mathématiques efficaces.
2. Toute l’information est donnée directement par les paramètres m et σ, qui caractérisent
respectivement la valeur moyenne et la dispersion autour de cette valeur moyenne.
3. C’est la loi qu’on obtient naturellement en additionnant un grand nombre de v. a.
indépendantes (voir théorème central limite-ch. 7).
40
4. La plupart des lois de probabilité intervenant dans les tests statistiques comme la loi
χ2 et la loi de student se déduisent de la loi gaussienne par des transformations simples.
n
X
χ2 = Xi2 avec Xi ∼ N (0, 1) et sont indépendantes
i=1
5. Elle présente un grand nombre de phénomènes aléatoires comme les erreurs liées aux
mesures, la fluctuation des prix, la distribution des tailles de personnes choisies au
hasard dans une population donnée, les variations de la longueur des pièces fabriquées
en série, etc...
Exemple : On suppose que la taille des individus suit une loi normale de paramètres m et
σ.
Sachant que 4% des individus mesurent moins de 160 cm et 11% mesurent plus de 180 cm.
Quelle est la valeur de m et σ ?
Solution : On pose :
X −m
Z= .
σ
On a, d’après Exo 11 série no 3, Z ∼ N (0, 1).
D’où :
160 − m 160 − m
P (X ≤ 160) = P (Z ≤ ) = π( ).
σ σ
Or 4% des individus mesurent moins de 160 cm, donc :
160 − m
π( ) = 0, 04.
σ
On a aussi 96% des individus mesurent plus de 160 cm, d’où
m − 160
π( ) = 0, 96.
σ
La table de la loi N (0, 1) donne : m−160
σ = 1, 76.
De même :
180 − m 180 − m
P (X > 160) = P (Z > ) = 1 − π( ).
σ σ
Or 11% des individus mesurent plus de 180 cm, d’où :
180 − m
π( ) = 0, 89.
σ
La table de la loi N (0, 1) donne : 180−m
σ = 1, 23.
D’où le système : ½ ½
m − 160 = 1, 76σ m = 172
=⇒
−m + 180 = 1, 23σ σ = 6, 7.
41
b. Soit (Ω, F, P ) un espace de probabilité quelconque et X une variable aléatoire de Ω
dans R. On dit que X suit la loi exponentielle de paramètre θ si et seulement si elle
admet pour densité le f défini précédemment.
Remarque 3.1. f est clairement borélienne (elle est C ∞ par morceaux), positive, et
Z Z ∞
f (x)dx = θ exp(−θx)dx = 1.
R 0
♣ Exercice : Montrer que la fonction de répartition de la loi exponentielle est donnée par :
Tracer la courbe de F.
Champs d’applications :
1. La loi exponentielle intervient en fiabilité pour modéliser la durée de fonctionnement
d’un équipement technique : par exemple la durée de vie d’un appareil électrique.
2. Elle intervient dans le domaine de la radioactivité : chaque atome radioactif possède
une durée de vie qui sui une loi exponentielle exp(θ), le paramètre θ s’appelle la
constante de désintégration.
3. Elle intervient aussi pour modéliser le temps séparant les arrivées de deux clients dans
l’étude d’un phénomène d’attente : Le temps d’attente T entre deux arrivées suit une
loi exponentielle de paramètre θ, et on a :
P (T > t) = exp(−θt).
Exemple : La fiabilité globale d’une carte électronique suit une loi exponentielle de paramètre
θ, avec θ = 12.10−6 h−1 . Pour un fonctionnement 24 heures sur 24 pendant 208 jours par an,
donnez la probabilité que cette carte électronique fonctionne encore au bout de ces 208 jours.
On a
t = 24 × 208 = 5000heures.
Soit X la durée de vie de cette carte électronique, on a
càd , la probabilité d’avoir une défaillance pendant la durée de fonctionnement de 5000h est
5, 8%. L’inérêt qu’on porte à cette loi est dû à la :
Proposition 3.16. Soit X une v. a. r. suivant la loi exp(θ), alors X vérifie la propriété
d’absence de mémoire :
42
Interprétation :
Si X modélise la durée de vie d’un individu A, la propriété que X est sans mémoire exprime
que A ne vieillit pas : si A a vécu t années, la probabilité pour qu’il vive encore s années est
la même que la probabilité pour qu’un individu similaire à A qui vient de naı̂tre vive lui aussi
s années. Autrement dit : La durée de vie au-delà de l’instant t est indépendante de l’instant
t.
P ({X = xi } ∩ {Y = yj }) = P (X = xi )P (Y = yj ).
43
3.8 Résumé du troisième chapitre
Les lois de probabilités théoriques essaient de décrire des phénomènes aléatoires dans le but
de calculer la probabilité de certains événements et donc d’avoir une certaine représentation
de l’avenir.
I. Lois discrètes :
1. Loi de Bernoulli B(p)
La loi de Bernoulli intervient dans le cas d’une seule expérience aléatoire à laquelle
on associe un événement aléatoire quelconque.
La réalisation de l’événement au cours de cette expérience est appelée succès et la
probabilité de réalisation est dite probabilité de succès, notée par p. Par contre la non
réalisation de l’événement est appelée échec et la probabilité de non réalisation de
l’événement est dite probabilité d’échec, noté par q = 1 − p.
44
4. Loi de Poisson P (m)
La loi de Poisson intervient pour des phénomènes aléatoires dont le nombre de
réalisations varie de 0 à +∞ et dont le nombre moyen de réalisations est connue.
Exemple : nb d’appels reçus par un standard téléphonique, nb d’accidents de la cir-
culation, nb de visiteurs d’un centre commercial...
La variable aléatoire X qui caractérise le nombre de réalisations de ce
phénomène est appelée variable de Poisson : elle prend les valeurs 0,1, ...
e−m mk
P (X = k) = .
k!
Théorème d’approximation Soit X une v.a. vérifiant X ∼ B(n, p), telle que
npn −→ m quand n −→ ∞.
II. Lois continues : La loi normale est la loi continue la plus importante et la plus
utilisée dans le calcul de probabilité. (Voir le cours).
X Très important !
Il faut connaı̂tre d’une part toutes les définitions des lois usuelles, mais aussi et surtout
savoir, en pratique, décider si le résultat X de mon expérience aléatoire a pour loi plutôt la
loi uniforme, la loi binomiale, la loi de Poisson, etc.
C’est la chose la plus dure à faire. Ensuite, tout ce que l’on peut vous demander (espérance,
variance, etc.) , ce n’est plus que des calculs.
45
3.9 Exercices
Exercice 1.
1. On lance un dé équilibré ; prenons Ω = {1, ..., 6}, on muni Ω de la tribu P(Ω). On
met sur P(Ω) la probabilité uniforme ( ce qui correspond au fait que le dé est équilibré).
Soit X la v.a. réelle définie par X(3) = X(6) = 1 et X(1) = X(2) = X(4) = X(5) = 0.
X indique si le numéro sorti est un multiple de 3.
Donner la loi PX de la v.a. X.
Exercice 3.
Un couple souhaite avoir exactement n enfants (n ∈ N∗ ). On considère qu’à chaque naissance
l’ensemble des possibilités est Ω = {G, F } : G étant l’événement ”avoir un garçon“ et F étant
l’événement ”avoir une fille“, ces 2 événements étant équiprobables.
On considère que les naissances sont indépendantes.
A la ieme naissance, on associe la variable aléatoire discrète Xi de Bernoulli, qui prend la
valeur 1 si G est réalisé, et la valeur 0 sinon. Soit X = X1 + ... + Xn .
Exercice 4.
On suppose que 5 % des pièces en sortie d’une chaine de production soient défectueuses.
1. Quelle est la probabilité qu’un échantillion de 20 pièces issu de cette chaı̂ne ne contienne
46
aucune pièce défectueuse ?
2. Quelle est la probabilité que la première pièce défectueuse ne soit pas l’une des 20
premières sorties de la chaı̂ne ?
Exercice 5.
Soit X1 , ..., Xn , n variables définies sur le même espace de probabilité, indépendantes et qui
suivent la même loi de Bernoulli B(p) de paramètre p, où p ∈]0, 1[. On note S la variable
aléatoire discrète qui vaut 0 si pour tout i ∈ {1, ..., n} Xi = 0, et qui vaut 1 dans le cas
contraire.
Déterminer la plus petite valeur de n pour que P (S = 0) ≤ 10−3 .
Application :
Un texte comporte une erreur. On relit ce texte n fois de manière indépendante, à chaque
fois, la probabilité de remarquer cette erreur est 21 . Déterminer la plus petite valeur de n pour
1
que la probabilité de ne pas avoir remarqué cette erreur soit ≤ 1000 .
Exercice 6.
Dans une pépinière 95% des fleurs sont supposées sans virus. Par commodité les fleurs sont
rangées par paquets de 2. Un paquet est dit sain si les deux fleurs le sont.
Exercice 7.
Une usine employant 30 personnes dont 4 ingénieurs, 10 techniciens et 16 ouvriers.
1. On choisit de façons successive 3 employés : calculer la probabilité d’avoir un employé
de chaque catégorie professionnelle.
2. On choisit de façon successive 3 employés et soit X la variable aléatoire qui représente
le nombre d’ingénieurs choisis. Donner la loi de probabilité de X.
47
Fig. 1 -Fonction de répartition F de la v.a. X
1. Pour tout x ∈ R, montrer que :
P (X = x) = F (x) − F (x−),
Exercice 10.
Soit (a, b) ∈ N∗2 ; a < b ; X est une variable aléatoire discrète de Ω dans N ∗ telle que :
∀x ∈ |[1, ab]| ; P (X = x) = a1 − 1b et P (X = x) = 0 ailleurs.
1) Déterminer une CNS sur a et b pour que les relations précédentes définissent effecti-
vement une loi de probabilité.
2) Dans ces conditions, tracer la représentation graphique de la fonction de répartition
FX de X.
1. Déterminer la constante k de telle sorte que f (x) puisse être considérée comme la
densité de probabilité d’une v.a. continue U .
Π(−z) = 1 − Π(z)
où m et σ sont des réels non nuls. Déterminer la densité de probabilité g(x) de X.
5. Montrer que par le changement de variable z = x−m σ toutes les varibles aléatoires
normales N (m, σ) se ramèment à la loi normale centrée réduite U .
6. Application : Le stock journalier d’un produit destiné à un atelier suit une loi nor-
male de moyenne 120 pièces et d’écart type 50 pièces.
48
a. Calculer la probabilité pour que le nombre de pièces en stock soit compris entre 80
et 160.
b. Calculer la probabilité pour que le nombre de pièces en stock soit supérieur à 200.
c. Calculer la probabilité pour qu’il y ait rupture de stock.
d. Interpret́er ces résultats.
On donne
Exercice 13.
Environ 5% des réservations aériennes sur une ligne donnée ne sont pas utilisées, et c’est
pourquoi une compagnie vend 100 billets pour 97 places.
Quelle est la probabilité pour que tous les passagers aient une place ? Faire le calcul exact
(avec une loi binomiale), et le calcul approché (avec une loi de Poisson).
Exercice 14.
Soit X une v. a. uniforme sur [−1, +1].
1. Montrer que la loi géométrique de paramètre p est sans mémoire : c’est à dire que
P (X > k + n/X > n) est indépendante de n.
2. Caractériser toutes les lois des variables aléatoires X à valeurs dans N∗ qui sont sans
mémoire. On pourra calculer P (X > 1 + n) en fonction de P (X > 1).
3. Caractériser toutes les lois des variables aléatoires X à valeurs dans N qui sont sans
mémoire.
1
Cet exercice constitue le sujet d’un devoir libre.
49
Chapitre 4
Soit X une v. a. r. discrète prenant ses valeurs dans l’ensemble {xi }i∈I , I ⊂ N. En
regroupant les ω pour lesquels X prend la même valeur, on obtient
X X
E(X) = xi P (X = xi ), car P (X = xi ) = P ({ω})
i∈I ω/X(ω)=xi
Nous allons définir le concept de probabilité d’une v. a. r., qui, représentera sa valeur
moyenne.
P
Définition 4.1. 1. On dit que X est intégrable si la somme i∈I |xi |P (X = xi ) converge.
2. Si X est intégrable, son espérance est donnée par :
X X
E(X) = xi P (X = xi ) = xP (X = x).
i∈I x∈X(Ω)
P
Remarques : 1) La somme i∈I |xi |PX (xi ) est soit une somme finie (si X(Ω) est fini)
et dans ce cas, l’espérance existe toujours, soit une série à terme positifs (si X(Ω) est une
50
partie dénombrable infinie), et dans ce cas, la série peut être divergente et avoir une somme
égale à +∞.
Rappelons que dans le cas d’une série à termes positifs, la suite des sommes partielles est
croissante, et deux cas se présentent donc :
- soit la suite de ces sommes partielles est majorée et la série est convergente ;
- soit la suite de ces sommes parielles tend vers +∞ et la série diverge vers +∞.
Exemples :
1. Si X est une v.a. constante X = c, alors E(X) = c.
2. Soit X une v.a. discrète dont la loi est donnée par :
x 2 3 4 5 6
1 2 3 2 1
P(x=x) 9 9 9 9 9
1 2 3 2 1
E(x) = 2 × + 3 × + 4 × + 5 × + 6 × = 4.
9 9 9 9 9
3. Soit X une v.a. de Bernoulli de paramètre p.
On a X = 1A , alors E(X) = E(1A ) = P (A) = p.
En effet, X(Ω) = {0, 1}.
On a {X = 1} = A = {ω/X(ω) = 1}.
Donc
E(X) = 0.P (X = 0) + 1 × P (X = 1)
= P (X = 1) = P (A).
Remarque : Si pour tout i ∈ I, on a : a ≤ xi ≤ b, on a :
a ≤ E(X) ≤ b,
car X X
aP (X = xi ) ≤ E(X) ≤ bP (X = xi )
i∈I i∈I
P
et comme i∈I P (X = xi ) = 1, on a le résultat.
En particulier, si X ≥ 0, alors E(X) ≥ 0.
où
Ij = {i/g(xi ) = yj }.
51
Donc :
P P P
E(Y ) = m
j=1 yj P (Y = yj ) = m j=1 yj [ i∈Ij P (X = xi )]
P P P P
= m
j=1 [ i∈Ij yj P (X = xi )] = m j=1 [ i∈Ij g(xi )P (X = xi )]
P
= i∈I g(xi )P (X = xi ), car (Ij )1≤j≤m est une partition de |[1, n]|.
Remarque :
1. Si g = id, on retrouve la formule donnant l’espérance.
2. Si la fonction g est bornée, la formule pour E(g(X))est valable sans aucune condition.
Preuve.
1. La démonstration repose sur un schéma classique : on montre d’abord la linéarité pour
les v. a. simples, puis par approximation, pour les v. a. positives, et finalement, pour
toutes les variables aléatoires intégrables en utilisant que E(X) = E(X + ) − E(X − ).
(Hors programme).
52
2. Clair par définition de l’espérance d’une variable aléatoire. On déja démontré le
rérultat dans le cas discret. Noter aussi que si X ≤ Y , alors Y − X ≥ 0.
mk (X) = E(X k ).
V ar(X)
P (|X − E(X)| > a) ≤ .
a2
En pratique, on utilise la
Proposition 4.8. Soit X une v. a. r. admettant un moment d’ordre 2. On a :
53
La variance vérifie également les propriétés suivantes :
Proposition 4.9. Soit X une v. a. r. admettant un moment d’ordre 2. On a :
1. V ar(aX + b) = a2 V ar(X), pour tout a, b ∈ R.
2. V ar(X) = 0 si et seulement si X est une constante.
Preuve.
1. Laissée en exercice.
2. Cela repose sur le résultat important suivant : si Z est une v. a. r. positive telle que
E(Z) = 0, alors Z = 0. En effet, on a
1
Z≥ 1 1 .
n {Z≥ n }
Donc P (Z ≥ n1 ) = 0 pour tout n ∈ N∗ .
On a aussi,
P (Z > 0) = P (∪n {Z ≥ n1 })
= limn−→∞ P (Z ≥ n1 )
= limn−→∞ 0 = 0.
Il suffit d’appliquer ce résultat à Z = (X − E(X))2 .
E(X)
P (X > a) ≤ .
a
Preuve.
Elle découle de l’inégalité X ≥ a1X>a et de la positivité de l’espérance.
54
4.5.3 L’inégalité de Jensen
Proposition 4.12. Soient X une v. a. r. intégrable, et g : R −→ R une fonction convexe
telle que la v. a. r. g(X) soit intégrable. Alors :
g(E(X)) ≤ E(g(X)).
Preuve.
La convexité de g assure qu’en tout point son graphe est au-dessus de sa tangente : Pour tout
t ∈ R, il existe δ (on peut prendre pour δ gd0 (t) ou gg0 (t)), tel que :
g(E(X)) ≤ E(g(X)).
Preuve.
• On a X = 1A où A = {ω/X(ω) = 1}.
Donc
E(X) = P (A) = p,
et
V ar(X) = E(X 2 ) − E(X)2 = p(1 − p).
55
Proposition 4.15. Soit X une v. a. binomiale B(n, p) de paramètres n et p. Alors, on a :
Preuve.
Soit X le nombre de succès obtenus au cours de la réalisation de n épreuves indépendantes
de Bernoulli de paramètre p.
Donc
X = X1 + X2 + ... + Xn avec Xi ∼ B(p).
En utilisant la linéarité de l’espérance :
V ar(X1 +...+Xn ) = V ar(X1 )+...+V ar(Xn ) si les (Xi ) sont indépendantes ( voir chapitre 6).
D’où
V ar(X) = V ar(X1 ) + ... + V ar(Xn ) = np(1 − p).
E(X) = λ et V ar(X) = λ.
Preuve.
•
+∞
X +∞
X λn−1
E(X) = nP (X = n) = λe−λ = λ.
(n − 1)!
n=0 n=1
•
+∞
X +∞
X
E(X 2 ) = n2 P (X = n) = n2 P (X = n) + P (X = 1).
n=0 n=2
λ1 0 n−1
Or, n2 = n(n − 1) + n et P (X = 1) = e−λ 1! = e−λ λλ
0! = e
−λ λλ
(n−1)! pour n = 1,
et
+∞
X +∞
X +∞
λn−2 −λ X −λ λn−1
n2 P (X = n) = λ2 e + λe
(n − 2)! (n − 1)!
n=2 n=2 n=2
Donc,
+∞
X +∞
X
λn−2 −λ λn−1
E(X 2 ) = λ2 e−λ e + λe−λ = λ2 + λ.
(n − 2)! (n − 1)!
n=2 n=1
Donc,
V ar(X) = E(X 2 ) − E(X)2 = λ2 + λ − λ2 = λ
56
Proposition 4.18. Si X ∼ U[a,b] , a, b ∈ R, a < b. Alors, on a :
a+b (b − a)2
E(X) = et V ar(X) = .
2 12
Remarque : La définition est la même pour les intervalles ]a, b[, [a, b[, ..., (car U[ a, b] est
absolument continue).
Preuve.
• Z +∞ Z +∞
x 1 x2 b b+a
E(X) = xf (x)dx = dx = [ ]a = .
−∞ −∞ b − a b−a 2 2
• Z +∞
1 b3 − a3
E(X 2 ) = x2 f (x)dx =
−∞ 3 b−a
Donc,
1 b3 − a3 (a + b)2 (b − a)2
V ar(X) = − = .
3 b−a 4 12
57
Proposition 4.20. Soit X ∼ E(θ), θ > 0. Alors, on a
1 1
E(X) = et V ar(X) = .
θ θ2
Preuve. Laissée en exercice.
Théorème 4.22. Soit X une variable aléatoire réelle définie sur un espace de probabi-
lité (Ω, F, P ). Sa fonction caractéristique ϕX est uniformément continue sur R, de module
inférieur ou égal à 1,et vérifie ϕX (0) = 1.
Preuve. R R R
1. |ϕX (t)| = | Ω eitx dPX (x)| ≤ Ω |eitx |dPX (x) = Ω 1dPX (x) = PX (Ω) = 1.
2. ϕX (0) = E(ei0X ) = E(1) = 1
58
3. Découle du théorème de la convergence dominée :
Et on prend le supt .
Théorème 4.23. Soit X une variable aléatoire réelle telle que E(|X|m ) < +∞, avec m ≥ 1.
Alors ϕX est m-fois dérivable sur R et
dm ϕX
(t) = im E(X m eitX ).
dtm
et, en particulier
(k)
ϕX (0) = ik EX k .
Preuve. Découle du théorème de dérivation d’une intégrale dépendant d’un paramètre :
Puisque
dk itX
(e ) = (iX)k eitX ,
dtk
on a
dk itX
|(e )| ≤ |X|k ,
dtk
et on peut appliquer m fois le théorème de dérivation d’une intégrale dépendant d’un pa-
ramètre.
2. Si X a pour densité f , Z
ϕX (t) = eitx f (x)dx.
R
59
♣ Exercice : Dans tous les exemples qui suivent, retrouver espérance et variance en dérivant
la fonction caractéristique.
• Loi de Bernoulli de paramètre p
X
ϕX (t) = eitx P (X = x) = eit P (X = 1) + ei0 P (X = 0) = peit + 1 − p.
x∈X(Ω)
1
Ra itx dx 1
Ra Ra
= 2a −a e = 2a ( −a cos(tx)dx +i −a sin(tx)dx)
1
Ra 1 1 sin(at)
= 2a −a cos(tx)dx = 2a [ t sin(tx)]a−a = at .
• Loi normale centrée réduite :
Méthode par équation différentielle
R R
ϕX (t) = R eitx fX (x)dx = R eitx √12π exp(−x2 /2)dx
R 1 2 1 2
R 1 2
R
= R cos(tx) √2π exp(−x /2)dx + i R sin(tx) √2π exp(−x /2)dx = R cos(tx) √2π exp(−x /2)dx.
Comme la loi normale admet des moments de tout ordre, on peut dériver ϕX :
R d R
ϕ0X (t) = R dt (cos(tx)) √12π exp(−x2 /2)dx) = R (−x sin(tx)) √12π exp(−x2 /2)dx
R 1 2
= − R t cos(tx)) √2π exp(−x /2)dx) (par IPP)
= −tϕX (t).
On a donc établit une équation différentielle linéaire satisfaite par ϕX (t) : donc
∀t ∈ R, ϕX (t) = Cexp(−t2 /2), et ϕX (0) = 1 = C.
Donc ∀t ∈ R, ϕX (t) = exp(−t2 /2).
Méthode par prolongement analytique
Soit λ ∈ R : R
E(exp(λX)) = R exp(λx)fX (x)dx
R 1 2
= R exp(λx) √2π exp(−x /2)dx .
R 1 2
= R √2π exp(−(x − 2λx)/2)dx
60
Cette intégrale est convergente pour tout λ ∈ R.
De plus x2 − 2λx = (x − λ)2 − λ2 , d’où :
R
E(exp(λX)) = R √12π exp(λ2 /2) exp(−(x − λ)2 /2)dx
R 1
= exp(λ2 /2) 2 2
R √2π exp(−(x − λ) /2)dx = exp(λ /2)
Maintenant, par le théorème de dérivation sous le signe intégrale, h1 : z 7→ E(exp(zX)) est
holomorphe sur C et h2 : z 7→ E(exp(z 2 /2)) est holomorphe sur C. Or ses deux fonctions
coı̈ncident sur R. Par le théorème de prolongement analytique, h1 h2 coı̈ncident sur C.
En particulier,
h1 (it) = ϕX (t) = h2 (it) = exp((it)2 /2) = exp(−t2 /2).
¦En pratique : On essaie d’identifier le résultat (h2 ) sur une partie de C où on sait faire
calculer h1 explicitement (ici R), puis on prolonge ce résultat par prolongement analytique.
• Loi normale quelconque
Rappelons que si X ∼ N (0, 1) et si Y = σX + m, alors Y ∼ N (m, σ 2 ). On a alors
ϕY (t) = E(eitY ) = E(eit(σX+m) )
Preuve. Admis.
Utilise des résultats de densité de type Stone-Weierstrass.
¦Exemple : Soit X ∼ P(µ) et Y ∼ P(µ) deux variables aléatoire indépendantes.
Déterminer la loi de Z = X + Y .
Par indépendance,
ϕZ (t) = ϕX (t)ϕY (t) = exp(λ(eit − 1)) exp(µ(eit − 1)) = exp((λ + µ)(eit − 1)).
On reconnaı̂t la fonction caractéristique d’une variable aléatoire de loi de Poisson de pa-
ramètre λ + µ.
Donc
Z ∼ P(λ + µ).
♣ Exercice : Soit (Xi )1≤i≤n des variables aléatoire indépendantes suivant toutes des lois
gaussiennes. Montrer que toute combinaison linéaire des (Xi )1≤i≤n suit encore une loi gaus-
sienne.
♣ Exercice : Soit (XP i )1≤i≤n des v.a.i.i.d. de loi Bernoulli de paramètre p.
Déterminer la loi de ni=1 Xi .
En déduire, sans calcul, espérances et variances des lois binomiales.
61
4.9 Annexe : Définition de l’espérance d’une variable aléatoire :
Cas général
Le cadre est le suivant : on a un espace de probabilité (Ω, F, P ), et X une variable aléatoire
définie sur Ω à valeur dans R. Comment définir sa valeur moyenne, ou espérance ? On sait
que pour une variable aléatoire discrète, on utilise une moyenne des valeurs prises par X,
pondérées chacune par la probabilité qu’a X de prendre cette valeur :
X
E(X) = xP (X = x).
x∈X(Ω)
On connait aussi la formule de la valeur moyenne pour une “bonne” fonction (continue par
exemple) sur un intervalle [a, b] :
Z b
1
m= f (x)dx.
b−a a
On voudrait construire une formule générale qui englobe les deux précédentes :
Z Z
EX = X(ω)dP (ω) = xdPX (x),
Ω R
c’est-à-dire être capable d’intégrer une fonction sur Ω par rapport à la probabilité P , ou une
fonction sur R par rapport à la loi image PX . Cette formule d’égalité entre deux intégrales
sur deux espaces différents sera fondamentale pour les calculs pratiques, on l’appelle théorème
de transfert.
Dans toute la suite, l’ensemble R est muni de la tribu boriélienne B(R), et on considérera
des variables aléatoires
X : (Ω, F) −→ (R, B(R)).
1A : Ω −→ {0, 1} ½
1 si ω ∈ A,
ω 7−→ 1A (ω) =
0 sinon.
Pn
Définition 4.28. Si X = i=1 ai 1Ai est une variable aléatoire simple, on définit son
espérance de la façon suivante
X n
EX = ai P (Ai ).
i=1
62
Remarque :
Il fautPvérifier que cette définition ne dépend pas de l’écriture particulière choisie pour X. Si
X= m i=1 bi Bi représente une écriture non canonique de X ( i.e. les bi ne sont pas distincts),
on pose :
Ai = X −1 ({ai }), et Ai = ∪j∈Ji Bj , Ji = {j ∈ [1, m]/bj = ai }, ∪ni=1 Ji = [1, n].
P P P
E(X) = ni=1 ai P (∪j∈Ji Bj ) = ni=1 ai j∈Ji P (Bj )
Pn P Pm
= i=1 j∈Ji bj P (Bj ) = i=1 bj P (Bj ).
En conclusion la définition de l’espérance ne dépend pas de l’écriture de X.
Proposition 4.29. L’ensemble des fonctions simples est un R−espace vectoriel. Sur cet
ensemble, l’espérance est une application linéaire positive : si X et Y sont deux v. a. simples
et si a est un nombre réel, alors :
E(aX + Y ) = aE(X) + E(Y ), et si X ≥ 0, alors E(X) ≥ 0.
On rappelle que X ≥ 0 signifie que pour tout ω ∈ Ω, X(ω) ≥ 0.
63
Théorème d’approximation
Théorème 4.33. Soit X variable aléatoire positive. Il existe une suite (Xn )n∈N de variables
aléatoires simples croissante à valeurs positives qui converge simplement vers X.
Preuve. Il suffit de prendre
½
k2−n si k2−n ≤ X(ω) < (k + 1)2−n .
Xn (ω)
n si X(ω) ≥ n.
Proposition 4.34. Soit (Xn )n∈N une suite de variables aléatoires simples croissante à va-
leurs positives qui converge simplement vers X. Alors X est une v. a. positive et
On aimerait utiliser ce lien entre les probabilités P sur (Ω, F) et PX sur (R, B(R)) pour
calculer les espérances des variables aléatoires d’une autre manière :
Théorème 4.35. Soit X : (Ω, F) −→ (R, B(R)) une variable aléatoire, et
une application mesurable. On pose Y = h(X), qui est encore une variable aléatoire réelle
définie sur Ω.
1. Y ∈ L1 (Ω, F, P ) ⇐⇒ h ∈ L1 (R, B(R), PX )
2. Dans ce cas, R R
E(Y ) = RΩ Y dP = Ω h(X)dPR
= RΩ Y (ω)dP (ω) = RΩ h(X(ω))dP (ω)
= R h(x)dPX (x) = R hdPX .
Preuve. On va utiliser la stratégie usuelle : d’abord on le montre pour des fonctions in-
dicatrices, puis pour des fonctions simples, puis pour des fonctions positives, puis pour des
fonctions quelconques.
1. Soit B ∈ B(R), posons h = 1B .
64
2. Si h est une fonction simple, on utilise la linéarité de l’espérance
Pn sur chacun des deux
espaces de probabilités (Ω, F, P ) et (R, B(R), PX ) : soit h = i=1 ai 1Ai , on a :
P
E( ni=1 ai 1Ai (X))
E(Y ) = E(h(X)) = P
= Pni=1 ai E(1
R Ai (X))
n
= R i=1
P ai R 1Ai (x)dPX (x) d’après
R l’étape précédente
= R ( ni=1 ai 1Ai (x))dPX (x) = R h(x)dPX (x).
Nous allons maitenant décliner ce résultat dans les deux cas que nous avons vu précédemment :
v. a. discrètes et v. a. à densité.
Corollaire 4.36. 1. Soit X une v. a. réelle avec X(Ω) = {x1 , x2 , ..., xn , ...} fini ou
dénombrable.
La v. a. h(X) est intégrable si et seulement si
X
|h(xi )|PX (xi )
i≥1
65
4.10 Exercices
Exercice 1. Soit X une variable aléatoire représentant le nombre d’heures de vie d’une
ampoule éléctrique. Supposons que X soit distribué avec la densité de probabilité suivante :
1 −x
f (x) = e 1000 1[0,+∞[ (x).
1000
Trouver la durée de vie moyenne attendue d’une telle ampoule.
Exercice 2.
1. Soit X une variable aléatoire à valeurs dans N. Montrer que :
+∞
X
E(X) = P (X ≥ j).
j=1
2. Montrer que si X est une variable aléatoire discrète à valeurs entières (positives,
négatives ou nulles) dont l’espérance mathématique existe, on a :
+∞
X
E(X) = [P (X ≥ j) − P (X ≤ −j)].
j=1
Exercice 3. Soit X une variable aléatoire de loi de Poisson de paramètre λ > 0 (i. e.
k
P (X = k) = e−λ λk! , k ≥ 0).
1 1
1. Vérifier que 1+X est une variable aléatoire intégrable. Calculer E( 1+X ).
1 1
2. Calculer E( (1+X)(2+X) ) et en déduire E( 1+X ).
Exercice 4. Un joueur joue à pile ou face de la manière suivante : la première fois il parie
1 euro ; s’il gagne, il gagne 2 euros et il s’arrête ; sinon, la deuxième fois il parie 2 euros ; s’il
gagne, il gagne 4 euros et il s’arrête, etc... C’est-à-dire que tant qu’il perd il double sa mise
pour le coup suivant et il s’arrête dès le premier succès.
Quelle est l’espérance de gain du joueur ?
Exercice 5. Dans une classe de n élèves, la probabilité qu’un élève sache son cours pour
la colle est p; p ∈]0, 1[. La probabilité qu’un élève qui sait son cours sache faire l’exercice
en colle est α ; α ∈]0, 1[. Aura une bonne note un élève qui connaı̂t son cours et qui réussit
l’exercice. On note X la variable égale au nombre d’élèves sachant leur cours, et Y celle égale
au nombre d’élèves ayant une bonne note.
1. Quelle est la loi de X
2. Quelle est la loi de Y ; calculer l’espérance et la variance 2 de Y .
Exercice 6. X est une VARD qui suit la loi de Poisson de paramètre λ.
Montrer que :
P (X ≥ λ + 1) ≤ λ.
Exercice 7. Un satellite de télédétection effectue 6 passages par mois au-dessus d’une région
donnée. Les photos réalisées lors des différents passages peuvent être inutilisables, du fait
notamment de la présence d’une couverture nuageuse.
2
La variance d’une v.a. mesure la ”dispersion” de cette v.a. par rapport à son espérance. Si la variance
est petite, la v.a. est ”concentrée” autour de sa moyenne. La variance est tjrs positive et une variance faible
correspond à un niveau homogène, proche de la moyenne.
66
1. Soit X la v.a. qui désigne le nombre de photos valables pour les 6 passages. Trouver
la loi de X.
2. Quelle doit être la probabilité d’obtenir une photo valable lors d’un passage donné pour
que la probabilité d’avoir au moins une photo valable par mois soit de 0,9 ?
Exercice 9. Une confiture peut être qualifiée de ”pur sucre” si elle contient entre 440 et 520
grammes de sucre par kilogramme de confiture. Un fabricant vérifie 200 pots de confiture de 1
kilogramme chacun. Il trouve que le poids moyen de sucre est de 480 grammes avec un écart
type de 20 grammes.
Sachant que le poids en sucre est distribué normalement, calculer le pourcentage de la produc-
tion du fabricant qui ne doit pas porter la mention ”pur sucre” en considérant que l’échantillon
des 200 pots est représentatif de la production globale.
Exercice 10. Soit X une v. a. ayant pour densité de probabilité la fonction f définie par :
Exercice 11. Soit X une variable aléatoire réelle admettant une variance. Montrer que la
fonction
x 7−→ E((X − x)2 )
admet un minimum global et le calculer.
67
Exercice 12. (Loi de Cauchy )
On considère la fonction f (x) définie par :
k
f (x) = , ∀x ∈ R.
1 + x2
1) Déterminer la constante k telle que f (x) puisse être considérée comme la densité de pro-
babilité d’une v.a. continue X.
2) Que peut-on dire des moments de cette v.a. ?
Exercice1 15 . Soit un vendeur de lots de pièces mécaniques disposant, à une date t0 , d’un
stock s.
La demande X, pour un intervalle de temps [t0 , t1 ], est une v. a. entière ayant une loi de
probabilité définie par :
où p et q sont deux réels positifs tels que p + q = 1 et x0 est un entier naturel inférieur à s.
1) Calculer k(x0 ) et E(X).
2) Si X est inférieure au stock s, les lots restants sont vendus à perte et le vendeur aura
à affronter une dépense moyenne de c1 DH. Si X est supérieure au stock s, il faut un ap-
provisionnement spécial de pièces manquantes et le supplément du coût représente une perte
moyenne de c2 DH.
Calculer l’éspérence mathématique des dépenses que va devoir affronter le vendeur pendant
la période [t0 , t1 ].
Exercice 16. Soit X une variable aléatoire réelle. On appelle fonction caractéristique de X
la fonction φX définie par
3
p
L’écart type est par définition σ = V (X). Une v.a. X est dite centrée réduite si E(X) = m = 0 et σ = 1.
68
c. X est une v. a. de binomiale de paramètres n et p, i.e. X ∼ B(n, p).
1. Déterminer la loi de la v. a. Y = eX − 1.
1
Cet exercice constitue le sujet d’un devoir libre.
69
Chapitre 5
5.1 Introduction
De nombreux problèmes concrets fond intervenir plusieurs variables aléatoires, regroupées
dans un vecteur aléatoire. Il est important de caractériser la loi d’un tel vecteur et les relations
liant ses composantes.
Nous allons voir dans ce chapitre que tout ce que l’on a construit pour une variabble
aléatoire réelle se transpose quasiment mot par mot au cas d’un vecteur aléatoire. Les prin-
cipales différences sont :
70
Remarque : Les deux événements (X = xi ) et (∪j∈J Y = yj , X = xi ) sont identiques.
Donc X
pi. = pij .
j∈J
De plus, X XX X
pi. = pij = pij = 1.
i∈I i∈I j∈J (i,j)∈I×J
Exemple :
On tire, avec remise, deux boules d’un sac contenant 3 boules numérotées 1, 2, et 3.
On considère la v. a. X qui est la somme des points obtenus et soit Y le maximum des points
obtenus. Calculer la loi conjointe de X et Y .
Déduire les lois marginales de X et Y .
On a
X(Ω) = {2, 3, 4, 5, 6} et Y (Ω) = {1, 2, 3}.
Il s’agit d’évaluer P (X = i, Y = j) lorsque 2 ≤ i ≤ 6 et 1 ≤ j ≤ 3.
Les résultats sont donnés dans le tableau suivant :
yj /xi 2 3 4 5 6 Loi de Y
1 1
1 9 0 0 0 0 9
2 1 3
2 0 9 9 0 0 9
2 2 1 5
3 0 0 9 9 9 9
1 2 3 2 1
Loi de X 9 9 9 9 9 1
Les cas possibles sont :
(1, 1) −→ X = 2
(1, 2), (2, 1) −→ X = 3
(1, 3)(3, 1)(2, 2) −→ X = 4
(3, 2)(2, 3) −→ X = 5
(3, 3) −→ X = 6.
Explicitons le calcul de la première ligne :
1
P (X = 2, Y = 1) = P ({(1, 1)} = , P (X = a, Y = 1) = 0 si a ≥ 3.
9
La formule donnant l’espérance de h(X) se généralise au contexte d’un couple de v. a. de X
et Y . XX
E(h(X, Y )) = h(xi , yj )pi,j
i∈I j∈J
71
5.3 Couples aléatoires à densité
Définition 5.2. • On dit qu’un couple aléatoire (X, Y ) est à densité s’il existe une fonction
f(X,Y ) : R2 −→ R positive telle que pour tout domaine D de R2 , on a
Z Z
P(X,Y ) (D) = P ((X, Y ) ∈ D) = f(X,Y ) (x, y)dxdy.
D
R
avec R2 f(X,Y ) (x, y)dxdy = 1.
• Les densités marginales de X et Y sont données par :
Z Z
fX (x) = f(X,Y ) (x, y)dy et fY (y) = f(X,Y ) (x, y)dx.
R R
♣ Exercice :
On pose
x2 + y 2
f (x, y) = cexp(− ).
2
1. Déterminer c pour que f soit une densité de probabilitéd’un vecteur aléatoire Z =
(X, Y ) de R2 .
72
5.4 Indépendance et espérance de produits
En général, la donnée des lois de probabilités de deux variables aléatoires X et Y ne
permet pas de calculer la loi du couple aléatoire (X, Y ) (alors que la réciproque est vraie).
C’est toutefois possible dans un cas particulier très important, celui des variables alétoires
indépendantes.
Définition 5.4. 1. Soit X et Y deux v. a. discrètes à valeurs respectivement dans {ai }
et {bj }. Les v. a. X et Y sont indépendantes si et seulement si :
Pij = P ({X = ai } ∩ {Y = bj }) = P (X = ai )P (Y = bj ).
2. Soit X et Y deux v. a. à densité. Les v. a. X et Y sont indépendantes si et seulement
si :
f(X,Y ) = fX (x).fy (y).
Conséquence :
X q Y =⇒ E(XY ) = E(X)E(Y ).
En effet, RR
E(XY ) = R R2 xyf(X,YR) (x, y)dxdy
= R xfX (x)dx R yfY (y)dy.
= E(X)E(Y ).
73
5.5.2 coefficient de corrélation
L’importance de la notion de covariance réside dans le fait qu’elle permet, dans certaine
mesure, de caractériser numériquement la dépendance stochastique entre deux v. a. On peut
en particulier affirmer que : cov(X, Y ) = 0 si X et Y sont indépendantes. Mais la réciproque
est fausse comme le montre l’exemple suivant :
Exemple :
Soit X une v. a. de Bernoulli de paramètre 0 < p < 1.
Alors E(X(1 − X)) = 0 et bien entendu X et 1 − X ne sont pas indépendantes : par exemple :
L’inconvinient de la covariance tient au fait qu’elle peut être très grande en valeur absolue, ce
qui la rend inutilisable pour mesurer le degré de dépendance entre X et Y . Pour des besoins
pratiques, la covariance est donc remplacée par une mesure standarisée : le coefficient de
corrélation linéaire.
Définition 5.7. Soit (X, Y ) un couple aléatoire tel que X et Y soient non constantes et
admettent toutes les deux un moment d’ordre 2. On appelle coefficient de corrélation linéaire
de X et Y , et on note ρ(X, Y ), la quantité :
cov(X, Y )
ρ(X, Y ) = ,
σ(X)σ(Y )
où σ(X) et σ(Y ) sont les écarts-types de X et Y .
Remarque :
1. −1 ≤ ρ(X, Y ) ≤ +1, (d’après l’inégalité de Cauchy-Schwartz).
2. ρ(X, Y ) = 0 si X et Y sont indépendantes.
X Y
3. On peut écrire ρ(X, Y ) sous la forme Cov( σ(X) , σ(Y ) ), c’est à dire comme la cova-
riance de deux v. a. dont la variance est égale à 1.
4. Si X et Y sont centrées, on a :
< X, Y >
ρ(X, Y ) =
kXk2 kY k2
1
où kXk2 = (E(X 2 )) 2 .
ρ(X, Y ) s’interprète alors comme le cosinus de l’angle que forment les deux vecteurs X
et Y , égale au rapport du produit scalaire sur le produit des normes.
Une corrélation élevée indique une relation linéaire forte alors qu’une corrélation faible
n’indique pas l’absence de relation, mais simplement l’absence de relation linéaire.
74
5.6 Exercices
Exercice 1. Deux variables aléatoires X1 et X2 prennent les valeurs 0,1,2.
1. Comment doit-on choisir p pour que le tableau ci-dessus donne une loi conjointe de
(X1 , X2 ) ?
X1 \X2 0 1 2
p p
0 p 2 4
p
1 2p p 2
2 4p 2p p
2. Quelles sont les lois marginales de X1 et de X2 .
Ces deux variables sont-elles indépendantes ?
3. Soit Y = X1 + X2 . Calculer l’espérance de Y .
λn−1
∀(n, k) ∈ N∗ × N∗ , P (X = k, Y = n) = (1 − q n )q n(k−1) e−λ ,
(n − 1)!
avec q ∈]0, 1[ et λ > 0.
Déterminer les lois marginales de X et de Y . Ces deux variables sont-elles indépendantes ?
Y = M ax(X1 , X2 )
et
Z = M in(X1 , X2 ).
Exercice 4. Soient X et Y deux variables aléatoires et soit r leur coefficient de corrélation.
1) Montrer que le coefficient de corrélation r est compris entre −1 et 1.
2) Soient 4 réels non nuls : a, b, c et d.
Calculer le coefficient de corrélation des v. a.
U = aX + b
et
V = cY + d.
1
L’espérance mathématique du couple (X, Y ) est par définition E(X, Y ) = (EX, EY )
2
L’espérance mathématique du produit X.Y est donnée par :
XX
E(XY ) = xi yj pij , ( cas discret )
i∈I j∈J
et
Z Z
E(XY ) = xyf (x, y)dxdy, ( cas continu )
R2
75
Quelles conclusions peut-on tirer des résultats de ce calcul ?
3
La fonction de répartition du couple (X, Y ) est définie par :
4
X et Y sont indépendantes si :
76
Chapitre 6
Théorèmes limites
6.1 Introduction
Soit (Xn ) une suite de v. a. r. définies sur un espace de probabilité (Ω, F, P ).
Une suite de v. a. réelles étant une suite de fonctions Ω dans R. Il existe divers façons de
définir la convergence de (Xn ) dont certaines jouent un grand rôle en calcul des probabilités
et en statistique.
On note
P
Xn a.
−→
Remarque :
1. On définit la convergence en probabilité de (Xn ) vers X comme la convergence de
(Xn − X) vers 0.
2. La convergence en probabilité signifie que l’écart entre la valeur de Xn et la constante
a est très faible quand la taille de l’échantillon est grande.
P ({ω/X(ω) 6= Y (ω)}) = 0.
77
On note
p.s.
Xn X.
−→
Remarque : La convergence presque sûre implique la convergence en probabilité.
En effet, ∀ε > 0, ∃n0 ∀n ≥ n0 , |Xn (ω) − X(ω)| < ε ∀ω ∈ Ω0 .
Donc :
∀ε > 0, ∃n0 , ∀n ≥ n0 , {|Xn − X| > ε} ⊂ Ωc0 .
Par suite,
lim P (|Xn − X| > ε) = 0.
n−→∞
P
X1 + X2 + ... + Xn
−→ E(X1 ).
n
n −→ ∞
P (| X1 +...+X
n
n
− E(X1 )| > ε) = P (|(X1 + ... + Xn ) − E(X1 + ... + Xn )| > nε)
Remarque :
1. Pour les v. a. discrètes la convergence en loi vers une v. a. discrète s’exprime par :
limn−→+∞ P (Xn = x) = P (X = x)
C’est ainsi qu’on a établi la convergence de la loi binomiale vers la loi de Poisson. (Voir
Chapitre 3).
78
2. Une suite de v. a. discrètes peut cependant converger en loi vers une v. a. continue.
Par exemple :
♣ Exercice : Soit (Xn ) une suite de v. a. r. de loi uniforme sur {0, n1 , n2 , ..., 1}.
Montrer que :
Loi
Xn X,
−→
avec X ∼ U[0,1] .
Remarque : La convergence en loi peut s’exprimer par : pour toute fonction de C 0 = {f ∈
C(R, R)/ lim|x|−→∞ f (x) = 0}, on a
Z Z
f dPXn −→ f dPX .
R R
Proposition 6.6. La convergence en probabilité entraı̂ne la convergence en loi.
Preuve. Supposons que (Xn ) converge en probabilité vers X.
Soit ϕ ∈ C 0 , et soit ε > 0, la continuité uniforme de ϕ sur R entraı̂ne l’existence de α > 0,
tel que pour tout u et v vérifiant |u − v| ≤ α, on ait |ϕoXn − ϕoX| ≤ ε.
Il suit, en notant M = kϕk∞ :
R R
|E(ϕoXn ) − E(ϕoX)| ≤ |Xn −X|≤α |ϕoXn − ϕoX|dP + |Xn −X|>α |ϕoXn − ϕoX|dP
On conclut.
Récapitulons :
Convergence p.s =⇒ Convergence en probabilité =⇒Convergence en loi.
2. Le théorème central limite implique, si n est grand, que la loi de Sn∗ = Sn −E(S )
√ n est voi-
σ n
sine de N (0, 1), ce qui est équivalent à dire que la loi de Sn est voisine de N (nm, nσ 2 ).
79
Application : On se sert souvent du théorème central limite pour calculer rapidement des
probabilités en avoir une première estimation.
Exemple (1) : Dans une file d’attente, dix personnes attendent avant d’être servies. Si le
temps de service d’une personne est une v. a. de loi exponentielle de paramètre θ = 1 minute,
quelle est la probabilité que la durée d’attente totale dépasse 15 minutes ?
On pose :
T = T1 + T2 + ... + T10 .
où Ti (i=1,...,10) sont des v. a. indépendantes de loi E(1).
On utilise le théorème central limite pour la v. a. T .
T peut être approchée par une v. a. normale de moyenne
E(T ) = 10E(T1 ) = 10
et de variance :
V ar(T ) = 10V ar(T1 ) = 10.
On trouve alors rapidement :
On peut donc attendre dans la file sans crainte d’y rester plus de 15 minutes.
Exemple (2) : Donnons un autre exemple, issu du contrôle de la qualité. Si on sait qu’en
moyenne 5% des articles produits par un certain procédé de fabrication sont défectueuses.
Quelle est la probabilié qu’il y ait au plus 60 pièces défectueuses dans un lot de 1000 pièces
choisies au hasard ?
80
(un )n∈N vers l c’est -à-dire de trouver le terme suivant dans le développement asymptotique
de un quand n tend vers l’infini : par exemple,
3 1
un = l − 2
+ o( 2 ) ⇐⇒ limn−→∞ n2 (un − l) = 3.
n n
1
Dans ce cas, la vitesse est en n2
. Remarquons que
Le cas α = 2celui qui donne une limite finie, est donc celui qui donne la bonne vitesse de
convergence.
Revenons maintenant au cas des v. a. i.i.d. La loi faible des grands nombres dit que
X1 + ... + Xn
−→P EX1 .
n
Pour étudier la vitesse de convergence de cette suite, on cherche α tel que
X1 + ... + Xn
nα ( − EX1 ) converge en un certain sens.
n
Ici, on n’obtient pas de limite détrministe, ce qui n’est pas surprenant vu qu’on est en train
de regarder des limites de variables aléatroires, mais le TCL nous dit que la limite est une loi
gaussienne, que la vitesse de convergence est en √1n et que la notion de convergence considérée
ici est la convergence en loi.
81
6.4 Exercices
Exercice 1. (Méthode de monte-Carlo)
Soit h : [0, 1] −→ R une fonction continue et soit (Xn ) une suite de v.a.r. indépendantes et
même loi uniforme sur [0, 1].
Montrer que
Z 1
h(X1 ) + ... + h(Xn )
−→P h(x)dx quand n −→ +∞.
n 0
Exercice 3.
Une caisse d’assurance maladie reçoit 120 personnes pour l’obtention de remboursements.
On admet que la caisse doit payer, en moyenne, à chaque personne 1000 dh avec un écart
type de 600 dh.
La caisse dispose de 130000 dh. Calculer la probabilité que cette somme soit suffisante.
Exercice 4.
Une usine possède un restaurant d’entreprise qui assure chaque jour 2 services. Chacun des
900 employés de l’usine se présente indifféremment à l’un ou à l’autre des services avec une
probabilité de 0,5. Par ailleurs les choix des employés sont indépendants.
a) Quelle est la probabilité pour que le nombre de personnes se présentant au premier
service soit supérieur à 500 ?
b) De quel nombre de places faut-il diposer dans le restaurant pour que la probabilité de
pouvoir répondre à la demande aux deux services sont supérieure à 95%.
c) Le nombre total des repas à servir chaque jour est une variable aléatoire ; chaque
employé a chaque jour une probabilité de 0,75 de prendre son repas à l’usine.
- Quelle est l’espérance mathématique de cette variable ?
- Combien de repas convient-il de préparer pour que la probabilité de satisfaire la de-
mande soit supérieure à 99% ?
Exercice 5
2% des individus d’une population présentent une certaine mutation.
82
- Quelle est la probabilit qu’il y en ait au moins 5 ? Faire le calcul exact (avec une loi
binomiale), et le calcul approché (avec une loi de Poisson).
Exercice 6
On lance une pièce équilibrée 1000 fois. On veut calculer la probabilité pour que le nombre
de pile soit compris entre 450 et 550.
- Montrer que l’on peut approximer X par une loi normale N (m, σ).
83
Deuxième partie
Statistiques
84
Chapitre 7
7.1 Introduction :
7.1.1 Les statistiques, les probabilités, la statistique
1. Les statistiques sont des ensembles de données, d’observations : recensement...ce sont
donc des chiffres.
2. Les probabilités forment une branche des mathématiques et sont donc rigoureuses et
exactes ; pour cela il travaillent sur des objets mathématiques parfaitement définis et
abstraits (bien que toujours d’origine concrète).
3. La statistique est la science qui utilise les méthodes mathématiques (venant généralement
des probabilités) pour étudier et analyser des statistiques eu vue :
- d’en accoı̂tre les connaissances scientifiques ;
- de planifier des stratégies ;
- d’aider à la prise de décision.
Dans la théorie des probabilités que nous avons développé jusqu’à présent, nous avons
réaliser des calculs de nature probabiliste : par exemple, en évaluant la probabilité d’événements
ou en déterminant l’espérance d’une variable aléatoire. On a toujours supposé que les différents
paramètres qui interviennent dans le modèle sont connus. Ce qui est rarement le cas en pra-
tique.
Nous nous intéressons à la modélisation d’une grandeur aléatoire à valeurs réelles. Dans
le cadre probabiliste, cette notion correspond au concept de variable aléatoire ; soit X cette
variable aléatoire. Donnons un exemple : si l’on s’intéresse à compter le nombre de fois ou
apparait le résultat S, au cours de k expériences indépendantes, à deux issus possibles S et
E, on choisira pour X une v. a. de loi B(k, p). En général le paramètre p n’est pas connu.
Dans d’autres situations, on peut choisir pour X une v. a. de loi de Poisson P(λ), ou une
loi de Gauss N (m, σ 2 ). Les valeurs de λ, m et σ étant inconnues. Le but de la statistique
est de pouvoir évaluer ces paramètres inconnus à l’aide des valeurs X1 , X2 , ..., Xn que l’on a
observées en réalisant une série de n expériences indépendantes.
Elle comporte deux grand aspects : l’aspect descriptif ou exploratoitre et l’aspect inférentiel
ou décisionnel.
85
A- La statistique exploratoire :
Son but est de synthétiser , résumer, structurer l’information contenue dans les données.
Elle utilise pour cela des représentations des données sous forme de tableaux, de gra-
phiques, etc.
L’étude statistique porte sur un caractère. Si le caractère est quantitatif, les mesures
sont alors les valeurs d’une variable statistique (ex. un âge , une taille,...). Si le ca-
ractère est qualitatif, on est obligé de quantifier (ex. sexe, mensonge,...).
B- La statistique inférentielle :
Son but est d’étendre les propriétés constatées sur l’échantillon à la population toute
entière. Le calcul des probabilités joue un rôle fondamental. Donnons quelques exemples :
B.1. Estimation d’une moyenne : Une même grandeur est mesurée n fois de suite
par un même observateur, l’imprécision de l’instrument de mesure et d’autres fac-
teurs rendent fluctuantes ces mesures et on obtient n valeurs différentes x1 , x2 , ..., xn .
Comment déterminer la vraie valeur m ? La loi des grands nombres montre que la
moyenne
x1 + x2 + ... + xn
x=
n
constitue une bonne approximation de m. x est une estimation de m. L’estimation
consiste à donner des valeurs approchées aux paramètres d’une population (m, σ, etc)
à l’aide d’un échantillon de n observations issues de cette population.
B.2. Vérification d’une hypothèse ou test : Le cas suivant est classique en contrôle
de qualité. Un client commande à son fournisseur des lots de pièces dont la qua-
lité est spécifiée par contrat : le fournisseur s’engage à respecter un taux de pièces
défectueuses inférieur à 4%. Avant de livrer, le fournisseur effectue un contrôle sur
50 pièces et en trouve 3 défectueuses soit 6% : Doit-on livrer quand même au risque
de refuser la marchandise ?
Le raisonnement est alors le suivant : si le taux théorique de défectueux est de 4%
quelles sont les chances d’observer un tel nombre de défectueux ? Le calcul des pro-
babilités montre alors qu’il y a une probabilité voisine de 0.32 d’observer trois pièces
défectueuses ou plus (loi binomiale B(50, 0.04)). Cette probabilité étant assez forte,
l’événement constaté paraı̂t donc normal au fournisseur et ne semble pas de nature
à remettre en cause l’hypothèse formulée. Mais le client serait-il d’acord ?... Il faut
alors calculer le risque d’un refus par le client.
On contate la similitude de cette démarche statistique avec la démarche scientifique habi-
tuelle : observation, hypothèses, vérification.
Dans ce qui suit, nous tacherons de désigner les variables aléatoires par des majuscules
et les résultats des expériences par des minuscules pour bien distinger ce qui est aléatoire de
86
ce qui ne l’est pas.
7.2 Définitions
1. On modélise une expérience aléatoire par une v.a. X. On note Q sa loi. Q est appelée
la loi vraie. Comme nous l’avons expliqué précédemment, on peut choisir, Q = P(λ)
si la v. a. est à valeurs entières , ou Q = N (m, σ) lorsque la v. a. est à valeurs réelles.
On peut aussi ne faire aucune hypothèse spécifique sur Q.
3. Les valeurs observées de X1 , X2 ,...,Xn sont notées x1 , x2 ,...,xn . Ce sont les valeurs
numériques fournies par l’expérience.
Définition 7.1. On appelle estimateur T de θ, une variable aléatoire qui est une fonction
de l’échantillon :
Tn = f (X1 , ..., Xn ).
Remarque :
1. Un estimateur Tn dépend du choix de l’échantillon.
2. Un estimateur n’est pas unique, il s’agit d’en choisir un ”bon”. Les propriétés usuelles
d’un ”bon” estimateur sont : l’absence de biais et la convergence.
E(Tn ) = θ.
lim E(Tn ) = θ
n−→∞
lim V ar(Tn ) = 0.
n−→∞
87
7.3.1 Estimation de la moyenne
Posons :
n
1X
Xn = Xi .
n
i=1
Preuve.
•
1 1
E(X n ) = (E(X1 ) + ... + E(Xn )) = (m + m + ... + m) = m = E(X).
n n
•
1 1
V ar(X n ) = n2
V ar(X1 + ... + Xn ) = n2
(V ar(X1 ) + ... + Xn )
On a utilisé que (Xi )ni=1 sont i.i.d. avec EX1 = EX = m et V ar(X1 ) = V ar(X) = σ 2 .
D’où
n n
1X 1X
(Xi − m)2 = (Xi − X)2 + (X − m)2 .
n n
i=1 i=1
Donc,
n
1X
Sbn2 = (Xi − m)2 − (X − m)2 .
n
i=1
1
La moyenne empirique : la moyenne calculée en se basant sur l’oservation et l’expérience.
88
Calculons E(Sbn2 ) :
Pn
E(Sbn2 ) = 1
n i=1 E(Xi − m)2 − E(X − m)2
1 Pn
= n i=1 V ar(Xi ) − V ar(X)
σ2 n−1 2
= σ2 − n = n σ .
µ4 − σ 4
V ar(Sbn2 ) ∼ .
n
Remarque :
1. Sbn2 est un estimateur de la variance, qui est biaisé, c’est la raison pour laquelle on
utilise Sn2 .
2. Sbn2 est un estimateur asymptotiquement sans biais et convergent. Pour n grand Sbn2 est
très peu différent de Sn2 .
0 0 0 1 0 3 0 0 1 0 1 1 0 0 0 2 0 2 1 0.
89
7.4 Estimation par intervalle confiance
Les paramètres estimés ponctuellement à partir d’un échantillon ne sont pas exactes.
On voudrait connaitre leur degré de précision. La démarche de l’estimation par intervalle de
confiance consiste à trouver un intervalle aléatoire qui contient θ avec une probabilité donnée.
Définition 7.5. Un intervalle de confiance, relatif au paramètre θ, de niveau de confiance
1 − α (ou de risque α) est un intervalle aléatoire [C1 , C2 ], où C1 et C2 sont deux statistiques,
telles que :
P (C1 ≤ θ ≤ C2 ) = 1 − α.
Remarque : Les valeurs couramment utilisées sont 1 − α = 0, 90 , 0, 95, ou 0, 99.
Dans la suite on va s’intéresser à θ = m = E(X).
On choisit alors :
C1 = X − ε, C2 = X + ε.
Par conséquent [X − ε, X + ε] est un intervalle de confiance de m, de risque α si :
P (X − ε ≤ m ≤ X + ε) = P (|X − m| ≤ ε) = 1 − α. (7.4.1)
Concrétement on se donne n et α et on cherche ε tel que (7.4.1) soit vérifiée. Nous allons
expliciter le calcul de ε lorsque la taille de l’échantillon est grande, ou sous une hypothèse de
normalité.
90
On déduit de (7.4.1) et (7.4.2) que ε, n et α sont liés par :
√ √
2π( ε σ n ) − 1 = 1 − α ⇐⇒ π(
√ σ
ε n
)=1− α
2
⇐⇒ ε σ n = Z1− α2
⇐⇒ ε = √σn Z1− α2 .
Remarque :
1. On ne peut être sûr que θ est dans l’intervalle [C1 , C2 ]. La probabilité α de se tromper
est donnée par :
P (θ ∈ [C1 , C2 ]) = 1 − α.
2. On rappelle :
Solution
α
On a α = 0, 01 donc 1 − 2 = 0, 995 et Z0,995 = 2, 575.
ε est donnée par : √
σ 968, 51
ε = √ Z1− α2 = × 2, 575 = 0, 80.
n 10
Par conséquent, L’intervalle cherché est [117, 7; 133, 7].
91
Par conséquent, si n est grand,
√
ε n
P (|X − p| ≤ ε) ≈ 2π( ) − 1.
σ
En conclusion, [X − √σn Z1− α2 , X + √σn Z1− α2 ] est un intervalle de confiance de p = P (A),
de niveau de confiance 1 − α, lorsque n ≥ 30.
σ2
X ∼ N (m, )
n
(en effet, ∀i, Xi ∼ N (m, σ 2 ). De plus les Xi sont i.i.d.).
Déterminons l’intervalle de confiance pour la moyenne.
On charche ε tel que :
P (|X − m| ≤ ε) = 1 − α,
où α désignant un seuil donné.
Mais, X = m + √σn G avec G ∼ N (0, 1).
On en déduit : √
σ ε n
P (|X − m| ≤ ε) = P ( √ |G| ≤ ε) = P (|G| ≤ ).
n σ
On procède comme dans le cas des échantillons de grand taille, on a :
√
ε n
P (|X − m| ≤ ε) = 2π( ) − 1.
σ
En conclusion :
[X − √σn Z1− α2 , X + √σn Z1− α2 ] est un intervalle de confiance de la moyenne m, de niveau de
confiance 1 − α.
Remarque :
1. Si σ n’est pas connu, on peut le remplacer pas s.
2. Quand la taille de l’échantillon est petite et si X ne suit pas la loi normale, aucune
règle générale ne permet de déterminer l’intervalle de confiance. La technique adéquate
dépend essentiellement de la loi suivie par X.
24, 40, 30, 19, 48, 32, 35, 21, 18, 40.
92
7.5 Tests paramètriques
Les tests statistiques sont des outils d’aide à la décision quand l’information est im-
complète. Ils fornissent un cadre scientifique qui permet de valider certaines hypothèses. Nous
allons faire des tests sur un paramètre inconnu θ.
On veut décider s’il faut raisonnablement rejeter ou accepter une hypothèse sur θ. En pra-
tique, on teste une hypothèse H0 “dite hypothèse nulle” contre une hypothèse “alternative”
H1 . Par exemple :
1) H0 : m = 2 H1 : m 6= 3
2) H0 : m = 5 H1 : m < 5
Remarques
· Le test 1) est appelé un test bilatéral.
· Le test 2) est appelé un test unilatéral.
On veut décider de choisir H0 ou H1 , uniquement apès avoir réaliser une série d’expériences :
x1 , x2 , ..., xn .
On choisit un estimateur T de θ. On définit une région de rejet R, qui dépend de θ, T, H0 et
H1 telle que :
· si t ∈ R, on rejette H0 et on accepte H1 ,
· si t ∈ Rc , on accepte H0 ,
avec t désignant la valeur observée de T (T statistique, T = f (X1 , ..., Xn ), alors t = f (x1 , ..., xn )).
La région Rc est aussi appelé région d’acceptation.
Il est évident qu’il existe un risque d’erreur. On définit :
· Le risque de premir̀e espèce qui est la probabilité α de rejetter à tord H0 (rejetter
H0 alors que H0 est vraie).
· Le risque de deuxième espèce qui est la probabilité β d’accepter à tord H0 ( accepter
H0 alors que H1 est vraie).
α et β sont données par les relations :
α = P ( T ∈ R | H0 ) ; β = P ( T ∈ R | H1 ).
α = P ( T ∈ R | H0 ) = P ( T ∈ R | m = 3)
Rc =]m0 − ε , m0 + ε[ ; ε > 0.
On a :
{T ∈ R} = {X ∈ R} = {|X − m0 | ≥ ε}.
Comme précédemment, α et n étant donnés, on cherche ε tel que
Condition équivalente à :
P (|X − m| ≤ ε|m = m0 ) = 1 − α.
93
On peut reproduire l’analyse développée pour la détermination d’un intervalle de confiance.
Si n est grand (n ≥ 30), ou si X suit une loi gaussienne, ε est donné par la formule :
σ
ε = √ z1−α/2 .
n
Exercice 5.
Une machine prouduit des pièces ayant une moyenne de 8,3 cm avec un écart-type de 0,6
cm. Avant de passer une commande importante, le responsable de la machine veut tester
si m = 8, 3 ou si m a changé. Pour ce faire, il prélève 100 pièces et trouve une longueur
moyenne de 8,4 cm.
Doit-il accepter la production avec un seuil d’erreur de 5% ?
Exercice 6.
La durée de vie d’un équipement électrique est de 400 heures avec un écart-type de 60 heures.
On voudrait tester si la moyenne vaut 400 heures au moins de 400 heures. On effectue un
test avec 25 appareils. On trouve une moyenne de 378,1 heures.
Que peut-on en conclure, avec un risque de 5% ?
94
7.6 Exercices
Exercice 1. Loi de Pareto
Soit Y une variable exponentielle de paramètre λ > 0.
1. Quelle est la loi de la v.a. X = eY . Cette loi est appelée la loi de Pareto P(λ, 1).
2. Déterminer une condition nécessaire et suffissante d’existence de E(X), puis la calcu-
ler.
3. D’éterminer une condition nécessaire et suffissante d’existence de V (X), puis la cal-
culer.
Exercice 2. Loi de Weibull
Une variable aléatoire X est dite de Weibull de paramètre (α, λ) (α > 0, λ > 0), si la v.a.
X α suit une loi exponentielle de paramètre λ > 0.
Déterminer une densité de X et calculer E(X).
95
Chapitre 8
Devoir surveillé N 1.
Epreuve de Probabilites et Statistiques Durée du sujet : 1H :30min
Examen de 13 mars 2006 Responsable : Lakhel El Hassan
Horaire : 10H :30min-12H :00
Exercice 1.
Dans une usine on dispose de 3 machines A, B, C fabriquant des pièces mécaniques d’un
type déterminé. La machine A assure 25% de la production, la machine B assure 35% et C
en assure 40%.
5% des pièces fabriquées à l’aide de la machine A sont défectueuses. Les pourcentages sont
respectivement égaux à 4% et 2% pour les machines B et C.
1) On tire une pièce au hasard quelle est la probabilité qu’elle soit défectueuse ?
2) On tire une pièce d’un lot constitué de pièces fabriquées, dans les proportion indéquées, par
les machines A, B et C. On constate que cette pièce est défectueuse. Calculer la probabilité
qu’elle ait été fabriquée :
- par la machine A
- par la machine B
3) On tire une pièce au hasard. Elle est saine. Quelle est la probabilité qu’elle vienne de C.
Exercice 2.
Un test sanguin a une probabilité de 0.95 de détecter un certain virus lorsque celui ci est
effectivement présent. Il donne néanmoins un faux résultat positif pour 1% des personnes
non infectées. Notons V = {la personne testée a le virus}, T = {la personne testée a un test
positif}.
1. Si 0.5% de la population est porteuse du virus, quelle est la probabilité qu’une personne
ait le virus sachant qu’elle a un test positif ?
2. Interpréter le résultat.
96
Exercice 3.
T
1. Soit n ≥ 2, Etablir que, si (A1 , ..., An ) est une suite d’événements telle que P ( ni=1 Ai ) >
0, alors
\n Yn
P ( Ai ) = P (A1 ) P∩i−1 Ak (Ai ).
k=1
i=1 i=2
2. Application :
Un sac contient initialement une boule blanche et une boule noire. On réalise indéfiniment
l’expérience suivante : on tire une boule, on regarde sa couleur, on la remet dans le sac
et on rajoute une nouvelle boule de la même couleur que celle obtenue.
Notons X le nombre de tirage(s) nécessaire(s) avant d’obtenir une boule noire, avec la
convention que X = 0 si on ne tire jamais de boule noire.
Notons Bi l’événement “On obtient une boule blanche au ieme tirage”.
+∞
X
P (X = n) = 1.
n=1
Barême approximatif :
Exercice 1 : 4 points
Exercice 2 : 4 points
Exercice 3 : 12 points.
97
Corrigé du DS N 0 1 - A. U. 2005-2006- :
Exercice 1 :
1. On cherche P (V /T ).
On sait que :
On en déduit :
P (T ∩V ) P (T /V )P (V )
P (V /T ) = P (T ) = P (T /V )P (V )+P (T /V c )P (V c )
0.95×0.005
= 0.95×0.005+0.01×0.995 = 0.323
2. Le test n’est pas fiable : si la personne présente un test positif, la probabilité qu’elle
ne soit pas porteuse du virus est deux fois plus élvée que celle qu’elle le soit ( en effet ;
P (V /T ) ' 33%. )
Exercice 3 :
98
Ainsi, la propriété se transmet du rang n au rang n + 1.
Finalement, nous avans prouvé, par récurrence
n
\ n
Y
∀n ≥ 2 : P ( Ai ) = P (A1 ) PTi−1 Ak (Ai ).
k=1
i=1 i=2
2. a. Si X = 1, c’est que l’on a tiré une boule noire dès le premier tirage.
Ainsi :
{X = 1} = B1c .
Si X = n avec n ≥ 2, c’est que, lors des n − 1 premiers tirages, on a tiré des boules
blanches et qu’au n-ième tirage, on a tiré une boule noire.
Ainsi :
{X = n} = B1 ∩ B2 ∩ ... ∩ Bn−1 ∩ Bnc .
b. Si B1 ∩ B2 ∩ ... ∩ Bn−1 a lieu, c’est que l’on a réalisé n − 1 tirages et que l’on a tiré
des boules blanches. Ainsi, à ce stade, le sac contient n + 1 boules dont n blanches.
la probabilité de tirer une boule noire est donc nb de cas favorables 1
nb de cas possibles = n+1 .
En d’autres termes :
n
PB1 ∩B2 ∩...∩Bn−1 (Bnc ) = .
n+1
c. Par un raisonnement similaire au précédent, on trouve
i
∀i ∈ {2, ..., n − 1} : PB1 ∩B2 ∩...∩Bi−1 (Bi ) = .
i+1
d. En suivant les indications de l’énoncé, on peut écrire
T Q
P (X = n) = P (B1 ∩ B2 ∩ ... ∩ Bn−1 ∩ Bnc ) = P ( ni=1 Ai ) = P (A1 ) ni=2 PTi−1 Ak (Ai )
Q Qn−1 i k=1
= P (B1 ) n−1
i=2 P Ti−1
Bk (Bi )P Tn−1
Bk (B c) = 1
n 2 i=2 i+1 × 1
n+1 = 1
n(n+1) .
k=1 k=1
e. On a :
N
X N
X N
X N
X +1
1 1 1 1
P (X = n) = = − =1− .
n(n + 1) n n N +1
n=1 n=1 n=1 n=2
Par suite,
+∞
X N
X 1
P (X = n) = lim P (X = n) = lim (1 − ) = 1.
N −→∞ N −→∞ N +1
n=1 n=1
99
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi
Devoir surveillé N o 2.
Epreuve de Probabilités et Statistiques Durée du sujet : 1h :30min
Examen de 17 avril 2006. Responsable : Lakhel El Hassan
Horaire : 10h :30-12h :00.
P (X = x) = F (x) − F (x−),
Exercice 2. (5points)
Soit (a, b) ∈ N∗2 ; a < b ; X est une variable aléatoire discrète de Ω dans N ∗ telle que :
∀x ∈ |[1, ab]| ; P (X = x) = a1 − 1b et P (X = x) = 0 ailleurs.
1
Ne perdez pas de temps à le reproduire sur votre copie.
100
1) Déterminer une CNS sur a et b pour que les relations précédentes définissent effecti-
vement une loi de probabilité.
2) Dans ces conditions, tracer la représentation graphique de la fonction de répartition
FX de X.
1. Déterminer la constante k de telle sorte que f (x) puisse être considérée comme la
densité de probabilité d’une v.a. continue U .
Π(−z) = 1 − Π(z)
6. Application : Le stock journalier d’un produit destiné à un atelier suit une loi nor-
male de moyenne 120 pièces et d’écart type 50 pièces.
a. Calculer la probabilité pour que le nombre de pièces en stock soit compris entre 80
et 160.
b. Calculer la probabilité pour que le nombre de pièces en stock soit supérieur à 200.
c. Calculer la probabilité pour qu’il y ait rupture de stock.
d. Interpret́er ces résultats.
On donne
101
Corrigé du DS no 2 -16 mars 2006-
Exercice 1
1. Voir le cours.
2. Calcul des probabilités par la lecture du graphe de F
P (X = 0) = F (0) − F (0−) = 0, 4 − 0, 2 = 0, 2
P (X ≥ 0) = 1 − P (X < 0) = 1 − F (0−) = 1 − 0, 2 = 0, 8
P (4 ≤ X ≤ 6) = P (X ≤ 6) − P (X < 4) = F (6) − F (4−) = 1 − 0, 6 = 0, 4
P (0 < X < 4) = P (X < 4) − P (X ≤ 0) = F (4−) − F (0) = 0, 6 − 0, 4 = 0, 2
P (X ≥ 6) = 1 − P (X < 6) = 1 − F (6−) = 1 − 1 = 0
3. La v.a. X n’est pas à densité car sa fonction de répartition n’est pas continue.
Exercice 2
Voir série d’exercice N ◦ 4
Exercice 3
f ≥0
1. f est une densité ⇔ et
R +∞
−∞ f (x)dx = 1
On doit avoir Z +∞
u2
k e− 2 du = 1.
−∞
R +∞ − x2
2 √
On a vu dans le cours −∞ e dx = 2π.
On doit donc avoir
1
k=√ .
2π
2. U ∼ N (0, 1)
Donc E(U ) = 0 et V ar(U ) = 1 (Voir CH.4).
3. On a :
X = m + σU
Par suite
E(X) = m + σE(U )
V (X) = σ 2 V (U )
Comme E(U ) = 0 et V (U ) = 1 on aura :
E(X) = m
V (X) = σ 2
G(x) = P (X ≤ x) = P (m + σU ≤ x) (car X = m + σU )
Mais
x−m
P (m + σU ≤ x) = P (σU ≤ x − m) = P (U ≤ )
σ
Or
x−m x−m
P (U ≤ ) = Π( )
σ σ
Donc
x−m
G(x) = Π( ).
σ
102
• Si f (u) est la densité de probabilité de U et g(x) celle de X
On sait que :
f (U ) = Π0 (U )
.
g(x) = G0 (x)
Mais, on a :
1 0 x−m
G0 (x) = Π( ).
σ σ
Par conséquent
1 x−m
g(x) = f( ).
σ σ
Finalement,
1 1 x − m
g(x) = √ e− 2 ( )2 .
σ 2π σ
5◦ ) Montrons que Π(−z) = 1 − Π(z).
Interpretation :
Il y a 57, 62% de chances pour que le nombre de pièces en stock soit compris entre
80 et 160.
b.
P (X > 200) = 1 − P (X ≤ 200)
= 1 − P ( X−120
50 ≤ 200−120
50 )
= 1 − P (U ≤ 1, 6) = 1 − Π(1, 6)
= 1 − 0, 9452 = 0, 0548.
Interpretation :
Il y a 5, 48% de chances pour que le nombre de pièces en stock soit superieur à 200.
103
c. P (X ≤ 0) = 0, 0082.
Interpretation :
Il y a un risque trés faible de moins de 1% pour qu’il y a rupture du stock.
104
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi
Devoir surveillé N o 3.
Epreuve de Probabilités et Statistiques Durée du sujet : 1h :30min
Examen de 15 juin 2006. Responsable : Lakhel El Hassan
Horaire : 10h :30-12h :00.
Question de cours :(3 points) Soit U une v.a. réelle qui suit la loi uniforme sur [0, 1].
Si λ > 0 quelle est la loi de Y = − λ1 ln U .
Exercice 1. (9 points)
Soient r un réel strictement supérieur à 2 et X une variable aléatoire réelle de densité f
r
donnée par f (x) = xr+1 si x ≥ 1 et f (x) = 0 sinon.
1. Donner l’allure du graphe de f puis vérifier que c’est bien une densité de probabilité.
2. Calculer l’espérance et la variance de X.
3. Déterminer la densité de la variable aléatoire Y = ln X
4. Le nombre de kilomètres couverts par une batterie de voiture avant défaillance est une
variable aléatoire ayant la même loi que Y et d’espérance égale à 9000 kilomètres.
Une personne achète une batterie neuve et souhaite se lancer dans un voyage de 3000
kilomètres. Avec quelle probabilité terminera-t-elle son voyage sans avarie de batterie ?
Exercice 2. (8 points)
Soit T une v. a. réelle dont une densité de probabilité est f définie par
½ 2x
R2
si 0 ≤ x ≤ R
f (x) =
0 sinon
où R est un réel strictement positif inconnu.
105
Corrigé du DS no 3 -15 juin 2006-
Question de cours :
Soit U une v.a. réelle de loi uniforme sur [0, 1].
On pose
1
Y = − LnU , λ > 0.
λ
Pour trouver la loi de Y , on se donne une fonction test h quelconque, on met
Z +∞
1 1
E(h(Y )) = E(h(− LnU )) = h(− Lnu)fU (u)du
λ −∞ λ
R +∞
sous la forme −∞ h(y)fy (y)dy à l’aide du changement de variable y = − λ1 Lnu et la densité
de Y est alors fy trouvée.
On a : R1
E(h(Y )) = E(h(− λ1 LnU )) = 0 h(− λ1 Lnu)du
R +∞
= 0 h(y)λe−λy dy.
Par conséquent, Y admet pour densité fY donnée par
Exercice 1
2. On a
Z +∞ Z +∞ · ¸+∞
−r r r
|x|f (x)dx = rx dx = − x−r+1 = < +∞
−∞ 1 r−1 1 r−1
106
3. Soit h une fonction bornée. On a
Z +∞
E{h(Y )} = E{h(lnX)} = h(lnx)rx−r−1 dx.
1
4. Le nombre N de kilomètres couverts avant défaillance suit donc une loi exponentielle.
L’enoncé nous apprend que EN = 9000. Or on sait que l’espérance d’une loi exponen-
tielle est égale à l’inverse de son paramètre. Par conséquent, N suit la loi exponentielle
1
de paramètre 9000 .
La probabilité que la personne termine son voyage sans avarie de batterie est donc égale
à : Z +∞
1 − x −x −1
P (N > 3000) = e 9000 dx = [−e 9000 ]+∞
3000 = e
3 .
3000 9000
Exercice 2
Calculons : E(T 2 ) : Z +∞
2 R2
E(T ) = x2 f (x)dx = .
−∞ 2
Or, E(T ) = 23 R.
Donc E(T )2 = 49 R2 .
Finalement,
R2
V ar(T ) = E(T 2 ) − E(T )2 = .
18
1 Pn
2. On pose : Xn = n i=1 Ti .
a. Calculons E(Xn ) :
1 Pn
E(Xn ) = E(P n i=1 Ti )
1 n
n E( i=1 Ti ))
1 Pn
n i=1 E(Ti )).
107
Or les Ti ont la même loi et on a : E(Ti ) = 32 R.
D’où :
2
E(Xn ) = R
3
Calculons V ar(Xn ) :
P
V ar(Xn ) = V ar( n1 ni=1 Ti )
P `tes
= n12 V ar( ni=1 Ti ), Les Ti sont .
2
= n12 n R18 .
Donc :
R2
V ar(Xn ) =
.
18n
b. Vérifions si Xn est un estimateur sans biais : On a,
2
E(Xn ) = R 6= R.
3
Par suite, Xn est un estimateur biaisé.
c. Déterminons λ tel que Xcn = λXn soit sans biais.
c cn ) = R.
Pour que Xn soit un estimateur sans biais de R, il faut que E(X
Comme
E(Xcn ) = λE(Xn ) = λ 2 R.
3
Donc
3
λ= .
2
3.
bn − R| ≥ ε) ≤ R2
a. Montrons que P (|X 8nε2
.
D’après l’inégalité de B. T., on a :
V ar(Xcn )
bn − R| ≥ ε) ≤
P (|X .
ε2
cn ) :
Cherchons V ar(X
cn ) = V ar( 3 Xn ) = 9 V ar(Xn ).
V ar(X
2 4
Or,
R2
V ar(Xn ) = .
18n
D’où :
2
cn ) = R .
V ar(X
8n
Donc :
2
bn − R| ≥ ε) ≤ R .
P (|X
8nε2
b. On a,
2
bn − R| ≥ ε) ≤ R .
P (|X
8nε2
bn − R| ≥ ε) ≤ limn−→∞ R2
D’où : limn−→∞ P (|X 8nε2
= 0.
Donc X bn est un estimateur convergent de R.
108
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi
Examen de rattrapage
Epreuve de Probabilités et Statistiques Durée du sujet : 1h :30min
Examen de 28 juin 2006. Responsable : Lakhel El Hassan
Horaire : 16h :30-18h :00.
X \ Y 0 1 2 3 4
1 1 1 1 1
0 16 16 16 16 16
3 1 3
1 0 16 4 16 0
1
2 0 0 16 0 0
ρ(X1 , X2 ) = 0.
Exercice 2. (9 points)
Soient r un réel strictement supérieur à 2 et X une variable aléatoire réelle de densité f
r
donnée par f (x) = xr+1 si x ≥ 1 et f (x) = 0 sinon.
1. Donner l’allure du graphe de f puis vérifier que c’est bien une densité de probabilité.
2. Calculer l’espérance et la variance de X.
3. Déterminer la densité de la variable aléatoire Y = ln X
4. Le nombre de kilomètres couverts par une batterie de voiture avant défaillance est une
variable aléatoire ayant la même loi que Y et d’espérance égale à 9000 kilomètres.
Une personne achète une batterie neuve et souhaite se lancer dans un voyage de 3000
kilomètres. Avec quelle probabilité terminera-t-elle son voyage sans avarie de batterie ?
1
Par exemple, la séquence P P F P donne X = 1 ; F P P P donne X = 0, P F P F donne X = 2; etc...
109
Correction d’examen de rattrapage -28 juin 2006-
Exercice 1 :
1. L’univers Ω = {P, F }4 est de cardinal 24 = 16. Calculons X(ω) et Y (ω) pour chaque
ω ∈ Ω.
Si ω = P P P P alors X(ω) = 0 et Y (ω) = 4
Si ω = P P P F alors X(ω) = 1 et Y (ω) = 3
Si ω = P P F P alors X(ω) = 1 et Y (ω) = 3
Si ω = P F P P alors X(ω) = 1 et Y (ω) = 3
Si ω = P P F F alors X(ω) = 1 et Y (ω) = 2
Si ω = P F P F alors X(ω) = 2 et Y (ω) = 2
Si ω = P F F P alors X(ω) = 1 et Y (ω) = 2
Si ω = P F F F alors X(ω) = 1 et Y (ω) = 1
Si ω = F P P P alors X(ω) = 0 et Y (ω) = 3
Si ω = F P P F alors X(ω) = 1 et Y (ω) = 2
Si ω = F P F P alors X(ω) = 1 et Y (ω) = 2
Si ω = F P F F alors X(ω) = 1 et Y (ω) = 1
Si ω = F F P P alors X(ω) = 0 et Y (ω) = 2
Si ω = F F P F alors X(ω) = 1 et Y (ω) = 1
Si ω = F F F P alors X(ω) = 0 et Y (ω) = 1
Si ω = F F F F alors X(ω) = 0 et Y (ω) = 0.
1
On en déduit P (X = 0) ∩ {Y = 1} = P ({F F F P }) = 16 . Et P (X = 1) ∩ {Y = 1} =
3
P ({P F F F }) + P ({F P F F }) + P ({F F P F }) = 16 .
3. La v. a. Y compte le nombre de piles obtenus quand on jette quatre fois de suite une pièce
de monnaie non truquée, donc Y suit la loi binomiale de taille n et de paramètre 21 .
Donc
1
E(Y ) = 4 × = 2.
2
Et
1 1
V ar(Y ) = 4 × × (1 − ) = 1.
2 2
4. On a P ({X = 0} ∩ {Y = 1}) = 16 . P ({X = 0}) = 16 et P ({Y = 1}) = 14 .
1 5
Donc P ({X = 0} ∩ ∩{Y = 1}) 6= P ({X = 0})P ({Y = 1}). Or, si X et Y sont indépendantes,
110
on aurait (par définition)
3 1 9 1
5. On a : E(XY ) = 16 + 2 + 16 + 4 = 32 .
Donc :
Cov(X, Y ) = E(XY ) − E(X)E(Y ) = 0.
Par suite,
%(X, Y ) = 0.
6. La réciproque de cette proposition est fausse, car X et Y ne sont pas indépendantes et elles
vérifient pourtant %(X, Y ) = 0.
Exercice 2 :
Voir Exo 1. du DS N o 3.
111
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi
Devoir surveillé N 1.
Epreuve de Probabilites et Statistiques Responsable : Lakhel El Hassan
Examen de 16 octobre 2006 Horaire : 09H :00min-10H :30min
Exercice 1.
On considère trois cartes : une avec les deux faces rouges, une avec les deux faces blanches,
et une avec une face rouge et une face blanche. On tire une carte au hasard. On expose une
face au hasard. Elle est rouge. Parieriez-vous que la face cachée est blanche ? pour vous aider
dans votre choix :
1. Déterminer l’espace de probabilité.
2. Calculer la probabilité que la face cachée est blanche sachant que la face visible est
rouge.
Exercice 2.
Dans une usine on dispose de 3 machines A, B, C fabriquant des pièces mécaniques d’un
type déterminé. La machine A assure 25% de la production, la machine B assure 35% et C
en assure 40%.
5% des pièces fabriquées à l’aide de la machine A sont défectueuses. Les pourcentages sont
respectivement égaux à 4% et 2% pour les machines B et C.
1. On tire une pièce au hasard quelle est la probabilité qu’elle soit défectueuse ?
2. On tire une pièce d’un lot constitué de pièces fabriquées, dans les proportion indéquées,
par les machines A, B et C. On constate que cette pièce est défectueuse. Calculer la
probabilité qu’elle ait été fabriquée par la machine A
3. On tire une pièce au hasard. Elle est saine. Quelle est la probabilité qu’elle vienne de C.
112
2. En s’inspirant de la question précédente, calculer la probabilité πn (k) pour que k per-
sonne exactement aient leur propre veste ?
Barême approximatif :
113
Corrigé du DS N 0 1 - A. U. 2006-2007- :
Exercice 1 :
a = R, b = R, c = R, e = B, f = B.
Une carte c’est une face exposée et une face cachée : (E, C). L’univers Ω est donc :
Ω = {(a, b), (b, a), (c, d), (d, c), (e, f ), (f, e)}.
P (E = R, C = B) Card{(c, d)} 1
P (C = B/E = R) = = = .
P (E = R) Card{(a, b), (b, a), (c, d)} 3
Exercice 2 :
Soit A : ”être fabriqué par A”, B : ” être fabriqué par B”,...
D : ” être défectueuse” et D : ”saine”.
On a
P (A) = 0.25, P (B) = 0.35, P (C) = 0.4.
A, B et C sont tels que A ∩ B = A ∩ C = B ∩ C = ∅ et A ∪ B ∪ C = Ω.
1) En applicant la formule des probabilités totales on a :
Partie I. Voir TD
Application :
On pose Ai = {i a sa veste }, on a par la formule du crible :
S P P
P ( 1≤i≤n Ai ) = np=1 (−1)p+1 1≤i1 <...<ip ≤n P (Ai1 ∩ ... ∩ Aip ).
Pn p+1 C p (n−p)
Pn p+1 1 .
= p=1 (−1) n n! = p=1 (−1) p!
Or \ [
P( Ai ) = 1 − P ( Ai )
1≤i≤n 1≤i≤n
Donc
\ n
X 1
P( Ai ) = 1 − (−1)p+1 .
p!
1≤i≤n p=1
114
On note
γ(n) = Card{ permutations de {1,...,n} sans points fixe}.
On a :
n
γ(n) X 1
1− = (−1)p+1 .
n! p!
p=1
Donc
n
X 1
γ(n) = n! (−1)p
p!
p=0
k γ(n−k)
Cn 1 Pn−k p1
= n! = k! p=0 (−1) p! .
3) On a :
1 −1
limn−→∞πn (k) = π(k) = e .
k!
D’où
∞
X X∞
1 −1
π(N) = π(k) =e = 1.
k!
k=0 k=0
P
(On peut poser pk = π(k), on a donc pk ≥ 0 et k pk = 1, d’où le résultat.)
115
Université Cadi Ayyad Année Universitaire 2006-2007
Ecole Nationale des Sciences Appliquées Responsable : Lakhel El Hassan
Safi
Exercice 1.
On désire modéliser le temps d’attente d’une panne de machine à l’aide de variables aléatoires
sans mémoire : la probabilité pour que la machine tombe en panne après la date k + n sachant
qu’elle fonctionne à l’instant n est indépendante de n.
1. Montrer que la loi géométrique de paramètre p est sans mémoire : c’est à dire que
P (X > k + n/X > n) est indépendante de n.
2. Caractériser toutes les lois des variables aléatoires X à valeurs dans N∗ qui sont sans
mémoire. On pourra calculer P (X > 1 + n) en fonction de P (X > 1).
3. Caractériser toutes les lois des variables aléatoires X à valeurs dans N qui sont sans
mémoire.
Exercice 2.
La durée de vie, exprimée en années, d’un circuit électronique est une variable aléatoire T
dont la fonction de répartition F est définie par :
½
0¡ ¢ si t < 0
F (t) = 1 2
1 − exp − 2 t si t ≥ 0
116
1. On choisit de façons successive 3 employés : calculer la probabilité d’avoir un employé
de chaque catégorie professionnelle.
2. On choisit de façon successive 3 employés et soit X la variable aléatoire qui représente
le nombre d’ingénieurs choisis. Donner la loi de probabilité de X.
Exercice 5. Soit un vendeur de lots de pièces mécaniques disposant, à une date t0 , d’un
stock s.
La demande X, pour un intervalle de temps [t0 , t1 ], est une v. a. entière ayant une loi de
probabilité définie par :
où p et q sont deux réels positifs tels que p + q = 1 et x0 est un entier naturel inférieur à s.
1) Calculer k(x0 ) et E(X).
2) Si X est inférieure au stock s, les lots restants sont vendus à perte et le vendeur aura
à affronter une dépense moyenne de c1 DH. Si X est supérieure au stock s, il faut un ap-
provisionnement spécial de pièces manquantes et le supplément du coût représente une perte
moyenne de c2 DH.
Calculer l’éspérence mathématique des dépenses que va devoir affronter le vendeur pendant
la période [t0 , t1 ].
117
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi
Devoir surveillé N 2.
Epreuve de Probabilités et Statistiques Responsable : Lakhel El Hassan
Examen de 25 décembre 2006 Horaire : 8H :30min-10H :00
Exercice 1. (9 points)
On lance trois fois de suite une pièce de monnaie non truquée. Soient X le numéro du lancer
où on obtient Pile la première fois 1 (avec la convention que X = 4 si on n’obtient pas de
Pile ) et Y le numéro du lancer où on obtient Face la première fois (avec la convention que
Y = 4 si on n’obtient pas de Face).
1. Donner la loi du couple (X, Y ).
2. Donner la loi de X, son espérance et sa variance.
3. Donner la loi de Z = X + Y , son espérance et sa variance.
4. Calculer le coefficient de corrélation linéaire ρ(X, Y ) et interpréter le résultat obtenu.
5. Montrer que pour toutes variables aléatoires indépendantes X1 et X2 on a
ρ(X1 , X2 ) = 0.
autrement dit,
∀ω ∈ Ω, T (ω) = SN (ω) (ω).
Ce modèle est d’un usage courant. Par exemple si une compagnie d’assurances s’intéresse
au risque pour une certaine catégorie de véhicules, dans une ville donnée, N représente le
nombre de sinistres déclarés au cours d’une période de temps donnée et Xi le remboursement
payé par la compagnie pour le i-ème sinistre déclaré pendant cette période. On peut imaginer
facilement d’autres applications comme le cumul des hauteurs de pluie sur une année, le total
des retraits effectués sur un distributeur automatique bancaire en une journée, etc.
1
Par exemple, la séquence P P P donne X = 1 et Y = 4 ; F P F donne X = 2 et Y = 1 ;, F F P donne X = 3
et Y = 1 ; F F F donne X = 4 et Y = 1 ; etc.
118
Le but de cet exercice est de calculer l’espérance de T en fonction des espérances des Xi
et de N sans supposer connues les loi des Xi ou de N .
On suppose de plus que N est indépendante de la suite (Xi )i≥1 , ce qui implique notamment
(on ne vous demande pas de le justifier) que pour tout j ∈ N et tous boréliens B et B 0 de R,
les évènement {Sj ∈ B} et {N ∈ B 0 } sont indépendants.
1. Trouvez l’erreur dans le raisonnement suivant : Par additivité de l’espérance des va-
riables aléatoires positives,
ÃN ! N
X X
ET = E Xi = EXi = N EX1 .
i=1 i=1
2. Soit A ∈ F un événement et Y une variable aléatoires sur (Ω, F, P ) tels que pour tout
t ≥ 0, les événements {Y > t} et A soient indépendants. Montrer que
En déduire que
n
X
∀n ∈ N∗ , ETn = EX1 jP (N = j).
j=0
6. Vérifier que X
T = Sj 1{N =j} .
j∈ N
(on comparera les valeurs prises par les deux membres en un ω quelconque).
7. Déduire que :
E(T ) = E(N )E(X1 ).
Barême approximatif :
Exercice 1 : 9 points Problème 2 : 11 points
119
Corrigé du DS N o 2 - A. U. 2006-2007 :
Exercice 1 :
A Ecrire
Problème 2 :
120
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi
Devoir surveillé N 3.
Epreuve de Probabilités et Statistiques 1 Responsable : Lakhel El Hassan
Contrôle continu de 09 janvier 2007 Horaire : 10H :30min-12H :00
Exercice 1. (6 points)
Soit α un réel et f la fonction réelle définie par :
(
α
(x−1)2
si x < 0,
f (x) = −2x
αe si x ≥ 0.
1
la qualité et la clarté de la rédaction constituent des éléments essentiels dans l’appréciation de la copie.
121
Exercice 3 : (Vitesse moyenne) (4 points)
On veut estimer par intervalle de confiance la vitesse moyenne des automobiles dans un
certain virage d’une route à grand trafic. Pour cela on a enregistré à l’aide d’un radar les
vitesses X1 (ω) = x1 , ..., X400 (ω) = x400 de 400 automobiles en une période de temps de 2
heures avec des conditions de circulation homogènes (météo, visibilité, densité de trafic,. . .).
On a obtenu les statistiques suivantes
400
X 400
X
xi = 35200km/h, x2i = 3107600(km/h)2 .
i=1 i=1
L’homogénéité des conditions de trafic permet de supposer que les variables aléatoires X1 , . . .
,X400 , dont on a ainsi observé une réalisation, sont indépendantes et de même loi. Proposez un
intervalle de confiance au niveau 98% pour la vitesse moyenne EX1 en indiquant clairement
quels résultats du cours légitiment les approximations faites. Les données numériques ci-
dessus ont été arrangées pour vous permettre de faire facilement tous les calculs à la main
si vous ne disposez pas d’une calculatrice.
Barême approximatif :
Exercice 1 : 6 points
Exercice 2 : 10 points
Exercice 3 : 4 points
122
Corrigé du DS N o 3 - A. U. 2006-2007 :
Exercice 1 :
A Ecrire
Exercice 2 :
1
R +∞
= 2 −∞ t2 exp(− 12 t2 )dt
√
2π
= 2 .
2. La probabilité s’écrit
9
P (T ≥ 3) ∩ P (T ≥ 1) P (T ≥ 3) e− 2 −4
P (T ≥ 3/T ≥ 1) = = = 1 = e .
P (T ≥ 1) P (T ≥ 1) e− 2
On a pas P (T ≥ 3/T ≥ 1) = P (T ≥ 2) = e−2 . Donc la loi n’est pas sans mémoire.
P (∪i=10
i=1 (Xi = 1)) = 1 − P (∩10 (X = 0))
Q10 i=1 i
= 1 − i=1 P (Xi = 0)
10
= 1 − e− 2
' 0.99
123
on obtient p2 = 0.23 p3 = 0.099
Exercice 3 :
Nous allons chercher pour EX1 un intervalle de confiance centré sur X = 35200/400 =
88km/h. Pour construire cet intervalle de confiance, on ne peut pas utiliser ici le théorème
limite central classique car l’écart-type σ des Xi est inconnu. On va utiliser le TLC avec
autonormalisation où l’onremplace σ par S, laracine carrée de la variance empirique
n n
1X 1X 2 2
S2 = (Xi − E(Xi ))2 = Xi − X
n n
i=1 i=1
Les Xi étant de carré intégrable, le TLC avec autonormalisation nous dit que
√ X − E(X1 )
n −→ N (0, 1) (en loi)
S
Cette convergence légitime pour n grand, l’approximation
√ X − E(X1 )
P (| n | ≤ t) = P (|N (1, 1)| ≤ t) = 2π(t) − 1,
S
où π est la f.d.r. de la loi N (0, 1).
Par suite :
√ X − E(X1 ) tS tS
| n | ≤ t ⇐⇒ X − √ ≤ E(X1 ) ≤ X + √ .
S n n
Cette inégalité nous donne alors un intervalle de confiance pour EX1 au niveau 2π(t) − 1. Il
s’agit bien d’un intervalle de confiance puisque les bornes XtSn−1/2 sont calculables à partir
des observations sans connaissance de la loi des Xi . Pour terminer les calculs, on détermine
t en résolvant 2π(t) − 1 = 0, 98, ce qui équivaut à π(t) = 0, 99,.
D’où
t = 2, 33.
On calcule ensuite X(ω) et S(ω) :
400
1 X
X=x= xi = 35200km/h = 88Km/h.
400
i=1
Et
400
1 X 2 3107600
S(ω) = s = xi − x2 = − (88)2 = 25Km/h2 .
400 400
i=1
d’où S(ω) = s = 5km/h. Un intervalle de confiance I au niveau 98% pour EX1 en km/h est
donc
2.33 × 5 2.33 × 5
I = [88 − , 88 + ] = [87, 41; 88, 59].
20 20
124
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi
Exercice 1. (8 points)
1. Soit X : Ω −→ N une variable aléatoire. Qu’est- ce que la loi de X ? Comment calcule-
t-on l’espérance de X, la variance de X ?
E(X)
P (X > a) ≤ .
a
4. Si X est une v. a. r. admettant un moment d’ordre 2, et si a ∈ R∗+ , montrer que :
V ar(X)
P (|X − E(X)| > a) ≤ .
a2
Exercice 2. (12 points)
Soit T une variable aléatoire à valeurs dans N. Pour tout n ∈ N, on suppose que P (T ≥
n) > 0 et que
P{T ≥n} (T ≥ n + 1) = P (T ≥ 1). (1)
1. On pose p = P (T = 0). Si G est une variable aléatoire de loi géométrique G(p), mon-
trer que Z = G − 1 vérifie P (Z = k) = p(1 − p)k pour k ∈ N.
4. En déduire P (T ≥ n) pour n ∈ N (on remarquera que (fn ) est une suite géométrique).
5. Montrer que deux variables aléatoires X et Y à valeurs dans N ont la même loi si
P (X ≥ n) = P (Y ≥ n) pour tout n ∈ N.
1
la qualité et la clarté de la rédaction constituent des éléments essentiels dans l’appréciation de la copie.
125
Corrigé du contrôle de rattrapage - A. U. 2006-2007 :
Exercice 1 :
Voir le cours.
Exercice 2 :
P (Z = k) = P (G = k + 1) = p(1 − p)k .
P∞ 1
= p(1 − p)n l=0 (1 − p)l = p(1 − p)n 1−(1−p) = (1 − p)n .
fn + 1 = P (T ≥ n + 1) = P (T ≥ n + 1 et T ≥ n) = PT ≥n (T ≥ n + 1)P (T ≥ n)
(1)
P (T ≥ 1)P (T ≥ n) = f1 fn .
=
P (T ≥ n) = fn = (f1 )n = (1 − p)n .
P (X = n) = P (X ≥ n) − P (X ≥ n + 1) = P (Y ≥ n) − P (Y ≥ n + 1) = P (Y = n).
126
8.1 Bibliographie
Voici une bibliographie très incomplète. Allez voir vous même à la Bibliothèque. Gardez
en mémoire qu’un bon livre est un livre qui vous donne envie d’apprendre et de travailler son
contenu ! !
A compléter.
127