You are on page 1of 2

Lois de probabilités

Synthèse

Quelques lois de probabilité discrètes:

Lois Notation Définition Espérance Variance

∀ i, si 1 ≤ i ≤ n si xi = i, si xi = i,
1 n+1 n 2 −1
Uniforme P(X = xi ) = E(X) = V (X ) =
n 2 12

si succès X = 1
échec X = 0
E(X) = p V(X) = pq
Bernoulli B(1, p) P(X = 0) = q
P(X =1) = p avec p+q = 1
n
Sn = ∑ Xi
i=1
Binomiale B(n, p) E(Sn) = np V(Sn) = npq
avec X variable Bernoulli
P(Sn = k ) = Cnk p kq n−k

λke −λ
P(X = k) =
k! E(X) = λ V(X) = λ
Poisson P(λ)
avec λ > 0

avec k : nbre d’épreuves


BN n q
Binomiale et n : nbre de succès, k ≥ n E(X ) = V(X ) = n
p p2
négative (n,p) n −1 n k−n
P(X = k) = Ck−1 p q

avec n = 1 1 q
Géométrique k−1
E(X ) = V(X ) =
BN (1,p) P(X = k) = pq p p2
Quelques lois de probabilité continues :

Lois Notation Définition Espérance Variance


1
f (x) = si x ∈[a,b)] b+ a (b − a)
2
Uniforme b−a E(X ) = V(X ) =
f (x) = 0 si x ∉[a,b)] 2 12

Normale N(µ,σ) 1 x − µ  2
1 − 
2 σ 
 E(X) = µ V(X) = σ2
x a f (x) = e
σ 2π
1
Normale 1 −2z2
z a f (z) = e avec E(Z) = 0 V(Z) = 1
réduite N(0,1) 2π
X−µ
Z= et X → N(µ,σ)
σ

Khi deux 2
χ (n)
2
χ = ∑ Xi2 avec Xi → N((0,1) 2
E(χ ) = n
2
V(χ ) = 2 n
i=1
n x
−1 −
x a f (x) = C(n)x e 2
2

avec n degrés de liberté

T(n) U n
Tn = avec U →N((0,1) et E(T) = 0 V(T ) =
Student V n −2
si n > 1 si n > 2
n
V → χ2(n)

Théorème central limite

Si Sn = X1 + X2 +…+ Xi + ...+ Xn est la somme de n variables aléatoires indépendantes et de


S n − nµ
même loi alors la variable aléatoire Z n = suit une loi normale réduite N(0,1) et
(σ n )
ceci quelque soit la loi de probabilité suivie par les variables aléatoires.

You might also like