You are on page 1of 5

Annexe D

Quelques mthodes de statistique lusage de la physique


I. Probabilit
On considre une exprience rpte un trs grand nombre de fois, par exemple un lanc de ds ou un tir sur
une cible. Chaque ralisation donne lieu un rsultat x, par exemple la somme des valeurs des ds ou la distance de
limpact du tir au centre de la cible. Lensemble des expriences permet de dnir et de mesurer une loi de probabilit
de ralisation de la variable x.
A. Probabilits discrtes
Considrons le cas o toutes les valeurs de x sont discrtes, donc rparties en n valeurs x
i
(i = 1 n). Sur
lensemble des expriences, la probabilit p
i
dobserver la valeur x
i
de x est
p
i
=
nombre dexpriences ralisant la valeur x
i
nombre total dexpriences
.
Les valeurs x
i
tant par dnition distinctes, on a la condition de normalisation
n

i=1
p
i
= 1.
La valeur moyenne des valeurs observes pour x est x =
n

i=1
p
i
x
i
. La valeur moyenne de toute fonction g(x)
scrit de mme g(x) =
n

i=1
p
i
g(x
i
), dirent a priori de g(x).
B. Densit de probabilit
Si lensemble des valeurs de x est continu sur un intervalle I donn, on est amen dnir une densit de
probabilit (x) telle que (x) dx soit la probabilit dobserver au cours dune exprience une valeur comprise entre
x et x + dx :
(x) dx =
nombre dexpriences ralisant une valeur comprise entre x et x + dx
nombre total dexpriences
Si x a une dimension physique, (x) a la dimension inverse. La condition de normalisation scrit ici

xI
(x) dx = 1.
La valeur moyenne des valeurs observes pour x est x =

xI
x(x) dx. La valeur moyenne de toute fonction
g(x) scrit de mme g(x) =

xI
g(x)(x) dx, dirent a priori de g(x).
La densit de probabilit (x) peut avoir un maximum en x
m
, qui est alors la valeur la plus probable. Cette
valeur est a priori dirente de la valeur moyenne x, sauf si la fonction (x) est symtrique sur son intervalle de
dnition.
C. Variance et cart type
Pour avoir une ide de ltalement de la distribution des valeurs de x, on dnit la variance comme la valeur
moyenne des carts x x au carr, cest--dire = (x x)
2
= x
2
2xx + x
2
= x
2
x
2
0. Ensuite,
lcart-type est la racine carr de la variance :
=

(x x)
2
=

x
2
x
2
. (1)
On note aussi souvent lcart-type x, sil ny a pas dambigut possible avec une variation.
D. Statistique plusieurs variables
Si chaque exprience donne lieu deux rsultats x et y, par exemple continus, on peut dnir :
- une densit de probabilit (x) sur les ralisations de x quelle que soient les valeurs de y,
- une densit de probabilit (y) sur les ralisations de y quelle que soient les valeurs de x,
- une densit de probabilit (x, y) sur les ralisations dunc couple (x, y).
La condition de normalisation sur la densit de probabilit (x, y) scrit

(x, y) dxdy = 1. Si les variables x et


y sont corrles, les rsultats en x dpendent des rsultats en y et rciproquement. On dnit alors la fonction de
corrlation g(x, y) selon
(x, y) = (x)(y)g(x, y).
1
Cette fonction est sans dimension. Dans le cas particulier o x et y sont des variables statistiquement indpendantes,
on a g(x, y) = 1.
On peut dnir les moyennes pour chaque variable x ou y indpendamment lune de lautre et, par suite, les
variances et carts-types selon
x
=

x
=

x
2
x
2
et
y
=

y
=

y
2
y
2
. Pour lensemble des deux
variables, on dnit la covariance

xy
= (x x)(y y) = xy xy (2)
Le coecient de corrlation entre les deux variables est
=

xy

y
, (3)
et on peut tablir que 1 1. Lorsque les variables sont statistiquement indpendantes, on a xy = xy, donc

xy
= 0 et = 0.
II. Lois remarquables
A. Loi binomiale
On considre une exprience pouvant mener deux rsultats complmentaires A et B de probabilits respectives
a et b = 1 a. On rpte cette exprience n fois de manire identique, en supposant dune part que les n essais sont
statistiquement indpendants, dautre part que les probabilits a et b restent constantes. Lexprience globale des n
tirages est lpreuve de Bernoulli. Lexemple standard est celui dun sac de boules rouges et vertes, dans lequel on tire
au hasard une boule qui sera rouge (avec la probabilit a) ou verte (avec la probabilit b) : les n tirages successifs
seront indpendants si, lissue de chaque tirage, on replace la boule dans le sac, pour ne pas perturber les probabilits
du tirage suivant.
La probabilit pour que, sur les n expriences, le rsultat A soit sorti m fois est
P
A
(m) = C
m
n
a
m
b
nm
= C
m
n
a
m
(1 a)
nm
. (4)
(loi binomiale). En eet, la probabilit dune conguration donne o A est sorti m fois (donc o B est sorti n m
fois) est a
m
b
nm
, et on obtient la probablit cherche en multipliant par le nombre de combinaisons de m lments
sur n, soit C
m
n
=
n!
m!(nm)!
. On respecte bien la condition de normalisation :
n

m=0
P
A
(m) =
n

m=0
C
m
n
a
m
b
nm
= (a +b)
n
= 1.
Le calcul des valeurs moyennes et de lcart-type se fait bien en introduisant la fonction
f(x) =
n

m=0
C
m
n
x
m
b
nm
= (x +b)
n
que lon peut driver :
f

(x) =
n

m=1
C
m
n
mx
m1
b
nm
= n(x +b)
n1
, etc.
On peut ainsi tablir les formules suivantes
m =
n

m=0
mP
A
(m) =
n

m=0
C
m
n
mx
m
b
nm
=

xf

(x)

x=a
= na, (5a)
m
2
=
n

m=0
m
2
P
A
(m) =
n

m=0
C
m
n
m
2
x
m
b
nm
=

xf

(x)

x=a
= (na)
2
+nab. (5b)
On en dduit lcart type de la loi binomiale
=

m
2
m
2
=

nab =

na(1 a). (6)


2
0 5 10 15 20
0
0,05
0,1
0,15
0,20
0,25
Loi binomiale, trace pour a = 0,4 et n = 20.
0 2 4 6 8 10
0
0,2
0,4
0,6
0,8
1
Loi de densit gaussienne, centres sur une mme valeur moyenne
x = 5 et pour des carts types = 0,5 (rouge), 1 (bleu) et 2 (vert).
B. Gaussienne
Une gaussienne (ou loi normale) est une densit de probabilit dnie sur une variable continue x R de la
forme
G(x) =
1

2
e
(xx)
2
/2
2
. (7)
Les intgrales gaussiennes donnes dans le tableau ci-dessous permettent de vrier que la gausienne ainsi crite
est norme, cest--dire

G(x) dx = 1, et de vrier aussi que x est la valeur moyenne et lcart type de la


variable x.
I
n
I
0
I
1
I
2
I
3
I
4


0
x
n
e
x
2
dx
1
2

1
2
1
4

1
2
2
3
8
2

Reconsidrons lpreuve de Bernoulli, avec n tirages dune mme preuve ayant deux rsultats complmentaires
de probabilits a et b = 1 a. Si aucun des deux rsultats nest fortement improbable (i.e., a b), et pour un trs
grand nombre de tirages (n 1), la loi binomiale (4) tend vers une gaussienne :
Na 1 et Nb 1 = P
A
(m) G(m), (8)
avec une moyenne m = na et un cart type =

nab.
1
C. Loi de Poisson
Une loi de Poisson est une densit de probabilit dnie sur une variable entire m N de la forme
P(m) =
m
m
m!
e
m
, (9)
o m est la valeur moyenne. On montre facilement que m(m1) = m
2
, do on dduit lcart type =

m.
Reconsidrons lpreuve de Bernoulli, avec n tirages dune mme preuve ayant deux rsultats complmentaires
de probabilits a et b = 1 a. Si un des deux rsultats est fortement improbable, mettons a 1, et pour un trs
grand nombre de tirages (n 1), la loi binomiale (4) tend vers une loi de Poisson :
a 1 et N 1 = P
A
(m) P(m), (10)
avec une moyenne m = na et un cart type =

m =

na.
2
1. On obtient ce rsultat en appliquant la formule de Stirling aux factorielles gurant dans le coecient du binme de lexpression
de P
A
(m), en considrant m comme une variable continue et en faisant un dveloppement limit autour de la valeur la plus probable qui
coincide avec la valeur moyenne.
2. On obtient facilement ce rsultat en notant que, puisque a 1, seules les valeurs m n peuvent avoir une probablit non
ngligeables et alors n!/m! = n(n 1)(n 2) (n m + 1) n
m
donc
P
A
(m) =
n!
m!(n m)!
a
m
b
nm

n
m
m!
a
n
e
(nm) ln(1a)

(na)
m
m!
e
na
=
m
m
m!
e
m
.
3
0 20 40 60 80 100
0
0,02
0,04
0,06
0,08
0,1
Loi binomiale, trace pour a = 0,4 et n = 100
et approximation une densit gaussienne.
0 10 20 30 40 50
0
0,1
0,2
0,3
0,4
0,5
Loi binomiale, trace pour a = 0,025 et n = 100
et approximation une densit de Poisson.
D. Lorentzienne
Une lorentzienne (ou loi de Cauchy) est une densit de probabilit dnie sur une variable continue x R de la
forme
L(x) =
1

a
(x x
0
)
2
+a
2
. (11)
En raison de sa lente convergence vers zro linni, la lorentzienne pose des problmes de convergence des intgrales.
On peut contourner la dicult pour dnir sa valeur moyenne en crivant
x = lim
X

X
X
xF(x) dx = x
0
. (12)
Mais la valeur moyenne x
2
diverge et la lorentzienne nadmet donc pas dcart type. Le paramtre dchelle a traduit
nanmoins son talement.
III. Quelques thormes
A. Thorme central limite
On considre N variables alatoires indpendantes x
i
R, obissant une mme loi de probabilit, donc
admettant la mme valeur moyenne x et le mme cart type . Alors, la variable dnie par la somme
X =
N

i=1
x
i
a pour valeur moyenne X = Nx et pour cart type
X
=

N. De plus, pour N 1, la densit de probabilit


sur la variable X tend vers une gaussienne :
G(X) =
1

2N
e
(XNx)
2
/2N
2
.
On rsume parfois ce thorme en disant que la somme dun grand nombre de variables alatoires, identiques mais
indpendantes, tend toujours vers une rpartition gaussienne. Notons cependant que, si la loi de probabilit de ces
variables est une lorentzienne, labsence dcart type invalide lapplication du thorme (et la somme obit en fait
une rpartition lorentzienne).
B. Ingalit de Bienaym-Tchbyche
Si x est une variable alatoire, de moyenne x et dcart type , la probabilit dobserver une valeur de x
loigne de x de (avec 1) est borne :
p

|x x|

2
. (13)
La dmontration est simple : par exemple, dans le cas dune variable continue de densit de probabilit p(x), on crit

2
=

p(x)(x x)
2
dx

|xx|
p(x)(x x)
2
dx ()
2

|xx|
p(x)dx = ()
2
p

|x x|

.
Cette ingalit permet de dterminer la conance quon peut avoir en une mesure si on exige une certaine prcision. Elle
est indpendante de la loi de probabilit laquelle obit la variable x, donc peut savrer relativement pessimiste . On
4
peut aner la majoration si on prcise la loi de probabilit : pour une distribution continue gaussienne, la probabilit
dobserver une valeur de x loigne de x de est prcisment
p

|x x|

= 1
1

|xx|
e
(xx)
2
/2
2
dx = 1 erf

,
o lon a introduit la fonction derreur de Gauss
erf(t) =
2

t
0
e
u
2
du. (14)
5

You might also like