You are on page 1of 36

Institut de Statistique

Université catholique de Louvain

PSY1351
Statistique appliquée
à la psychologie II

Formulaire et tables

Bernadette Govaerts

Institut de statistique, Université catholique de Louvain – Voie du Roman Pays, 20 - B 1348 Louvain-la-Neuve
Bernadette.govaerts@uclouvain.be
Arbre de choix de méthodes statistiques de Howell
Outils statistiques et commandes SPSS

Cette section passe en revue les outils statistiques vus ou revus dans le cadre du cours PSY1351 et fournit
les principales commandes SPSS permettant d’obtenir ces outils. ATTENTION : Ce document classe les
outils selon des critères qui ne sont pas universels. D’autres classements sont possibles et certains outils
sont peut-être oubliés. Il arrive très souvent qu’un graphique ou une analyse puisse être obtenu par
différents menus dans SPSS. Les commandes SPSS reprises dans ce document ne se veulent nullement
exhaustives mais sont plutôt fournies à titre d’exemples. A vous d’explorer les possibilités d’SPSS…

Une variable quantitative

Résumé numérique
o Moyenne, mode, médiane (mesures de position)
o Analyze → Reports → Case Summaries (décocher «Display cases»)
o Analyze → Descriptive Statistics → Explore
o Analyze → Descriptive Statistics → Descrip!ves
o Étendue, EIQ, variance, écart-type, CV (mesures de dispersion)
o Analyze → Reports → Case Summaries (décocher «Display cases»)
o Analyze → Descriptive Statistics → Explore
o Analyze → Descriptive Statistics → Descrip!ves
o Tableau de fréquence + cumulés (éventuellement par classes)
o Analyze → Descrip!ve Sta!stics → Frequencies

Résumé graphique
o Histogramme - visualiser distribution
o Graphs → Legacy Dialogs → Histogram
o Graphs → Chart Builder → Histogram
o Box plot
o Graphs → Legacy Dialogs (→ Interac!ve )→ Boxplot
o Graphs → Chart Builder → Boxplot
o Diagramme en barres (discrète)
o Graphs → Legacy Dialogs → Bar (Simple)
o QQ plot
o Analyze → Descriptive Statistics → Q-Q Plots

Inférence
o Test t et intervalle de confiance sur une moyenne
o Analyze → Compare Means → One-Sample T test
o Test Khi2 et intervalle de confiance sur une variance
o Non disponible avec le module de base de SPSS
o Test Khi2 pour vérifier la normalité
o Non vu – Se référer au QQ plot pour vérifier la normalité

Une variable qualitative

Résumé numérique
o Mode
o Analyze → Descrip!ve Sta!s!cs → Frequencies (Statistics)
o Médiane (qualitative ordinale)
o Analyze → Descrip!ve Sta!s!cs → Frequencies (Sta!s!cs)
o Analyze → Reports → Case Summaries (décocher «Display cases»)
o Analyze → Descriptive Statistics → Explore
o Tableau de fréquences (+ cumulés si ordinale)
o Analyze → Descrip!ve Sta!s!cs → Frequencies

Résumé graphique
o Diagramme en barres
o Graphs → Legacy Dialogs → Bar (Simple)

Inférence
o Variable à deux niveaux : Test sur une proportion (variables qualitative à deux niveaux)
o Analyze → Non Parametric Tests → Binomial
o Analyze → Non Parametric Tests → Chi Square
o Variable à plus de deux niveaux : Test d'ajustement Khi2 pour une variable catégorielle
o Analyze → Non Parametric Tests → Chi Square

Deux variables quantitatives

Résumé numérique
o Coefficient de corrélation de Pearson, Spearman
o Analyze → Correlate → Bivariate
o Droite de régression des moindres carrés
o Graphs → Legacy Dialogs → Interac!ve → Scatterplot (Fit)
o Analyze → Regression → Linear

Résumé graphique
o Graphe X-Y - Scatter Plot
o Graphs → Legacy Dialogs → Interac!ve → Scatterplot
o Dessin de la droite de régression sur le grahe X-Y
o Graphs → Legacy Dialogs → Interac!ve → Scatterplot (Fit)

Inférence
o Test et intervalle de confiance sur un coefficient de corrélation de Pearson
o Analyze → Correlate → Bivariate

Explication-modélisation
o Régression linéaire
• Tests et intervalles de confiance sur les coefficients d'une droite de régression
o Analyze → Regression → Linear (Sta!s!cs)
• Prédiction et intervalle de confiance sur la réponse moyenne prédite et intervalle de
prédiction
o Analyze → Regression → Linear (Save – Prediction intervals)
• Outils pour valider les hypothèses (QQ plot résidus, graphe des résidus)
o Analyze → Regression → Linear (Plots)
o (Plots: X=ZPRED Y=ZRESID)
o (Plots: Normal probability plot)

Deux variables qualitatives

Résumé numérique
o Table de contingence
o Analyze → Descrip!ve Sta!s!cs → Crosstabs
o V et Phi de Cramer
o Analyze → Descrip!ve Sta!s!cs → Crosstabs
Résumé graphique
o Diagramme en barres par catégories
o Graphs → Legacy Dialogs → Bar (Clustered/Stacked)

Inférence
o Test de comparaison de deux proportions
o Analyze → Descrip!ve Sta!s!cs → Crosstabs (Sta!s!cs:Chi-Square)
o Test d'indépendance Khi2
o Analyze → Descrip!ve Sta!s!cs → Crosstabs (Sta!s!cs:Chi-Square)

Une variable qualitative X et une variable quantitative Y

Résumé numérique
o Indices de position et dispersion par catégories de la variable qualitative
o Analyze → Reports → Case Summaries (décocher «Display cases»)
o Analyze → Descriptive Statistics → Explore

Résumé graphique
o Box plot par catégories
o Graphs → Chart Builder → Boxplot

Inférence sur Y quand la variable qualitative X a deux niveaux


o Données indépendantes
• Test t de comparaison de deux moyennes variances supposées égales
o Analyze → Compare Means → Independent-Samples T Test
• Test t de comparaison de deux moyennes variances supposées non égales
o Analyze → Compare Means → Independent-Samples T Test
• Test F de comparaison de 2 variances
o Non disponible avec le module de base de SPSS
• Test de Levene de comparaison de 2 variances
o Analyze → Compare Means → Independent-Samples T Test
• Test de la somme des rangs de Wilcoxon et test de Mann-Whitney pour comparer deux
valeurs centrales
o Analyze → Nonparametric Tests → Independent Samples (Mann-Whitney)
o Données pairées
• Test t de comparaison de deux moyennes pour données pairées
o Analyze → Compare Means → Paired Samples T Test
• Test des rangs de Wilcoxon pour données pairées
o Analyze → Nonparametric Tests → 2 Related Samples (Wilcoxon)
• Test du signe
o Analyze → Nonparametric Tests → 2 Related Samples (Sign)

Inférence sur Y quand la variable qualitative X a plus de deux niveaux


o Groupes indépendants
• ANOVA I pour la comparaison des moyennes des traitements
o Analyze → Compare Means → One-Way ANOVA
• Tests de comparaisons multiples (Bonferroni, Tukey, Newman-Keuls)
o Analyze → Compare Means → One-Way ANOVA (Post Hoc)
• Tests sur des contrates
o Analyze → Compare Means → One-Way ANOVA (Contrasts)
• Test de Levene de comparaison de variances
o Analyze → Compare Means → One-Way ANOVA (Options)
• Analyse de la variance à un critère de classification de Kruskal-Wallis
o Analyze → Nonparametric Tests → k Independent Samples (Kruskal Wallis)
o Groupes dépendants
• ANOVA I pour mesures répétées
o Analyze → General Linear Models → Repeated Measures
• Tests de comparaisons multiples (Bonferroni)
o Analyze → General Linear Models → Repeated Measures (Options – Compare main
effects))
• Test des rangs de Friedman pour k échantillons dépendants
o Analyze → Nonparametric Tests → k Related Samples (Friedman)

Explication-modélisation
L'ANOVA I peut être considérée comme un modèle où on "explique" la variable Y à partir du niveau
pris par X (voir chapitre sur les modèles GLM)

2 variables quantitatives et une variable qualitative

Résumé numérique
o Coefficient de corrélation par niveau de la variable catégorielle
o Data → Split File (var catég) + Analyze → Correlate → Bivariate

Résumé graphique
o Graphe X-Y avec des symboles différents pour les niveaux de la variable qualitative
o Graphs → Legacy Dialogs → Scatterplot (Simple Scatter)

Inférence quand la variable qualitative a deux niveaux


o Test d'égalité de deux coefficients de corrélation
o Non disponible avec le module de base de SPSS
o Test de comparaison de deux pentes de droites de régression
o Non disponible avec le module de base de SPSS

Explication-modélisation
o Modélisation GLM ou analyse de covariance pour expliquer une variable quantitative à partir d’une
variable qualitative et une variable quantitative

2 variables qualitatives A et B et une variable quantitative X

Résumé numérique
o Mesures de position et dispersion par combinaisons des niveaux de A et B
o Analyze → Reports → Case Summaries (décocher «Display cases»)

Résumé graphique
o Box plot par combinaisons des niveaux de A et B
o Graphs → Legacy Dialogs → Boxplot (Clustered)

Inférence - groupes indépendants


o ANOVA II pour tester les effets principaux et l'effet d'interaction des deux variables qualitatives A et
B sur la variable quantitative X
o Analyze → General Linear Models → Univariate
o Autres outils disponibles avec ANOVAI (comparaisons multiples, contrastes, test de Levene …)
o Analyze → General Linear Models → Univariate (Post Hoc – Contrasts – Options)
Inférence - plusieurs traitements par sujet
o Modèle pour mesures répétées avec un facteur within et une facteur between ou avec deux facteurs
within
o Analyze → General Linear Models → Repeated Measures

k variables quantitatives

Résumé graphique
o Graphe X-Y matriciel (scatter plot matrix)
o Graphs → Legacy Dialogs → Scatter/dot (Matrix Scatter)

Explication-modélisation
o Régression linéaire multiple
• Tests et intervalles de confiance sur les coefficients d'une droite de régression
o Analyze → Regression → Linear (Sta!s!cs)
• Prédiction et intervalle de confiance sur la réponse moyenne prédite et intervalle de
prédiction
o Analyze → Regression → Linear (Save – Prediction intervals)
• Outils pour valider les hypothèses (QQ plot résidus, graphe des résidus)
o Analyze → Regression → Linear (Plots)
o (Plots: X=ZPRED Y=ZRESID)
o (Plots: Normal probability plot)
• Outils de détection d’outliers et de points influents : leverage et statistique de Cook
o Analyze → Regression → Linear ( Save: Préd unstd & Leverage) + Scatter/Dot:
X=Préd unstd Y=Lev)
• Indice VIF pour mesurer la colinéarité
o Analyze → Regression → Linear (Sta!s!cs)
Formulaire

1. Statistique descriptive

Analyse descriptive d’une variable quantitative


1 N
Moyenne arithmétique : X = ∑ Xi
N i =1
1 N 1 N 2 2
Variance d’un échantillon : s 2 = ∑(Xi − X ) =
2
 ∑ X i − NX 
N −1 i =1 N −1  i =1 
Ecart-type d’un échantillon : s = s 2 Coefficient de variation : CV = s X

Transformation linéaire :
Si Y = a + bX alors : Y = a + bX sY2 = b 2 s 2X sY = b s X

Analyse conjointe de deux variables quantitatives


1 N
∑ ( X i − X )(Yi − Y )
Coefficient de corrélation r de Pearson : r = r ( X , Y ) = N − 1 i =1

s X sY

Analyse conjointe de deux variables qualitatives


2
 nn 
 nij − i. . j 
1 q r
 N 
Indice d’association φ de Cramer : φ = ∑∑
N (t − 1) i =1 j =1 ni. n. j
N

2. Inférence sur les paramètres d’une population Normale


X − µ0
Test sur une moyenne µ à σ² connu : stat de test : zobs = ~ N(0,1) sous H0
σ/ n
Règle de décision
H0 µ=µ0 H1 µ>µ0 Accepter H1 si zobs ≥ z1-α
H0 µ=µ0 H1 µ<µ0 Accepter H1 si zobs ≤ -z1-α
H0 µ=µ0 H1 µ≠µ0 Accepter H1 si zobs ≤ -z1-α/2 ou zobs ≥ z1-α/2
X − µ0
Test sur une moyenne µ à σ² inconnu : stat de test : t obs = ~ tn-1 sous H0
s/ n
(n − 1) s 2
Test sur une variance σ² : statistique de test : χ obs = ~ χ n2-1 sous H0
2

σ 02
Règle de décision
H0 σ²=σ0² H1 σ²>σ0² Accepter H1 si χ obs
2
≥ χ n−1;1−α
2

H0 σ²=σ0² H1 σ²<σ0² Accepter H1 si χ obs


2
≤ χ n−1;α
2

H0 σ²=σ0² H1 σ²≠σ0² Accepter H1 si χ obs


2
≤ χ n−1;α / 2 ou χ obs
2 2
≥ χ n−1;1−α / 2
2

[
Intervalle de confiance sur µ à σ² connu : X − z1−α / 2 σ / n , X + z1−α / 2 σ / n ]
[
Intervalle de confiance sur µ à σ² inconnu : X − t n −1;1−α / 2 s / n , X + t n −1;1−α / 2 s / n ]
 (n − 1) s 2 (n − 1) s 2 
Intervalle de confiance sur une variance σ² :  , 2 
 χ n −1;1−α / 2 χ n −1;α / 2 
2

Test de comparaison de deux moyennes µ1 et µ2 à variances connues :


(X1 - X 2 ) -δ 0
z obs = ~ N(0,1) sous H0
σ 12 σ 22
+
n1 n2
Test de comparaison de deux moyennes µ1 et µ2, variances inconnues supposées égales
(X1 - X 2 ) -δ 0 (n1 − 1) s12 + (n 2 − 1) s 22
t obs = ~ t n1 + n2 − 2 sous H 0 avec s ∗2 =
1 1 n1 + n 2 − 2
S∗ +
n1 n 2
Test de comparaison de deux moyennes µ1 et µ2, variances inconnues et différentes

t obs =
(X1 - X 2 ) -δ 0
~ tr sous H0 avec r ≅ df =
(s 2
1 n1 + s 22 n 2 )
2

2
s
1
+
s 2
2 (s 2
n1
1
+
) (
2
s 22 n 2 )
2

n1 n 2 n1 − 1 n2 −1
s12
Test de comparaison de deux variances : Fobs = ~ Fn1-1,n2-1 sous H0
s 22
3. Calcul de la puissance d'un test

Puissance d'un test unilatéral sur une moyenne à variance connue


 µ1 − µ 0 
 avec X ~ N ( µ 1 , σ ) sous H 1
2
1 − β = 1 − P Z ≤ z1−α − 
 σ/ n  n
Fonction δ pour différents tests pour moyennes
µ1 − µ 0
Test t ou z sur une moyenne : δ = d n = n
σ
µ 2 − µ1 n
Test t ou z sur deux moyennes avec n1=n2=n : δ =
σ 2
µ − µ1 n * 2n1n2
Test t sur deux moyennes avec n1≠n2 : δ = 2 où n* =
σ 2 n1 + n2
µ 2 − µ1
Test t sur deux moyennes pour échantillons appariés : δ = n
σ
4. Combinaisons de variables aléatoires

Graphique récapitulatif des relations entre variables aléatoires


ΣXi

ΣXi
Bernouilli Be(p) Binomiale Bi(n,p)

ΣXi
X (n grand) ΣXi

Normale N(µ,σ2) ΣN(0,1)2


ΣXi (n grand) Chicarré χ2(n)
Distribution
N(0,1)
quelconque χ2(n1)/n1
χ2(n)/n
χ2(n2)/n2
Student t(n) F(1,n)
Fisher F(n1,n2)

5. Analyse de corrélation

Coefficient de corrélation ρ
E (( X − µ X )(Y − µY ))
ρ= où − 1 ≤ ρ ≤ 1
σ Xσ Y
Coefficient de corrélation r de Pearson
N
1  N 
∑ ( X i − X )(Yi − Y )  ∑ X iYi − NXY 
N − 1  i =1 
r= i =1
=
N N s X sY
∑ ( X i − X )2 ∑ (Yi − Y )2
i =1 i =1

Distribution d'échantillonnage de r sous l'hypothèse de Normalité des données.


r n−2
Si ρ=0 est t n- 2
1− r 2
1+ r 1
Si ρ≠0 r' = 0.5 ln ≈ N (ρ ', )
1− r n−3
Test de nullité d'un coefficient de corrélation (sous l'hypothèse de Normalité des données)
H0 : ρ = 0 H1 : ρ ≠ 0, ρ > 0 ou ρ < 0,
r n−2
Statistique de test : t obs = ~ t n- 2 sous H 0
1− r 2
Test sur un coefficient de corrélation
H0 : ρ = ρ 0 H1 : ρ ≠ ρ 0, ρ > ρ 0 ou ρ < ρ0,
r'-ρ0 ' 1+ r 
Statistique de test : z obs = ≈ N (0,1) sous H0 où r' = 0.5 ln 
1 1− r 
n−3
Intervalle de confiance sur un coefficient de corrélation
 exp(2rm ' ) − 1 exp(2rM ' ) − 1

r '− z1−α / 2
1
; r '+ z1−α / 2
1 
 ⇒ [r '
]
, rM' ⇒  , 
1 + exp(2rm ' ) 1 + exp(2rM ' ) 
m
 n−3 n−3
Test d'égalité de deux coefficients de corrélation
H0 : ρ1 = ρ2 H1 : ρ1 ≠ ρ2 , ρ1 > ρ2 ou_ ρ1 < ρ2
r1 '− r2 ' 1 + ri
Statistique de test : z obs = où ri ' = 0.5 ln et z obs ~ N (0,1) sous H 0
1 1 1 − ri
+
n1 − 3 n 2 − 3
6. Régression linéaire simple

Modèle de régression linéaire simple


Y = α + βX + ε avec ε ~ iN (0, σ Y2. X )
Estimateurs des moindres carrés des paramètres
n

∑(X
i =1
i − X )(Yi − Y )
cov XY sY
a = Y − bX b= n
= 2
=r
s sX
∑ (X
i =1
i − X )² X

1 n
ˆ )2 = 1
n
n −1 2
s Y2. X = ∑
n − 2 i =1
(Yi − Y i ∑
n − 2 i =1
(Yi − a − bX i ) 2 =
n−2
sY (1 − r 2 ) = CM Rés

1 X2 1
sa = sY . X + sb = sY . X
n (n − 1) s X2 (n − 1) s X2
Equation de l'analyse de la variance
n n n
SCY = ∑ (Yi − Y ) 2 = ∑ (Yˆi − Y ) 2 + ∑ (Yi − Yˆi ) 2 = SCYˆ + SC Résiduelle
i =1 i =1 i =1

Coefficient de détermination ou coefficient de corrélation multiple


SC Rés SCYˆ CM Rés
R 2 = 1− = 2
R Ajusté = 1−
SCY SCY CM Y

Test d'hypothèse sur les paramètres de la droite de régression


H0 : α = α0 H1 : α ≠ α0, α > α0 ou α < α0,
a - α0 a -α0
Statistique de test : t obs = = ~ tn − 2 sous H 0
sa 1 X2
sY . X +
n (n − 1) s X2
H0 : β = β0 H1 : β ≠ β0, β > β0 ou β < β0,

Statistique de test : t obs =


b - β0 b - β0
= ~ tn − 2 sous H 0
sb 1
sY . X
( n − 1) s X2
Intervalles de confiance sur α et β
[a − t s , a + t n − 2;1−α / 2 sa ]
n − 2 ;1−α / 2 a

[b − t
n − 2;1−α / 2 b s , b + t n − 2;1−α / 2 sb ]
Prédiction de Y en X0
Yˆ = a + bX 0
Intervalle de confiance sur la réponse moyenne en X0

[ ˆ ˆ 2
] 2
 1 (X 0 − X )2
Y − t n − 2;1−α / 2 s( µˆ Y . X ), Y + t n − 2;1−α / 2 s( µˆ Y . X ) avec s ( µˆ Y . X ) = sY . X  +



 n (n − 1) s X
2

Intervalle de prédiction

[Yˆ − t n − 2;1−α / 2 s P , Yˆ + t n − 2;1−α / 2 s P ] avec s 2


P =s 2
Y .X
 1 (X 0 − X )2
1 + +
 n (n − 1) s 2



 X 
Test sur la différence entre les pentes de deux droites de régression
H0 : β 1 = β 2 H1 : β 1 ≠ β 2
Statistique de test (sous l'hypothèse d'homogénéité des variances des résidus) :
b1 -b2
t obs = ~t n1 + n2 − 4 sous H à
1 1
s Y.X +
(n1 − 1) s X 1 (n 2 − 1) s X2 2
2

(n1 − 2) s Y2. X 1 + (n 2 − 2) s Y2. X 2


et avec s Y.X =
n1 + n 2 − 4

7. Analyse de la variance à un critère de classification

Modèle de l'analyse de la variance à un critère


Xij = µj + εij = µ + τj + εij avec les εij indépendants de distribution Normale N(0,σe2)
Equation de l'analyse de la variance
SCTotale = SCTraitements + SCErreurs
k nj k nj k nj

∑∑ ( X
j =1 i =1
ij − X .) = ∑∑ ( X j − X .) + ∑∑ ( X ij − X j ) 2
2

j =1 i =1
2

j =1 i =1

Tableau de l'analyse de la variance


Source Sommes des carrés Deg de Lib Carrés moyens Fobs
Traitement SCTrait k-1 CMTrait CMTrait/ CMErr
Erreur SCErr N-k CMErr
Total SCTot N-1 CMTot

Formules de calcul des sommes des carrés


nj n j
1 1
Xj =
nj
∑ X ij
i =1
S 2j = ∑
n j − 1 i =1
( X ij − X j ) 2 ,

k nj n
1 1 k j
X. =
N
∑∑ X ij
j =1 i =1
et éventuellement S 2 = ∑∑
N − 1 j =1 i =1
( X ij − X j ) 2

SC tot = ( N − 1) S 2 = SCTrait + SC Err


k k
SCTrait = ∑ n j X 2j − NX 2 SC Err = ∑ (n j − 1) S 2j = SCtot − SCTrait
j =1 j =1

Mesure de la taille de l'effet du traitement


SCErr SCTrait
η2 = 1− =
SCTot SCTot

Test t de comparaison de deux moyennes


H0 µi = µj H1 µi ≠ µj, µi> µj, µi < µj
Xi − X j
Statistique de test : tobs = ~ t N −k sous H 0
1 1
CM err  + 
n n 
 i j 
Test t sur un contraste linéaire
H 0 L = a1µ1 + a2 µ 2 + a3 µ 3 + ... + ak µ k = 0 contre H1 L≠0
Lobs a1 X 1 + a 2 X 2 + a 3 X 3 + ... + a k X k
Statistique de test : t obs = = ~ t N − k sous H 0
s Lobs k a2
CM err ∑
j

j =1 n j

Correction de Bonferroni pour tests a priori


• Se fixer la liste des c comparaisons à faire et un taux global d’erreur de type I : α.
• Faire chaque comparaison à un seuil α’=α/c

Comparaison de moyennes a posteriori par la statistique de rang studentisée (nj égaux)


Ordonner les traitements en fonction des moyennes observées : X 1 ≤ X 2 ≤ X 3 ≤ ... ≤ X k
Pour tester : H0 µi = µj contre H1 µi < µj (i<j)
X j − Xi
Statistique de test : qr , obs = avec r = j − i + 1
CM err
n
Règle de décision : Accepter H0 si qr,obs < qr,N-k

Méthode de comparaison de moyennes a posteriori de Newman Keuls


Ordonner les traitements en fonction des moyennes observées : X 1 ≤ X 2 ≤ X 3 ≤ ... ≤ X k
Deux moyennes µi et µj sont considérées comme différentes si
CM err
X j − X i > Wr = q r , N − k × avec r = j − i + 1
n
Méthode de comparaison de moyennes a posteriori de Tukey (HSD)
Ordonner les traitements en fonction des moyennes observées : X 1 ≤ X 2 ≤ X 3 ≤ ... ≤ X k
Deux moyennes µi et µj sont considérées comme différentes si
CM err
X j − X i > Wk = q k , N − k × avec k le nombre de traitements
n

8. Analyse de la variance à deux critères de classification

Modèle de l'analyse de la variance à deux critères


Xijk = µij + εijk = µ + αi + βj +αβij + εijk
avec les εijk indépendants de distribution Normale N(0,σe2)

Equation de l'analyse de la variance


a b n a b a b n
SC Tot = ∑ ∑ ∑ ( X ijk − X ..) 2 = SC Cellules + SC Erreurs = ∑ ∑ n( X ij − X ..) 2 + ∑ ∑ ∑ ( X ijk − X ij ) 2
i =1 j =1 k =1 i =1 j =1 i =1 j =1 k =1

= SC A + SC B + SC AB + SC Erreurs
a b a b a b n
= ∑ nb( X i. − X ..) + ∑ na ( X . j − X ..) + ∑ ∑ n( X ij − X i. − X . j + X ..) + ∑ ∑ ∑ ( X ijk − X ij ) 2
2 2 2

i =1 j =1 i =1 j =1 i =1 j =1 k =1
Tableau de l'analyse de la variance
Source Sommes des carrés Deg de Lib Carrés moyens Fobs
Inter-cellules SCCel ab-1 CMCel CMCel/CMErr
A SCA a-1 CMA CMA/CMErr
B SCB b-1 CMB CMB/CMErr
AB SCAB ab-a-b+1 CMAB CMAB/CMErr
Intra-cellules
(Erreur) SCErr N-ab CMErr
Total SCTot N-1 CMTot

Espérances des carrés moyens pour différents modèles d'ANOVA II croisée


Modèle fixe Modèle aléatoire Modèle mixte
A fixe, B fixe A aléatoire, B aléatoire A aléatoire, B fixe
E (CM A ) σ e2 + nbσ α2 σ e2 + nσ αβ
2
+ nbσ α2 σ e2 + nbσ α2
E (CM B ) σ e2 + naσ β2 σ e2 + nσ αβ
2
+ naσ β2 σ e2 + nσ αβ
2
+ naσ β2
E (CM AB ) σ e2 + nσ αβ
2
σ e2 + nσ αβ
2
σ e2 + nσ αβ
2

E (CM Erreur ) σ e2 σ e2 σ e2

9. Plan pour mesures répétées à un critère

Modèle pour plan à mesures répétées à un critère


X ij = µ + π i + τ j + πτ ij + ε ij avec les εij indépendants de distribution Normale N(0,σe2)
Equation de l'analyse de la variance
SC Tot = ∑ ( X ij − X .) 2 = SC Suj + SC Trait + SC Err =
= ∑ ( X S i − X .) 2 + ∑ ( X T j − X .) 2 + ∑ ( X ij − X S i − X T j − X .) 2
Tableau de l'analyse de la variance
Source Sommes des carrés Deg de Lib Carrés moyens Fobs
Inter-Sujets SCSuj n-1 CMSuj
Intra-Sujets
Traitement SCTrait k-1 CMTrait CMTrait/CMErr
Erreur SCErr N-n-k+1 CMErr
Total SCTot N-1 CMTot

10. Plan à mesures répétées avec une variable inter-sujets et une intra-sujets

Modèle pour plan à mesures répétées avec une variable inter-sujets et une intra-sujets
X ijk = µ + α j + π i ( j ) + β k + αβ jk + ε ijk
avec les εijk indépendants de distribution Normale N(0,σe2)
Tableau de l'analyse de la variance (en 2 tableaux dans SPSS)

Source Sommes des carrés Deg de Lib Carrés moyens Fobs


Inter-Sujets SCInter-Suj an-1 CMInter-Suj

A SCA a-1 CMA CMA/CMSuj intra-A


Suj dans A SCSuj intra-A an-a CMSuj intra-A
Intra-Sujets SCIntra-Suj N-an CMIntra-Suj

B SCB b-1 CMB CMB/CMErr


AB SCAB ab-a-b+1 CMAB CMAB/CMErr
Erreur SCErr N-an-ab+a CMErr
Total SCTot N-1 CMTot

11. Régression linéaire multiple

Modèle de régression linéaire multiple


Y = β 0 + β 1 X 1 + β 2 X 2 ... + β p X p + ε avec ε ~ iN (0, σ Y2. X )
Ecriture matricielle du modèle linéaire multiple
β 
Y1  1 X 11 X 12 L X 1 p   0   ε1 
Y  1 X β
X 22 L X 2 p   1  ε 2 
Y = Xβ + ε =  2  =  ×  β 2  +   avec ε ~ N (0, σ Y2. X I n )
21

 M  M M M O M    M
    M  
Yn  1 X n1 X n 2 L X np    ε n 
β p 
 
n ×1 n × ( p + 1) ( p + 1) × 1 n × 1
Estimateurs des moindres carrés des paramètres
b = (X' X) −1 X' Y
n
1
sY2. X = ∑
n − ( p + 1) i =1
(Yi − b0 − b1 X i1 − b2 X i 2 ... − b p X ip ) 2

V (b) =ˆ sY2. X (X' X) −1


Tableau d'analyse de la variance
Source Sommes des carrés Deg de Lib Carrés moyens Fobs
Régression SCRégre P CMRégr CMRégr/ CMRésid
Résidus SCRésid N-p-1 CMRésid
Total SCTot N-1 CMTot

Test d'hypothèse sur un paramètre de l'équation de régression


H0 : βj = βj0 H1 : βj ≠ βj0, βj > βj0 ou βj < βj0
b j - β j0
Statistique de test : t obs = ~ tn − p −1 sous H 0
s (b j )
Intervalle de confiance sur un paramètre β j
[b j − t n − p −1;1−α / 2 s (b j ), b j + t n − p −1;1−α / 2 s (b j ) ]
12. Tests d'ajustement chi-carré

Test d'hypothèse sur une proportion en grand échantillon


X obs − np0
Statistique de test : zobs = ~ N(0,1) sous H 0
np0 (1 − p0 )
Test d'ajustement à un critère de classification
Soit une expérience à k résultats possibles R1,... Rk de probabilités inconnues p1, … pk.
H0 : P(R1)=p1 et … P(Rk)=pk H1 : non H0
k
( X i − npi ) 2 k
(Obsi − Atti )2
Statistique de test : χ obs =
2

i =1 np
= ∑
i =1 Att
≈ χ k2−1 sous H0
i i

Régle de décision : Accepter H 0 si χ obs


2
≤ χ (k2 -1);1-α Accepter H1 sinon
Coefficient d'association φ de Cramer
X i. X . j
q r ( X ij − )2 (Obsij − Attij ) 2
1 1
φ= ∑∑
n(t − 1) i =1 j =1
n
X i. X . j
=
n(t − 1)
∑ Att ij
n
Test d'indépendance de deux variables aléatoires χ2 de Pearson : cas de tables 2x2
2 2 ( X ij − npij ) 2 n( X 11 X 22 − X 12 X 21 ) 2
χ 2
obs = ∑∑ =
j =1 i =1 npij X 1. X 2. X .1 X .2
Test d'indépendance de deux variables aléatoires χ2 de Pearson : cas général
Soient A une v.a. à k résultats possibles a1,… ak et B à l résultats possibles b1,…bl
Soient n observations de A et B et Xij = le nb d’occurences de (ai,bj).
H0 : A est indépendante de B H1 : A n’est pas indépendant de B
Statistique de test :
l k ( X ij − np ij ) 2 (Oij − Aij ) 2
χ obs
2
= ∑∑ =∑ = φ 2 n(t − 1) ~ χ (2k −1)(l −1) sous H 0
j =1 i =1 np ij Aij
X i. X . j
avec p ij = P (( A = a i ) ∩ ( B = b j )) =ˆ
n n
Règle de décision : H 0 si χ obs
2
≤ χ (k2 -1)(l-1);1-α

13. Tests non paramétriques

Tests de comparaison des valeurs centrales de deux populations indépendantes


Test de la somme des rangs de Wilcoxon en petit échantillon (test bilatéral)
• Transformer l’ensemble des données en rangs
• Calculer la somme des rangs WS du groupe 1 (qui est celui qui a la plus petite taille si les groupes sont
de tailles inégales)
• Calculer la somme des rangs du groupe 1 si les données avaient été classées en ordre décroissant.
WS ' = 2W − WS où 2W = n1 ( n1 + n2 + 1)
• Règle de décision : Si min(WS,WS’) est plus petit ou égal à la valeur donnée dans la table de Wilcoxon,
on rejette H0. Pour un test bilatéral, prendre la table (n1,n2) en α/2
Statistique de test de la somme des rangs de Wilcoxon pour grands échantillons
n1 (n1 + n2 + 1)
Ws −
zobs = 2 ~ N (0,1) sous H 0
n1n2 (n1 + n2 + 1)
12

Tests de comparaison des valeurs centrales de deux populations pairées


Test des rangs de Wilcoxon pour données pairées (petis échantillons)
• Calculer les ≠ entre couples de données, calculer les rangs des différences (valeur absolue)
• Mettre un signe positif aux différences positives et négatif aux différences négatives
• Calculer la somme des rangs positifs T+ et des rangs négatifs T-
• Règle de décision :
Rechercher le seuil T donné dans la table (première ligne) pour un α choisi (α/2 pour un test
bilatéral). Pour H1 : CD>0, rejeter H0 si T- ≤ T, Pour H1 : CD<0, rejeter H0 si T+ ≤ T, Pour H1 : CD≠0,
rejeter H0 si min(T+ ,T- )≤ T
Test des rangs de Wilcoxon pour données pairées (grands échantillons)
n(n + 1)
Tobs −
zobs = 4 ~ N (0,1) sous H 0
n(n + 1)(2n + 1)
24
Test de signe
• Calculer les différences entre couples de données
• Calculer D+ et D- : le nombre de différences positives et négatives (en ignorant celles qui sont nulles)
• Tester avec un test chi2 si la proportion de signes positifs ou négatifs est différent de ½

Test de comparaison des valeurs centrales de k populations indépendantes


Analyse de la variance à un critère de classification de Kruskal-Wallis
• Classer l’ensemble des données et calculer les rangs associés
• Calculer la somme Ri des rangs de chaque groupe (ou traitement)
• Calculer la statistique de test
12  k Ri2  A
χ KW
2
=  ∑  − 3( N + 1) ~ χ k2−1 sous H 0
N ( N + 1)  i =1 ni 
• Rejeter H0 si χKW2 > χ2(k-1,1-α)

Test de comparaison des valeurs centrales de k populations dépendantes


Test de rangs de Friedman
Même principe que le test de KW mais classer et calculer les rangs par sujet
Statistique de test :
12  k 2 A
χ F2 =  ∑ Ri  − 3N (k + 1) ~ χ k2−1 sous H 0
Nk (k + 1)  i =1 
Tables

Table de la variable aléatoire Normale réduite


Fournit la probabilité P(X≤x) P(X≤ x)
pour X ~ N(0,1)

x .00 .01 .02 .03 .04 .05 .06 .07 .08 .09
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621
1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015
1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177
1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441
1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633
1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706
1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767
2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817
2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857
2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981
2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986
3.0 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990
3.1 0.9990 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.9993
3.2 0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.9995
3.3 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997
3.4 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9998
Table des quantiles de la v. a. Normale réduite
Fournit les quantiles xp tels que P(X≤xp)= p p = P(X≤x p)
pour X ~ N(0,1)

xp

p 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.00 -2.3263 -2.0537 -1.8808 -1.7507 -1.6449 -1.5548 -1.4758 -1.4051 -1.3408
0.10 -1.2816 -1.2265 -1.1750 -1.1264 -1.0803 -1.0364 -0.9945 -0.9542 -0.9154 -0.8779
0.20 -0.8416 -0.8064 -0.7722 -0.7388 -0.7063 -0.6745 -0.6433 -0.6128 -0.5828 -0.5534
0.30 -0.5244 -0.4959 -0.4677 -0.4399 -0.4125 -0.3853 -0.3585 -0.3319 -0.3055 -0.2793
0.40 -0.2533 -0.2275 -0.2019 -0.1764 -0.1510 -0.1257 -0.1004 -0.0753 -0.0502 -0.0251
0.50 0.0000 0.0251 0.0502 0.0752 0.1004 0.1257 0.1510 0.1764 0.2019 0.2275
0.60 0.2533 0.2793 0.3055 0.3319 0.3585 0.3853 0.4125 0.4399 0.4677 0.4959
0.70 0.5244 0.5534 0.5829 0.6128 0.6433 0.6745 0.7063 0.7388 0.7722 0.8064
0.80 0.8416 0.8779 0.9154 0.9542 0.9945 1.0364 1.0803 1.1264 1.1750 1.2265
0.90 1.2816 1.3408 1.4051 1.4758 1.5548 1.6449 1.7507 1.8808 2.0537 2.3263

p 0.9000 0.9500 0.9750 0.9900 0.9950 0.9975 0.9990 0.9995 0.9999


1.2816 1.6449 1.9600 2.3263 2.5758 2.8070 3.0902 3.2905 3.7190
Table des quantiles de la v.a. de Student
Fournit les quantiles xp tels que P(X≤xp)= p p = P(X≤x p)
pour X ~ tn

xp
p 0.7500 0.9000 0.9500 0.9750 0.9900 0.9950 0.9975 0.9990
n
1 1.0000 3.0780 6.3140 12.7060 31.8210 63.6570 127.3213 318.3088
2 0.8160 1.8860 2.9200 4.3030 6.9650 9.9250 14.0891 22.3271
3 0.7650 1.6380 2.3530 3.1820 4.5410 5.8410 7.4533 10.2145
4 0.7410 1.5330 2.1320 2.7760 3.7470 4.6040 5.5976 7.1732
5 0.7270 1.4760 2.0150 2.5710 3.3650 4.0320 4.7733 5.8934
6 0.7180 1.4400 1.9430 2.4470 3.1430 3.7070 4.3168 5.2076
7 0.7110 1.4150 1.8950 2.3650 2.9980 3.4990 4.0293 4.7853
8 0.7060 1.3970 1.8600 2.3060 2.8960 3.3550 3.8325 4.5008
9 0.7030 1.3830 1.8330 2.2620 2.8210 3.2500 3.6897 4.2968
10 0.7000 1.3720 1.8120 2.2280 2.7640 3.1690 3.5814 4.1437
11 0.6970 1.3630 1.7960 2.2010 2.7180 3.1060 3.4966 4.0247
12 0.6950 1.3560 1.7820 2.1790 2.6810 3.0550 3.4284 3.9296
13 0.6940 1.3500 1.7710 2.1600 2.6500 3.0120 3.3725 3.8520
14 0.6920 1.3450 1.7610 2.1450 2.6240 2.9770 3.3257 3.7874
15 0.6910 1.3410 1.7530 2.1310 2.6020 2.9470 3.2860 3.7328
16 0.6900 1.3370 1.7460 2.1200 2.5830 2.9210 3.2520 3.6862
17 0.6890 1.3330 1.7400 2.1100 2.5670 2.8980 3.2225 3.6458
18 0.6880 1.3300 1.7340 2.1010 2.5520 2.8780 3.1966 3.6105
19 0.6880 1.3280 1.7290 2.0930 2.5390 2.8610 3.1737 3.5794
20 0.6870 1.3250 1.7250 2.0860 2.5280 2.8450 3.1534 3.5518
21 0.6860 1.3230 1.7210 2.0800 2.5180 2.8310 3.1352 3.5272
22 0.6860 1.3210 1.7170 2.0740 2.5080 2.8190 3.1188 3.5050
23 0.6850 1.3190 1.7140 2.0690 2.5000 2.8070 3.1040 3.4850
24 0.6850 1.3180 1.7110 2.0640 2.4920 2.7970 3.0905 3.4668
25 0.6840 1.3160 1.7080 2.0600 2.4850 2.7870 3.0782 3.4502
26 0.6840 1.3150 1.7060 2.0560 2.4790 2.7790 3.0669 3.4350
27 0.6840 1.3140 1.7030 2.0520 2.4730 2.7710 3.0565 3.4210
28 0.6830 1.3130 1.7010 2.0480 2.4670 2.7630 3.0469 3.4082
29 0.6830 1.3110 1.6990 2.0450 2.4620 2.7560 3.0380 3.3962
30 0.6830 1.3100 1.6970 2.0420 2.4570 2.7500 3.0298 3.3852
35 0.6820 1.3060 1.6900 2.0300 2.4380 2.7240 2.9960 3.3400
40 0.6810 1.3030 1.6840 2.0210 2.4230 2.7040 2.9712 3.3069
45 0.6800 1.3010 1.6790 2.0140 2.4120 2.6900 2.9521 3.2815
50 0.6790 1.2990 1.6760 2.0090 2.4030 2.6780 2.9370 3.2614
100 0.6770 1.2900 1.6600 1.9840 2.3640 2.6260 2.8713 3.1737
0.6745 1.2816 1.6449 1.9600 2.3263 2.5758 2.8070 3.0902
Table des quantiles de la v.a. Chi-Carré
Fournit les quantiles xp tels que P(X≤xp)= p p = P(X≤x p)
pour X ~ χn
2

xp

p 0.005 0.010 0.025 0.050 0.100 0.250 0.500 0.750 0.900 0.95 0.975 0.990 0.995
n
1 0.00 0.00 0.00 0.00 0.02 0.10 0.45 1.32 2.71 3.84 5.02 6.64 7.88
2 0.01 0.02 0.05 0.10 0.21 0.58 1.39 2.77 4.61 5.99 7.38 9.21 10.60
3 0.07 0.11 0.22 0.35 0.58 1.21 2.37 4.11 6.25 7.82 9.35 11.35 12.84
4 0.21 0.30 0.48 0.71 1.06 1.92 3.36 5.39 7.78 9.49 11.14 13.28 14.86
5 0.41 0.55 0.83 1.15 1.61 2.67 4.35 6.63 9.24 11.07 12.83 15.09 16.75
6 0.68 0.87 1.24 1.64 2.20 3.45 5.35 7.84 10.64 12.59 14.45 16.81 18.55
7 0.99 1.24 1.69 2.17 2.83 4.25 6.35 9.04 12.02 14.07 16.01 18.48 20.28
8 1.34 1.65 2.18 2.73 3.49 5.07 7.34 10.22 13.36 15.51 17.53 20.09 21.95
9 1.74 2.09 2.70 3.33 4.17 5.90 8.34 11.39 14.68 16.92 19.02 21.67 23.59
10 2.16 2.56 3.25 3.94 4.87 6.74 9.34 12.55 15.99 18.31 20.48 23.21 25.19
11 2.60 3.05 3.82 4.58 5.58 7.58 10.34 13.70 17.28 19.68 21.92 24.72 26.76
12 3.07 3.57 4.40 5.23 6.30 8.44 11.34 14.85 18.55 21.03 23.34 26.22 28.30
13 3.57 4.11 5.01 5.89 7.04 9.30 12.34 15.98 19.81 22.36 24.74 27.69 29.82
14 4.08 4.66 5.63 6.57 7.79 10.17 13.34 17.12 21.06 23.68 26.12 29.14 31.32
15 4.60 5.23 6.26 7.26 8.55 11.04 14.34 18.25 22.31 25.00 27.49 30.58 32.80
16 5.14 5.81 6.91 7.96 9.31 11.91 15.34 19.37 23.54 26.30 28.85 32.00 34.27
17 5.70 6.41 7.56 8.67 10.09 12.79 16.34 20.49 24.77 27.59 30.19 33.41 35.72
18 6.27 7.02 8.23 9.39 10.87 13.68 17.34 21.61 25.99 28.87 31.53 34.81 37.16
19 6.84 7.63 8.91 10.12 11.65 14.56 18.34 22.72 27.20 30.14 32.85 36.19 38.58
20 7.43 8.26 9.59 10.85 12.44 15.45 19.34 23.83 28.41 31.41 34.17 37.57 40.00
21 8.03 8.90 10.28 11.59 13.24 16.34 20.34 24.94 29.62 32.67 35.48 38.93 41.40
22 8.64 9.54 10.98 12.34 14.04 17.24 21.34 26.04 30.81 33.92 36.78 40.29 42.80
23 9.26 10.20 11.69 13.09 14.85 18.14 22.34 27.14 32.01 35.17 38.08 41.64 44.18
24 9.89 10.86 12.40 13.85 15.66 19.04 23.34 28.24 33.20 36.42 39.36 42.98 45.56
25 10.52 11.52 13.12 14.61 16.47 19.94 24.34 29.34 34.38 37.65 40.65 44.31 46.93
26 11.16 12.20 13.84 15.38 17.29 20.84 25.34 30.43 35.56 38.89 41.92 45.64 48.29
27 11.81 12.88 14.57 16.15 18.11 21.75 26.34 31.53 36.74 40.11 43.19 46.96 49.64
28 12.46 13.56 15.31 16.93 18.94 22.66 27.34 32.62 37.92 41.34 44.46 48.28 50.99
29 13.12 14.26 16.05 17.71 19.77 23.57 28.34 33.71 39.09 42.56 45.72 49.59 52.34
30 13.79 14.95 16.79 18.49 20.60 24.48 29.34 34.80 40.26 43.77 46.98 50.89 53.67
40 20.71 22.16 24.43 26.51 29.05 33.66 39.34 45.62 51.81 55.76 59.34 63.69 66.77
50 27.99 29.71 32.36 34.76 37.69 42.94 49.33 56.33 63.17 67.50 71.42 76.15 79.49
60 35.53 37.48 40.48 43.19 46.46 52.29 59.33 66.98 74.40 79.08 83.30 88.38 91.95
70 43.28 45.44 48.76 51.74 55.33 61.70 69.33 77.58 85.53 90.53 95.02 100.4 104.2
80 51.17 53.54 57.15 60.39 64.28 71.14 79.33 88.13 96.58 101.9 106.63 112.3 116.3
90 59.20 61.75 65.65 69.13 73.29 80.62 89.33 98.65 107.6 113.1 118.14 124.1 128.3
100 67.33 70.06 74.22 77.93 82.36 90.13 99.33 109.1 118.5 124.3 129.56 135.8 140.2
Table des quantiles de la v.a. de Fisher
Fournit les quantiles xp tels que P(X≤xp)= p p = P(X≤x p)
pour X ~ Fn1;n2

xp

n1 1 2 3 4 5 6 7 8 9 10 20 30 50 100 inf
n2
1 161 200 216 225 230 234 237 239 241 242 248 250 252 253 254
2 18.5 19.0 19.2 19.3 19.3 19.3 19.4 19.4 19.4 19.4 19.5 19.5 19.5 19.5 19.5
3 10.1 9.6 9.3 9.1 9.0 8.9 8.9 8.8 8.8 8.8 8.7 8.6 8.6 8.5 8.5
4 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6.00 5.96 5.80 5.75 5.70 5.66 5.63
5 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77 4.74 4.56 4.50 4.44 4.41 4.37
6 5.99 5.14 4.76 4.53 4.39 4.28 4.21 4.15 4.10 4.06 3.87 3.81 3.75 3.71 3.67
7 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68 3.64 3.45 3.38 3.32 3.28 3.23
8 5.32 4.46 4.07 3.84 3.69 3.58 3.50 3.44 3.39 3.35 3.15 3.08 3.02 2.98 2.93
9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14 2.94 2.86 2.80 2.76 2.71
10 4.97 4.10 3.71 3.48 3.33 3.22 3.14 3.07 3.02 2.98 2.77 2.70 2.64 2.59 2.54
11 4.84 3.98 3.59 3.36 3.20 3.10 3.01 2.95 2.90 2.85 2.65 2.57 2.51 2.46 2.40
12 4.75 3.89 3.49 3.26 3.11 3.00 2.91 2.85 2.80 2.75 2.54 2.47 2.40 2.35 2.30
13 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.71 2.67 2.46 2.38 2.31 2.26 2.21
14 4.60 3.74 3.34 3.11 2.96 2.85 2.76 2.70 2.65 2.60 2.39 2.31 2.24 2.19 2.13
15 4.54 3.68 3.29 3.06 2.90 2.79 2.71 2.64 2.59 2.54 2.33 2.25 2.18 2.12 2.07
16 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.54 2.49 2.28 2.19 2.12 2.07 2.01
17 4.45 3.59 3.20 2.97 2.81 2.70 2.61 2.55 2.49 2.45 2.23 2.15 2.08 2.02 1.96
18 4.41 3.56 3.16 2.93 2.77 2.66 2.58 2.51 2.46 2.41 2.19 2.11 2.04 1.98 1.92
19 4.38 3.52 3.13 2.90 2.74 2.63 2.54 2.48 2.42 2.38 2.16 2.07 2.00 1.94 1.88
20 4.35 3.49 3.10 2.87 2.71 2.60 2.51 2.45 2.39 2.35 2.12 2.04 1.97 1.91 1.84
25 4.24 3.39 2.99 2.76 2.60 2.49 2.41 2.34 2.28 2.24 2.01 1.92 1.84 1.78 1.71
30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 2.17 1.93 1.84 1.76 1.70 1.62
35 4.12 3.27 2.87 2.64 2.49 2.37 2.29 2.22 2.16 2.11 1.88 1.79 1.70 1.64 1.56
40 4.09 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12 2.08 1.84 1.74 1.66 1.59 1.51
45 4.06 3.20 2.81 2.58 2.42 2.31 2.22 2.15 2.10 2.05 1.81 1.71 1.63 1.55 1.47
50 4.03 3.18 2.79 2.56 2.40 2.29 2.20 2.13 2.07 2.03 1.78 1.69 1.60 1.53 1.44
60 4.00 3.15 2.76 2.53 2.37 2.25 2.17 2.10 2.04 1.99 1.75 1.65 1.56 1.48 1.39
70 3.98 3.13 2.74 2.50 2.35 2.23 2.14 2.07 2.02 1.97 1.72 1.62 1.53 1.45 1.35
80 3.96 3.11 2.72 2.49 2.33 2.21 2.13 2.06 2.00 1.95 1.70 1.60 1.51 1.43 1.32
90 3.95 3.10 2.71 2.47 2.32 2.20 2.11 2.04 1.99 1.94 1.69 1.59 1.49 1.41 1.30
100 3.94 3.09 2.70 2.46 2.31 2.19 2.10 2.03 1.98 1.93 1.68 1.57 1.48 1.39 1.28
150 3.90 3.06 2.67 2.43 2.27 2.16 2.07 2.00 1.94 1.89 1.64 1.54 1.44 1.35 1.22
200 3.89 3.04 2.65 2.42 2.26 2.14 2.06 1.99 1.93 1.88 1.62 1.51 1.41 1.32 1.19
inf 3.84 3.00 2.60 2.37 2.21 2.10 2.01 1.94 1.88 1.83 1.57 1.46 1.35 1.24 1.00

You might also like