Professional Documents
Culture Documents
CM Stats
CM Stats
COURS DE STATISTIQUES
SEMESTRE 4
CPP-INP Bordeaux
1 Statistique descriptive 1
I Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
I.1 Notion de variable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
I.2 Statistique descriptive à 1 variable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
I.2.1 Paramètres de position . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
I.2.2 Paramètres de dispersion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
I.2.3 Quartiles d’une série statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
I.3 Représentation graphique d’une série à l’aide d’un boxplot . . . . . . . . . . . . . . . . 4
II Statistique descriptive à 2 variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
II.1 Méthode des moindres carrés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
II.2 Equations des droites de régression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
II.3 Résidus de la régression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
II.4 Coefficients de corrélation et de détermination . . . . . . . . . . . . . . . . . . . . . . . 8
2 Statistique inférentielle 13
I Estimateurs, estimation ponctuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
I.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
I.2 Échantillon d’une variable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
I.3 Erreur d’estimation et biais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
I.4 Estimateur et estimation ponctuelle d’une moyenne . . . . . . . . . . . . . . . . . . . . 14
I.5 Estimateur et estimation ponctuelle d’une variance . . . . . . . . . . . . . . . . . . . . 15
I.5.1 Estimation de σ 2 lorsque µ est connue . . . . . . . . . . . . . . . . . . . . . . . . 15
I.5.2 Estimation de σ 2 lorsque µ est inconnue . . . . . . . . . . . . . . . . . . . . . . . 15
I.6 Estimation d’une proportion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
II Estimation par intervalle de confiance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
II.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
II.2 Intervalle de confiance d’une moyenne lorsque la variance est connue . . . . . . . . . . . 17
II.3 Intervalle de confiance d’une proportion . . . . . . . . . . . . . . . . . . . . . . . . . . 18
III Tests de conformité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
III.1 Un peu d’histoire : Neyman, Pearson et Fisher . . . . . . . . . . . . . . . . . . . . . . . 19
III.1.1 Les tests selon Fisher : 1 hypothèse et 1 probabilité . . . . . . . . . . . . . . . . 19
III.1.2 Les tests selon Neyman-Pearson : 2 hypothèses et 1 région critique . . . . . . . . 19
III.2 Les tests des nos jours : l’approche N-P-F . . . . . . . . . . . . . . . . . . . . . . . . . . 19
III.3 Risques de première et de deuxième espèce . . . . . . . . . . . . . . . . . . . . . . . . . 20
III.4 Un exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3
4 TABLE DES MATIÈRES
Chapitre 1
Statistique descriptive
I Rappels
I.1 Notion de variable
Les données statistiques se présentent sous la forme d’individus auxquels on associe des caractères (appelés
également “variables statistiques”). L’ensemble des individus constitue un échantillon (ou encore une série sta-
tistique), formant ainsi un sous-ensemble d’un groupe appelé “population”.
Les caractères statistiques peuvent être de plusieurs natures :
Définition 1 : La médiane notée Me est un nombre réel tel que la moitié des observations lui sont
inférieures (ou égales) et la moitié supérieures (ou égales).
Remarque 1 : La médiane partage la série statistique (xi )1≤i≤N en deux groupes de ”même effectif”
(les valeurs du caractère étant rangées par ordre croissant).
Cas d’une série discrète d’effectif total N (les observations étant rangées par ordre croissant).
On convient que :
• Si N impair, la médiane est telle que Me = x N +1 .
2
x N +x N +1
• Si N est pair, on convient que la médiane est Me = 2
2
2
.
1
2 CHAPITRE 1. STATISTIQUE DESCRIPTIVE
Remarque 2 : La moyenne et la médiane d’une distribution statistique s’expriment dans la même unité
que les valeurs prises par le caractère étudié.
Il est à noter que la médiane présente l’avantage par rapport à la moyenne de ne pas dépendre des valeurs
extrêmes qui peuvent être suspectes voire aberrantes.
Définition 3 : L’étendue d’une série statistique est la différence entre la plus grande et la plus petite
valeur observées. On la note souvent R voire e.
Remarque 3 : Comme l’étendue ne permet pas de différencier les séries, elle n’est pas ici une très
bonne mesure de la dispersion. D’une façon générale, quand il existe des valeurs extrêmes, l’étendue est
une mesure médiocre de la dispersion. Il est donc utile de faire appel à de nouveaux paramètres comme
la variance et l’écart-type.
2. La variance et l’écart-type
p
P
Définition 4 : La variance de la série (xi ; ni )1≤i≤p telle que ni = n est définie par :
i=1
p
2 1X 2
σX = ni (xi − x)
n i=1
2 SCEX
σX =
n
Remarque 4 : La variance d’une série statistique correspond à la moyenne des carrés des écarts
à la moyenne.
L’écart-type permet ainsi de mesurer la dispersion autour de la moyenne d’une série statistique.
Plus l’écart-type est faible, plus la série est homogène.
Il s’exprime dans la même unité que les valeurs observées.
I. RAPPELS 3
n
2 1X 2
σX = xi − x2 (1.1)
n i=1
Remarque 6 : Les quartiles correspondent aux valeurs prises par le caractère qui partagent la série en quatre
groupes de même effectif.
Le premier quartile peut être considéré comme la plus petite valeur du caractère telle qu’ au moins 25 % des
valeurs lui sont inférieures ou égales.
Remarque 7 : L’intervalle interquartile est un paramètre de dispersion qui élimine les valeurs extrêmes qui
peuvent être douteuses, ce qui est un avantage par rapport à l’étendue.
Cependant, il ne tient compte que de 50 % de la population ce qui engendre une perte parfois conséquente
d’information.
• Le couple (médiane ; étendue) est le plus ”simple” à déterminer mais ne permet pas de situer les valeurs
extrêmes par rapport à la moyenne.
• Le couple (médiane ; intervalle ou écart interquartile) est plus précis que le précédent car il est insensible
aux valeurs extrêmes.
4 CHAPITRE 1. STATISTIQUE DESCRIPTIVE
• les 2 ≪moustaches≫ inférieure et supérieure délimitent les valeurs dites adjacentes qui sont déterminées
à partir de l’écart interquartile (Q3 − Q1 ). La valeur extrême de la moustache inférieure correspond à la
plus petite des valeurs supérieures ou égales à Q1 − 1, 5 ∗ (Q3 − Q1 ). La valeur extrême de la moustache
supérieure correspond à la plus grande des valeurs inférieures ou égales à Q3 + 1, 5 ∗ (Q3 − Q1 ) ;
• d’éventuelles valeurs suspectes situées au-delà des valeurs extrêmes définies ci-dessus peuvent apparaı̂tre
et sont représentées par des marqueurs (rond, étoile, etc.). Dans le cas où il n’existe pas de valeur suspecte,
les valeurs extrêmes des moustaches correspondent aux valeurs minimales et maximales.
Représentation de la série
0 1 3 5 7 910 12 15 18 20
Remarque 8 : Dans la boı̂te à moustaches définie par TUKEY, la boı̂te a pour longueur la distance inter-
quartile (Q3 − Q1 ), et les moustaches sont basées usuellement sur 1,5 fois la longueur de la boı̂te. Dans ce cas,
une valeur est suspecte (atypique) si elle dépasse de 1, 5 fois l’écart interquartile au dessous du premier quartile
ou au dessus du troisième quartile.
Le choix de la valeur 1, 5 par TUKEY a une justification probabiliste.
En effet, si une variable suit une distribution normale, alors la zone délimitée par la boı̂te et les moustaches de-
vrait contenir 99,3 % des observations. On ne devrait donc trouver que 0,7% d’observations suspectes (outliers).
II. STATISTIQUE DESCRIPTIVE À 2 VARIABLES 5
Mi (xi ; yi )
+ (D) : y = ax + b
Pn
M1 (x1 ; y1 )
+ +
Pi Mn (xn ; yn )
P2
P1
+
M2 (x2 ; y2 )
On admet que si la fonction ϕ admet un extremum en (x0 ; y0 ) alors ses dérivées partielles s’y annulent.
dϕ Pn
(a, b) = 2 xi [(axi + b) − yi ]
da i=1
dϕ Pn
(a, b) = 2 [(axi + b) − yi ]
db i=1
dϕ n n n n
axi 2 + bxi − xi yi = 0 soit a xi 2 + b
P P P P
(a, b) = 0 implique xi − xi yi = 0.
da i=1 i=1 i=1 i=1
dϕ Pn n
P n
P
(a, b) = 0 implique [(axi + b) − yi ] = 0 soit a xi + nb − yi = 0.
db i=1 i=1 i=1
On a donc :
n n n n n
xi 2 + b
P P P P P
xi yi = a xi et yi = a xi + nb
i=1 i=1 i=1 i=1 i=1
n n
xi 2 et β =
P P
En posant α = xi , on a :
i=1 i=1
n
P
xi y i
α β a i=1
= n
β n b P
yi
i=1
n
P
xi yi
α β a
i=1
En notant M la matrice définie par M = , on a : M = n
.
β n b P
yi
i=1
6 CHAPITRE 1. STATISTIQUE DESCRIPTIVE
On rappelle que :
1 Pn 1 Pn
x= xi et y= yi .
n i=1 n i=1
n n n n n
2
xi 2 + x2 − 2xxi = xi 2 + nx2 − 2x xi 2 + nx2 − 2xnx
P P P P P
(xi − x) = xi =
i=1 i=1 i=1 i=1 i=1
n n
P 2 P 2 2
On a donc : (xi − x) = xi − nx ce qui implique
i=1 i=1
n n
1X 2 1X 2
V(X) = (xi − x) = xi − x2 (1.2)
n i=1 n i=1
On constate que, si b = y − ax alors ϕ(a, b) est un polynôme du second degré avec un coefficient du terme
dominant positif. Cette fonction admet donc un minimum ce qui permet de conclure que les réels a et b obtenus
n
Mi Pi 2 .
P
précédemment permettent de minimiser
i=1
II. STATISTIQUE DESCRIPTIVE À 2 VARIABLES 7
n
P
A noter que, tout comme la formule de la variance (1.2) , (xi − x)(y − yi ) peut s’écrire autrement en
i=1
n
P n
P n
P n
P
développant : (xi − x)(yi − y) = (xi yi − xi y − xyi + x y) = xi yi − nxy − nxy + nxy = xi yi − nx y
i=1 i=1 i=1 i=1
On a donc :
n n
1X 1X
(xi − x)(yi − y) = xi yi − nx y (1.3)
n i=1 n i=1
Théorème-Définition 1 :
On considère deux variables X et Y prenant respectivement les valeurs (xi )1≤i≤n et (yi )1≤i≤n .
La covariance de X et Y est le réel, noté Cov (X, Y ) voire σXY , défini par :
n
1X
Cov (X, Y ) = (xi − x) (yi − y)
n i=1
ou encore n
1X
Cov (X, Y ) = xi yi − xy = xy − x.y
n i=1
Exemple 5 : Considérons le nombre d’acheteurs potentiels d’un produit en fonction de son prix de vente.
Prix xi en euros 9 10 11 12 13 14 15 16
Nombre yi d’acheteurs éventuels 120 100 90 70 60 50 40 30
Le nuage de points associé à la série (xi ; yi ) laisse apparaı̂tre un relation linéaire entre le nombre Y d’acheteurs
potentiels et le prix X.
120
100
80
y
60
40
9 10 11 12 13 14 15 16
x
ei = yi − ŷi
Illustration graphique :
Mi (xi ; yi )
+ (D) : y = ax + b
ei = yi − yˆi Pn
M1
+ +
Pi (xi ; yˆi ) Mn
P2
P1
+
M2
Remarque 9 : Les valeurs ŷi sont aussi appelées valeurs estimées de la variable dépendante Y .
Remarque 10 : Les séries (yi )1≤i≤n et les estimations (ŷi )1≤i≤n ont donc la même moyenne. On a donc :
y = ŷ
On considère (xi ; yi )1≤i≤n une série statistique à deux variables constituée de n couples.
• La variabilité totale (des yi ) est définie par :
n
2
X
SCEtotale = (yi − y)
i=1
P 2 P 2
SCEtotale = (yi − y) = (yi − ŷi + ŷi − y) .
i i
En développant,
P on a : 2 P 2 P
SCEtotale = (yi − ŷi ) + (ŷi − y) + 2 (yi − ŷi ) (ŷi − y).
i i i
P P P
Or, (yi − ŷi ) (ŷi − y) = [(yi − y) − a(xi − x)] [a(xi − x)] = a (yi − y − a(xi − x)) (xi − x).
i i i
Il
Ps’avère que :
(yi − y − a(xi − x)) (xi − x) = nCov(X, Y ) − anV(X) = 0.
i
Proposition 5 :
SCEtotale = SCEexp + SCEres
Il s’avère que :
✍
SCEexp
=
SCEtotale
À retenir :
L’ajustement sera d’autant meilleur que R2 est proche de 1.
En pratique : on considère que si 0, 8 ≤ |R| ≤ 1, il y a une forte corrélation.
Si R2 est proche de 1, on peut dire qu’il existe une corrélation importante entre les deux variables.
Mais ceci n’implique pas nécessairement l’existence d’une relation directe de cause à effet entre les deux variables.
La pertinence d’un ajustement affine peut être vérifiée par l’étude des résidus dont la représentation graphique
ne doit faire apparaı̂tre aucune tendance.
Sinon, malgré un coefficient de corrélation linéaire (ou de détermination) élevé, un autre ajustement sera souvent
plus cohérent ...
Exemple 7 : Voici ci-dessous une représentation graphique des résidus calculés précédemment. Il ne laisse
apparaı̂tre aucune tendance.
6
2
residus
−2
−6
9 10 12 14 16
x
Le coefficient de détermination ρ2 (X, Y ) est environ égal à 0, 98. L’ajustement affine est donc pertinent.
II. STATISTIQUE DESCRIPTIVE À 2 VARIABLES 11
Exemple 8 : Le graphique ci-dessous représente les résidus associés à un ajustement affine avec un coefficient
de détermination ρ2 (X, Y ) est environ égal à 0, 99.
10
5
resid
0
−5
−10
9 10 11 12 13 14 15 16
x
On voit clairement que les résidus sont positifs aux extrêmités et négatifs au centre.
Le modèle linéaire n’est pas pertinent (un ajustement quadratique le serait).
Exemple 9 :
Considérons deux variables X et Y définies par le tableau ci-dessous :
xi -2 -1 0 1 2
yi 5 2 1 2 5
Le nuage de points associé à la série (xi ; yi ), représenté ci-dessous, ne laisse apparaı̂tre aucune liaison linéaire
entre X et Y .
5
4
3
y
2
1
−2 −1 0 1 2
x
Statistique inférentielle
Soit X une variable aléatoire dont la densité de probabilité f dépend d’un paramètre θ appartenant à I ⊂ R.
À l’aide d’un échantillon issu de X, on souhaite déterminer une estimation de la valeur de θ.
On pourra utiliser deux méthodes :
• l’estimation ponctuelle : on calcule une valeur vraisemblable de θ (liée à l’échantillon obtenu) ;
• l’estimation par intervalle : on cherche un intervalle dans lequel on ”espère” que le paramètre θ appartient.
n
1X
Exemple 10 : Tn = Xi appelé moyenne empirique est utilisé comme estimateur de la moyenne.
n i=1
Ainsi, si X est distribuée suivant la loi B(p) où p ∈]0, 1[ alors Tn est un estimateur de p.
Si ce biais est nul, on dit que Tn est un estimateur sans biais (non biaisé) de θ.
13
14 CHAPITRE 2. STATISTIQUE INFÉRENTIELLE
Exemple 11 : Si X est distribuée suivant la loi exponentielle de paramètre λ, la moyenne empirique est un
estimateur biaisé de λ mais sans biais de λ1 .
R(T, θ) = E (T − θ)2
Proposition 9 : Le risque quadratique d’un estimateur T d’un paramètre θ est défini, sous réserve
d’existence, par :
2
R(T, θ) = V(T ) + bθ (T )
En effet, on h: i h i h i
2 2 2
R(T, θ) = E (T − θ) = E ([T − E(T )] + [E(T ) − θ]) = E ([T − E(T )] + bθ (T )) .
R(T, θ) = E [T − E(T )]2 + bθ (T )2 + 2bθ (T )[T − E(T )]
∀θ ∈ I, R(T1 , θ) ≤ R(T2 , θ)
et
∃θ0 ∈ I, R(T1 , θ0 ) < R(T2 , θ0 )
Ainsi, dans le cas d’estimateurs non biaisés d’un paramètre θ, T1 est un meilleur estimateur que T2 si
∀θ ∈ I, V(T1 ) ≤ V(T2 )
et
∃θ0 ∈ I, V(T1 ) < V(T2 )
µ̂ = x
I. ESTIMATEURS, ESTIMATION PONCTUELLE 15
En effet : !
n n
1X 1X
E(X) = E Xi = E(Xi ) = µ.
n i=1 n i=1
En effet : !
n n n
1X 1X 1X
(Xi − µ)2 E [Xi − µ]2 = E [Xi − E(X)]2 = V(X) = σ 2 .
E(V ) = E =
n i=1 n i=1 n i=1
Remarque 11 : V est un estimateur convergent de σ 2 .
En effet : ! !
n n
1X 1X 2 2
E S2 = E (Xi − X)2 = E
X −X
n i=1 n i=1 i
n
1X 2
E S2 = E Xi2 − E X .
n i=1
2 σ2
Il s’avère que : E(Z 2 ) = V(Z) + E(Z)2 donc E Xi2 = σ 2 + µ2 et E X = + µ2 . Ainsi :
n
n 2 2
1X σ σ
E S2 = (σ 2 + µ2 ) − + µ2 = σ 2 + µ2 − + µ2 . On a donc :
n i=1 n n
n−1 2
E S2 = σ
n
Il en résulte que :
n
E S2 = σ2
n−1
n
n 1 X
où S2 = (Xi − X)2 .
n−1 n − 1 i=1
Théorème 4 : n
1 X
La variable Sˆ2 = (Xi − X)2 est un estimateur non biaisé de σ 2 .
n − 1 i=1
sˆ2 est donc une estimation ponctuelle de la variance µ. On note :
n
1 X
σˆ2 = sˆ2 = (xi − x)2
n − 1 i=1
16 CHAPITRE 2. STATISTIQUE INFÉRENTIELLE
Remarque 12 :
SCE SCE
• On a : s2 = et sˆ2 = .
n n−1
• Ŝ 2 est un estimateur convergent de σ 2 alors que Ŝ est un estimateur biaisé de σ.
p̂ = f
Justification et lien avec
! la loin binomiale :
n
1X 1X
E (F ) = E Xi = E(Xi ) = p.
n i=1 n i=1
Xn
On peut utiliser que Xi est distribuée suivant la loi B(n, p) d’espérance np.
i=1
Pour obtenir un intervalle de confiance de θ, on peut essayer de déterminer une nouvelle variable aléatoire
Y = ϕ (X1 , X2 , · · · , Xn , θ) à partir des précédentes et du paramètre à déterminer, dont la loi soit connue et
dont on puisse trouver des valeurs k1 et k2 tels que
P (k1 ≤ Y ≤ k2 ) ≥ 1 − α
On peut alors en déduire un encadrement de la forme [θmin ≤ θ ≤ θmax ] conduisant à un intervalle de confiance
de θ au niveau de confiance 1 − α. On a alors :
P (θmin ≤ θ ≤ θmax ) ≥ 1 − α
Remarque 13 :
On cherche usuellement k1 et k2 tels que :
α α
P (Y < k1 ) ≤ et P (Y > k2 ) ≥
2 2
Dans le cas continu, on cherche k1 et k2 tels que
α α
P (Y ≤ k1 ) = et P (Y ≤ k2 ) = 1 −
2 2
α α
Ainsi, k1 et k2 sont alors les quantiles d’ordre et 1 − .
2 2
En outre, si la loi est symétrique, alors |θ − θmin | = |θmax − θ|. Cet écart est fréquemment appelé marge d’erreur.
Dire qu’une estimation par intervalle de confiance d’un paramètre θ est [θmin ; θmax ] signifie qu’il est ”vraisem-
blable” que la valeur (vraie) de θ appartient à cet intervalle.
Pour autant, on ne peut évaluer la probabilité d’appartenance de θ à un tel intervalle ! ! !
De manière générale, considérons une variable U ∼ N (0; 1) et déterminons deux valeurs a et b telles que
α α α
P(a ≤ U ≤ b) = 1 − α avec P(U ≤ a) = et P(U ≥ b) = i.e. P(U ≤ b) = 1 − .
2 2 2
α
On a donc : Φ(a) + Φ(b) = 1 ce qui conduit à a = −b et b = Φ−1 1 − .
2
Le quantile b se note fréquemment b = q1− α2 ce qui conduit à
P −q1− α2 ≤ U ≤ q1− α2 = 1 − α
✍
Xn − np L
p → X où X ∼ N (0; 1)
np(1 − p)
X
Il s’avère que F = est un estimateur de p et on a :
n
F −p L
q → X où X ∼ N (0; 1)
p(1−p)
n
F −p
En utilisant que P −q1− α2 ≤ U ≤ q1− α2 = 1 − α, il vient P −q1− α2 ≤q ≤ q1− α2 = 1 − α.
p(1−p)
n
On souhaite obtenir un encadrement de p en utilisant que :
2
F −p F −p 2
−q1− α2 ≤ q ≤ q1− α2 ⇔ q ≤ q1− α.
p(1−p) p(1−p) 2
n n
F −p 2 p(1 − p) 2 p(1 − p) 2
−q1− α2 ≤ q ≤ q1− α2 ⇔ (F − p) ≤ q1− α ⇔ F 2 + p2 − 2pF ≤ q1− α
p(1−p) n 2 n 2
n
F −p
≤ q1− α2 ⇔ n F 2 + p2 − 2pF ≤ pq1−
2 2 2
−q1− α2 ≤ q α − p q
1− α
p(1−p) 2 2
n
F −p 2 2 2 2
−q1− α2 ≤ q ≤ q1− α2 ⇔ (n + q1− α )p − (2nF + q
1− α )p + nF ≤ 0
p(1−p) 2 2
n
ce qui conduit à considérer que le paramètre p est compris entre les deux racines du trinôme du second degré
associé
: 2
2 2 2 4 2 2 4 2
∆ = 2nF + q1− α − 4(n + q1− α )nF = q1− α + 4nF q
1− α − 4q1− α nF = q1− α + 4nF (1 − F )q1− α .
2 2 2 2 2 2 2
Critique :
La p-valeur correspond à la probabilité d’avoir une observation pire (ou égale) à celle que l’on a obtenue (sous
H0 ).
H0 peut être rejetée (alors qu’elle est vraie) parce qu’elle est ”en contradiction” avec des résultats qui n’ont pas
été observés.
Critique :
Cette méthode, basée sur la notion de région critique (zone de rejet H0 ) ne tient pas compte du ”degré” de
preuve (lié à p).
4. Conclusion
Si p-valeur 6 0, 05 alors il y avait moins de 5% de chance que la statistique de test prenne une valeur
”pire” que la valeur observée ce qui conduit à remettre en question l’hypothèse initiale. On rejette donc
H0 . Plus généralement :
on rejette H0 (au profit de H1 ) lorsque p-value 6 α, et le test est effectué au risque α.
Dans le cas contraire, on ne rejette pas H0 .
Si l’hypothèse H0 est rejetée alors que le seuil de signification considéré était égal à 5 %, on dit qu’on
rejette H0 de manière significative.
Le risque de première espèce α est choisi a priori. Toutefois le risque de deuxième espèce β dépend de l’hypothèse
alternative H1 et on ne peut le calculer que si on spécifie des valeurs particulières du paramètre dans l’hypothèse
H1 que l’on suppose vraie.
Les risques liés aux tests d’hypothèses peuvent se résumer ainsi :
β
α
µ µ1
À noter :
1. Pour un même risque α et une même taille d’échantillon, on constate que, si l’écart ∆ entre la valeur du
paramètre posée en H0 et celle supposée dans l’hypothèse vraie H1 augmente, le risque β diminue ce qui
induit une augmentation de 1 − β.
2. Une diminution de la variabilité (cf. écart-type) peut également induire une augmentation de la puissance
du test.
3. Enfin, une augmentation de la taille du ou des échantillons aura pour effet de donner une meilleure
précision.
Le test est alors plus puissant.
4. Il est recommandé de choisir une taille d’échantillon conduisant, a priori, à une puissance de test au
moins égale à 80%.
III.4 Un exemple
Exemple 13 :
On s’intéresse à la la durée de vie X, exprimée en heures, d’un module d’affichage oled et on admet que l’écart-
type des durées de vie est égal à 300 h.
La datasheet de ce module signale une durée de vie moyenne de 6000 h.
Afin de valider ces informations, on prélève un échantillon aléatoire de 36 modules et on constate une durée de
vie moyenne de 5900 h.
La durée de vie moyenne observée est-elle significativement inférieure à 6000 h ?
✍