You are on page 1of 12

3.

Variables aléatoires continues usuelles et


approximation

Rappelons que qu’une variable aléatoire 𝑿 est dite continue si


l’ensemble image 𝑿(𝛀) est soit ℝ ou un intervalle de ℝ.

3.1 Définition :
Une fonction 𝒇 ∶ ℝ ⟶ ℝ est dite densité de probabilité si :
1. 𝒇(𝒙) ≥ 𝟎, ∀𝒙 ∈ ℝ.
2. 𝒇 est continue sauf, éventuellement, en un nombre fini de points
où elle a des discontinuités de première espèce.
+∞
3. ∫−∞ 𝒇(𝒙) 𝒅𝒙 = 𝟏.

3.2 Exemple :
𝝅
𝒄𝒐𝒔𝒙 , 𝒔𝒊 𝟎 ≤ 𝒙 ≤
𝒇(𝒙) = { 𝟐
𝟎 , 𝒔𝒊𝒏𝒐𝒏

𝝅
𝟐
3.3 Définition :
Soit 𝑿 une variable aléatoire continue. On dit que 𝑿 admet une
densité 𝒇, si sa fonction de répartition : 𝑭(𝒙) = 𝑷(𝑿 ≤ 𝒙) admet
la représentation intégrale suivante :
𝒙
𝑭(𝒙) = 𝑷(𝑿 ≤ 𝒙) = ∫−∞ 𝒇(𝒕)𝒅𝒕 , ∀𝒙 ∈ ℝ.

1
3.4 Exemple :

Soit 𝑿 une variable aléatoire continue ayant pour densité :

𝝅
𝒄𝒐𝒔𝒙 , 𝒔𝒊 𝟎 ≤ 𝒙 ≤
𝒇(𝒙) = { 𝟐
𝟎 , 𝒔𝒊𝒏𝒐𝒏
Calculer sa fonction de répartition.

En effectuant les calculs convenablement, on trouve :


𝟎 , 𝒔𝒊 𝒙 < 𝟎
𝝅
𝒙 𝒔𝒊𝒏𝒙 , 𝒔𝒊 𝟎 ≤ 𝒙 ≤
𝑭(𝒙) = ∫−∞ 𝒇 (𝒕)𝒅𝒕 = 𝝅
𝟐
𝟏 , 𝒔𝒊 𝒙 >
𝟐
{

Espérance d’une variable aléatoire à densité :

3.5 Définition :
+∞
Si 𝑿 est une variable aléatoire à densité 𝒇 et si ∫−∞ 𝒙𝒇(𝒙)𝒅𝒙 est
absolument convergente, on définit l’espérance mathématique de 𝑿 par:
+∞

𝑬(𝑿) = ∫ 𝒙𝒇(𝒙)𝒅𝒙.
−∞

2
3.6 Exemple :

Soit 𝑿 une variable aléatoire continue ayant pour densité :


𝝅
𝒄𝒐𝒔𝒙 , 𝒔𝒊 𝟎 ≤ 𝒙 ≤
𝒇(𝒙) = { 𝟐
𝟎 , 𝒔𝒊𝒏𝒐𝒏
Calculer son espérance.
𝝅
+∞ 𝟐
𝝅
𝑬(𝑿) = ∫ 𝒙𝒇(𝒙)𝒅𝒙 = ∫ 𝒙𝒄𝒐𝒔𝒙𝒅𝒙 = − 𝟏.
𝟐
−∞ 𝟎

3.7 Remarque :

L’espérance d’une variable aléatoire continue n’existe pas toujours !

3.8 Exemple :

Soit 𝑿 une variable aléatoire ayant pour densité :


𝟏
𝒇(𝒙) = , 𝒙 ∈ ℝ.
𝝅(𝟏 + 𝒙𝟐 )
Calculer son espérance.

Remarquons d’abord que :


+∞ +∞ 𝟏 𝟐 +∞ 𝟏 𝟐
∫−∞ 𝒇(𝒙)𝒅𝒙 = ∫−∞ 𝒅𝒙 = ∫𝟎 𝒅𝒙 = [𝒂𝒓𝒄𝒕𝒈𝒙] +∞
𝟎 = 𝟏.
𝝅(𝟏+𝒙𝟐 ) 𝝅 𝝅 (𝟏+𝒙𝟐 ) 𝝅

+∞ +∞ 𝟏 𝟏 +∞ 𝟐𝒙
𝑬(𝑿) = ∫−∞ 𝒙𝒇 (𝒙)𝒅𝒙 = ∫−∞ 𝒙 𝒅𝒙 = ∫−∞ 𝒅𝒙.
𝝅(𝟏+𝒙𝟐 ) 𝟐𝝅 (𝟏+𝒙𝟐 )

Or,
+∞
𝟐𝒙
𝑰=∫ 𝒅𝒙 = 𝐥𝐢𝐦 𝒍𝒏(𝟏 + 𝑨𝟐 ) = +∞
𝝅 (𝟏 + 𝒙𝟐 ) 𝑨⟶+∞
𝟎

Ce qui prouve que 𝑬(𝑿) n’existe pas.


3.9 Proposition : Espérance de 𝒀 = 𝒈𝒐𝑿.
3
Si 𝑬(𝑿) existe, alors 𝑬(𝒀) existe et l’on a :
+∞

𝑬(𝒀) = ∫ 𝒈(𝒙)𝒇 (𝒙)𝒅𝒙.


−∞

3.10 Exemples :

+∞
1. Si 𝒀 = 𝑿𝟐 , alors 𝑬(𝒀) = ∫−∞ 𝒙𝟐 𝒇(𝒙)𝒅𝒙.
+∞
2. Si 𝒀 = 𝒔𝒊𝒏𝑿, alors 𝑬(𝒀) = ∫−∞ 𝒔𝒊𝒏𝒙𝒇(𝒙)𝒅𝒙.
+∞
3. Si 𝒀 = √𝑿, alors 𝑬(𝒀) = ∫−∞ √𝒙𝒇(𝒙)𝒅𝒙.
+∞
4. Si 𝒀 = 𝒂𝑿 + 𝒃, alors 𝑬(𝒀) = 𝒂 ∫−∞ 𝒙𝒇(𝒙)𝒅𝒙 + 𝒃 = 𝒂𝑬(𝑿) + 𝒃.

3.11 Propriété :

Si 𝑬(𝑿) et 𝑬(𝒀) existent et si 𝒁 = 𝑿 + 𝒀, alors 𝑬(𝒁) = 𝑬(𝑿) + 𝑬.

3.12 Définition : Variance et écart-type


𝟐
Si 𝑬(𝑿) et 𝑬 ((𝑿 − 𝑬(𝑿)) ) existent, on appelle variance de 𝑿, la

quantité :
+∞
𝟐 𝟐
𝑽(𝑿) = 𝑬 ((𝑿 − 𝑬(𝑿)) ) = ∫ (𝒙 − 𝑬(𝑿)) 𝒇(𝒙)𝒅𝒙.
−∞

L’écart-type est donné par : 𝝈𝑿 = √𝑽(𝑿).

3.13 Proposition :

Si 𝑬(𝑿𝟐 ) existe, alors :


+∞ 𝟐
𝑽(𝑿) = ∫−∞ (𝒙 − 𝑬(𝑿)) 𝒇(𝒙)𝒅𝒙 = 𝑬(𝑿𝟐 ) − 𝑬𝟐 (𝑿).

3.14 Remarque :

La variance n’existe pas toujours !

4
Exemple :

Si 𝑿 a pour densité :
𝟐
𝒇(𝒙) = { 𝒙𝟑 , 𝒔𝒊 𝒙 ≥ 𝟏
𝟎, 𝒔𝒊𝒏𝒐𝒏
On vérifie que 𝑬(𝑿) = 𝟐, mais 𝑽(𝑿) n’existe pas car 𝑬(𝑿𝟐 ) = +∞ !

3.15 Définition :

Soit 𝑿 une variable aléatoire, si :

 𝑬(𝑿) = 𝟎, elle est dite centrée.


 𝝈𝑿 = 𝟏, elle est dite réduite.

3.16 Proposition :

Soit 𝑿 une variable aléatoire, ayant une espérance et une variance,


𝑿−𝑬(𝑿)
alors, 𝑿∗ = est centrée réduite.
𝝈𝑿

Lois continues usuelles


1. Loi uniforme sur un intervalle [𝒂, 𝒃] :

3.17 Définition :
Soit 𝑿 une variable aléatoire continue. On dit que 𝑿 suit la loi uniforme
sur [𝒂, 𝒃] et on note 𝑿 ↪ 𝓤[𝒂, 𝒃] si 𝑿 admet pour densité, la fonction :

𝟏
𝒇(𝒙) = {𝒃 − 𝒂 , 𝒔𝒊 𝒂 ≤ 𝒙 ≤ 𝒃
𝟎, 𝒔𝒊𝒏𝒐𝒏

5
𝟏
𝒃−𝒂

a b
3.18 Fonction de répartition :

𝟎 , 𝒔𝒊 𝒙 < 𝒂
𝒙−𝒂
𝒙 , 𝒔𝒊 𝒂 ≤ 𝒙 ≤ 𝒃
𝑭(𝒙) = 𝑷(𝑿 ≤ 𝒙) = ∫−∞ 𝒇(𝒕)𝒅𝒕 = 𝒃−𝒂
𝟏 , 𝒔𝒊 𝒙 > 𝒃
{

a b

6
3.19 Espérance et variance :
𝒂+𝒃 (𝒃 − 𝒂) 𝟐
𝑬( 𝑿 ) = , 𝑽 (𝑿 ) =
𝟐 𝟏𝟐
2. Loi exponentielle :

3.20 Définition :

Soit 𝑿 une variable aléatoire continue. On dit que 𝑿 suit la loi

exponentielle de paramètre 𝜶 > 𝟎 et on note 𝑿 ↪ 𝓔(𝜶) si 𝑿 admet

pour densité, la fonction :

−𝜶𝒙
𝜶𝒆 , 𝒔𝒊 𝒙 ≥ 𝟎
𝒇(𝒙) = {
𝟎, 𝒔𝒊𝒏𝒐𝒏

3.21 Fonction de répartition :

𝒙 𝟏 − 𝒆−𝜶𝒙 , 𝒔𝒊 𝒙 ≥ 𝟎
𝑭(𝒙) = 𝑷(𝑿 ≤ 𝒙) = ∫−∞ 𝒇(𝒕)𝒅𝒕 ={
𝟎 , 𝒔𝒊𝒏𝒐𝒏
3.22 Espérance et variance :
𝟏 𝟏
𝑬(𝑿 ) = , 𝑽(𝑿) =
𝜶 𝜶𝟐

7
3.23 Propriétés :

 ∀𝒔 ≥ 𝟎, 𝑷(𝑿 > 𝒔) > 𝟎.


 𝑷(𝑿 > 𝒔 + 𝒕/𝑿 > 𝒔) = 𝑷(𝑿 > 𝒕) (La loi est sans mémoire).

3. Loi normale :

3.24 Définition :

Soit 𝑿 une variable aléatoire continue. On dit que 𝑿 suit la loi

exponentielle de paramètres 𝝁 et 𝝈 et on note 𝑿 ↪ 𝓝 (𝝁, 𝝈) si 𝑿

admet pour densité, la fonction :

𝟏 𝟏 𝒙−𝝁 𝟐
− ( )
𝒇(𝒙) = 𝒆 𝟐 𝝈 ; ∀𝒙 ∈ ℝ.
𝝈√𝟐𝝅
𝒇 est bien une densité car :
 𝒇 est positive sur ℝ.
 𝒇 est continue sur ℝ.
+∞
 ∫−∞ 𝒇(𝒙) 𝒅𝒙 = 𝟏.

Etude des variations de 𝒇 :


(𝒙 − 𝝁) 𝟏 𝒙−𝝁 𝟐
− ( )
𝒇′ (𝒙) = .𝒆 𝟐 𝝈
𝝈𝟐 √𝟐𝝅
Tableau de variations :

𝒙 −∞ 𝝁 +∞
𝒇′ + −
𝟏
𝝈 √𝟐𝝅
𝒇
0
0
La courbe de 𝒇 est une courbe en cloche, elle présente un axe de symétrie en

𝒙 = 𝝁. Elle a deux d’inflexion en 𝒙 = 𝝁 ∓ 𝝈.


8
𝟏
𝝈√𝟐𝝅

Espérance et variance :

𝑬(𝑿) = 𝝁 ; 𝑽(𝑿) = 𝝈𝟐 ; 𝝈𝑿 = 𝝈.

Conséquence immédiate :
𝑿−𝝁
Si 𝑿∗ = , alors 𝑬(𝑿) = 𝟎 et 𝝈𝑿 = 𝟏.
𝝈

Propriété fondamentale :

Si 𝑿 ↪ 𝓝 (𝝁, 𝝈) et 𝒀 = 𝒂𝑿 + 𝒃 (𝒂 > 𝟎) ; alors 𝒀 ↪ 𝓝(𝒂𝝁 + 𝒃, 𝒂𝝈) . En


𝑿−𝝁
particulier, si 𝑿∗ = alors 𝑿∗ ↪ 𝓝(𝟎, 𝟏).
𝝈

Propriété de la fonction de répartition de : 𝑿 ↪ 𝓝 (𝟎, 𝟏)

𝑭𝑿 (−𝒙) = 𝟏 − 𝑭𝑿 (𝒙), 𝒙≥𝟎

𝟏
𝝈√𝟐𝝅

−𝒙 +𝒙

9
Conséquence importante :

D’après cette propriété (symetrie), il suffit de connaitre les valeurs de 𝑭𝑿 (𝒙)

pour les vleurs 𝒙 ≥ 𝟎 ; où 𝑿 ↪ 𝓝(𝟎, 𝟏).

Par ailleurs, il est important de noter que les valeurs de :


𝒙
𝟏 𝟏 𝟐
− 𝒕
𝑭𝑿 (𝒙) = ∫ 𝒆 𝟐 ; ∀𝒙 ∈ ℝ (∗)
√𝟐𝝅
−∞

ne sont pas connues de façon exacte, car on ne connait pas de primitive de la


𝟏 𝟐
− 𝒙
fonction : 𝒈(𝒙) = 𝒆 𝟐 . Pour cette raison, on effectue les calculs de (∗), en

utilisant ses valeurs approchées données par une table.

Théorèmes d’approximation

3.25 Théorème 1 : (approximation de la loi binomiale par la loi de Poisson)


Si 𝑿 ↪ 𝓑(𝒏, 𝒑), alors pour 𝒏 assez grand et 𝒑 assez petit telque 𝒏𝒑 =
𝝀 ; alors :

𝒆−𝝀𝝀𝒌
𝑷(𝑿 = 𝒌) = 𝑪𝒌𝒏 𝒑𝒌 𝒒𝒏−𝒌 ≈ 𝑷(𝒀 = 𝒌) ; 𝒀 ↪ 𝓟(𝝀 = 𝒏𝒑)
𝒌!
Exemple :

Les lampes fabriquées par une usine, comme toutes les productions, sont

parfois défectueuses. Le taux de lampes défectueuses est de 3% pour cette

10
usine. Quelle est la probabilité que dans un lot de 100 lampes, 8 sont

défectueuses ?

Solution :

𝑷(𝑿 = 𝟖) = 𝑪𝟖𝟏𝟎𝟎 (𝟎. 𝟎𝟑)𝟖 (𝟎. 𝟗𝟕)𝟗𝟐 = 𝟎. 𝟎𝟎𝟕𝟒.

En utilisant l’approximation par la loi de Poisson 𝒀 ↪ 𝓟(𝝀 = 𝒏𝒑 = 𝟑), on

obtient :
𝒆−𝟑 𝟑𝟖
𝑷 (𝒀 = 𝟖 ) = = 𝟎. 𝟎𝟎𝟖𝟏.
𝟖!

3.26 Théorème 2 : (approximation de la loi binomiale par la loi normale)

Si 𝑿 ↪ 𝓑(𝒏, 𝒑), alors la variable centrée réduite :


𝑿 − 𝑬(𝑿 ) 𝑿 − 𝒏𝒑
𝑿 = = ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
𝒏 ⟶ +∞ 𝓝(𝟎, 𝟏)
𝝈𝑿 √𝒏𝒑𝒒

Dans la pratique, si 𝒏 ≥ 𝟑𝟎 , 𝒏𝒑 ≥ 𝟓 et 𝒏𝒒 ≥ 𝟓 ; l’approximation est

bonne.

11
Exemple :

Supposons que : 𝑿 ↪ 𝓑(𝟑𝟎; 𝟎, 𝟒), calculer 𝑷(𝟏𝟎 ≤ 𝑿 ≤ 𝟏𝟓).

Solution :

On utilisant la loi binomiale :

𝑷(𝟏𝟎 ≤ 𝑿 ≤ 𝟏𝟓) = 𝑷(𝑿 = 𝟏𝟎) + 𝑷(𝑿 = 𝟏𝟏) + 𝑷(𝑿 = 𝟏𝟐)


+𝑷(𝑿 = 𝟏𝟑) + 𝑷(𝑿 = 𝟏𝟒) + 𝑷(𝑿 = 𝟏𝟓)
= 𝟎, 𝟏𝟏𝟓𝟐 + 𝟎, 𝟏𝟑𝟗𝟔 + 𝟎, 𝟏𝟒𝟕𝟒 + 𝟎, 𝟏𝟖𝟔𝟎 + 𝟎, 𝟏𝟏𝟎𝟏 + 𝟎, 𝟎𝟕𝟖𝟑 = 𝟎, 𝟕𝟐𝟔𝟔

En utilisant la loi normale, on a : 𝒏𝒑 = 𝟏𝟐, 𝒏𝒒 = 𝟏𝟖 et 𝒏𝒑𝒒 = 𝟕, 𝟐.

𝑷(𝟏𝟎 ≤ 𝑿 ≤ 𝟏𝟓) = 𝑷(𝟏𝟎 − 𝟎, 𝟓 < 𝒀 < 𝟏𝟓 + 𝟎, 𝟓) = 𝑷(𝟗, 𝟓 < 𝒀 < 𝟏𝟓, 𝟓)


𝟗, 𝟓 − 𝟏𝟐 𝒀 − 𝟏𝟐 𝟏𝟓, 𝟓 − 𝟏𝟐
= 𝑷( < < )
√𝟕, 𝟐 √𝟕, 𝟐 √𝟕, 𝟐
= 𝑷(−𝟎, 𝟗𝟑 < 𝒀∗ < 𝟏, 𝟑𝟎)
= 𝑭(𝟏𝟑𝟎) − 𝑭(−𝟎, 𝟗𝟑)

= 𝑭(𝟏𝟑𝟎) − (𝟏 − 𝑭(𝟎, 𝟗𝟑))

= 𝑭(𝟏𝟑𝟎) + 𝑭(𝟎, 𝟗𝟑) − 𝟏

= 𝟎, 𝟕𝟐𝟕𝟎.

12

You might also like