You are on page 1of 4

Introduction aux probabilités

Si on veut formaliser un problème dans lequel le hasard intervient, on doit construire un modèle probabiliste,
choisi en fonction du but que l’on poursuit. Ce modèle est constitué d’un ensemble fondamental, d’une
tribu d’événements et d’une probabilité. Le choix de l’ensemble fondamental est très important pour le
calcul ultérieur des probabilités des événements.

1. Modéliser une expérience aléatoire


Certaines expériences entraînent des résultats aléatoires, c’est-à-dire qui dépendent directement du hasard.
Nous les appelons des expériences aléatoires. Dans la suite, E désignera une expérience aléatoire. En théorie
des probabilités, le terme modéliser désigne l’opération qui consiste à associer à E trois objets mathématiques
notés Ω (appelé univers), F (appelé tribu des événements) et P (appelé mesure de probabilité).

1.1. Vocabulaire
• Nous appelons univers Ω associé à E l’ensemble de tous les résultats possibles de E .
• Un événement est donc associé à un sous-ensemble de l’univers, l’ensemble des résultats pour lesquels
l’événement est réalisé.
Écriture logique Écriture ensembliste
Le contraire de A s’est réalisé A
A et B se sont réalisés A∩ B
A ou B s’est réalisé A∪ B
B s’est réalisé mais pas A B\A
• ; est appelé événement impossible et Ω est appelé événement certain.
• Nous appelons événements incompatibles ou disjoints deux événements A et B tels que A ∩ B = ;

1.2. Probabilité
On appelle probabilité une application P : F −→ [0, 1] telle que : P (Ω) = 1, P (;) = 0, et vérifiant
n
‚ Œ
[n X
P Ak = P (Ak ) pour toute suite An d’événements incompatibles.
k=1 k=1

Théorème 1.
On a :

• P A = 1 − P (A)
• P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
INTRO AUX PROBABILITÉS 1. MODÉLISER UNE EXPÉRIENCE ALÉATOIRE 2

1.3. Probabilité conditionnelle


On considère un événement B tel que P(B) > 0. La connaissance de la réalisation de B modifie la probabilité
de réalisation d’un événement élémentaire, puisque l’ensemble des résultats possibles est devenu B et non
plus Ω. Cette nouvelle probabilité est définie par
P (A ∩ B)
P (A|B) =
P(B)
Si P(A) > 0, la formule de définition de probabilité conditionnelle peut s’écrire :
P (A ∩ B) = P (A|B) P(B) = P (B|A) P(A)

1.4. Théorème de Bayes


Un système complet d’événements {A1 , . . . , An } est une partition de Ω en événements incompatibles deux à
n
X
deux : c’est-à-dire Ai ∩ A j = ; pour i 6= j, et P(Ai ) = 1.
i=1
On suppose que les probabilités des événements inclus dans chacun des Ai sont connues et on va donc
décomposer un événement quelconque B sur ce système :
 n  n
[ [
B = B∩Ω= B∩ Ai = (Ai ∩ B) .
i=1 i=1
On aboutit ainsi à la formule de la probabilité totale
Xn n
X
P(B) = P (Ai ∩ B) = P (B|Ai ) P(Ai )
i=1 i=1
Ceci va nous permettre de calculer les probabilités à posteriori P (Ai |B) après réalisation d’un événement B,
à partir des probabilités à priori P (Ai ) :
P (Ai ∩ B) P (B|Ai ) P(Ai )
P (Ai ∩ B) = = Pn ,
i=1 P (B|Ai ) P(Ai )
P(B)
résultat appelé formule de Bayes ou théorème de Bayes

1.5. Indépendance en probabilité


Deux événements A et B sont dit indépendants, relativement à la probabilité P, si
P (A ∩ B) = P(A)P(B)
La probabilité de réalisation simultanée de deux événements indépendants est égale au produit des probabi-
lités que chacun de ces événements se produise séparément. En conséquence, si P(B) > 0
P(A)P(B)
P (A ∩ B) = P(A)P(B) = = P(A)
P(B)
La réalisation d’un événement ne modifie pas la probabilité de réalisation de l’autre.
Mini-exercices.
1. Soient A et B deux événements tels que P(A) = 14 , P(B) = 23 et P(A ∩ B) = 18 . Calculer les probabilités E ”au moins l’un de ces
événements se produit” et F ”un seul de ces événements se produit”
2. Deux joueurs A et B participent à un jeu avec des probabilités respectives de victoire à chaque partie p et q = 1 − p. Le
gagnant est celui qui le premier obtient deux victoires de plus que l’autre. Quelle est la probabilité de gain de chaque joueur ?
3. On classe les gérants de portefeuille en deux catégories : ceux qui sont bien informés et ceux qui ne le sont pas. Lorsqu’un
gérant bien informé achète une valeur boursière pour son client, la probabilité que le cours de celle-ci monte est de 0.8 ;
dans le cas d’un gérant mal informé, cette probabilité ne vaut que 0.5 . Si on choisit au hasard un gérant dans un annuaire
professionnel, la probabilité qu’il soit bien informé est de 0.2 . Calculer la probabilité que le gérant ainsi choisi soit mal
informé, sachant que la valeur qu’il a achetée a monté.
INTRO AUX PROBABILITÉS 2. VARIABLES ALÉATOIRES 3

2. Variables aléatoires
Chaque résultat d’une expérience aléatoire est codé au moyen d’une application qui, si elle permet d’associer
une probabilité à chacune de ses valeurs numériques, sera appelée variable aléatoire (v.a.). Autrement dit,
une v.a. réelle X est une caractère quantitatif, discret ou continu, dont la valeur est fonction du résultat
de l’expérience. La loi de cette v.a. est alors déterminée par les probabilités de toutes ses valeurs possibles.
Elle est souvent caractérisée par les deux premiers moments qui sont l’espérance, caractéristique de valeur
centrale, et la variance, caractéristique de dispersion autour de cette valeur centrale.

2.1. Moments d’une v.a.


Soit X une v.a. réelle et x i les valeurs prises par cette variable.
Notons pi les probabilités individuelles (cas discret) , et f la densité de probabilité (cas continu).
• On appelle espérance mathématique de la v.a. X la quantité, si elle existe :
X Z +∞
E(X ) = pi x i E(X ) = x f (x)d x
i∈N −∞
| {z } | {z }
cas discret cas continu

• La variance est un indicateur mesurant la dispersion des valeurs x i autour de E(X ) :


X Z +∞
V (X ) = pi [x i − E(X )] V (X ) = [x − E(X )] f (x)d x
i∈N −∞
| {z } | {z }
cas discret cas continu

lorsque cette quantité existe. Elle s’écrit aussi :


V (X ) = E X 2 − E2 (X )


2.2. Propriétés des moments


• Espérance
1. Pour tout réel a l’on a : E(X + a) = E(X ) + a et E(aX ) = aE(X )
2. Si X et Y sont deux v.a. qui admettent des espérances alors : E(X + Y ) = E(X ) + E(Y )
• Variance
1. Pour tout réel a l’on a : V (X + a) = V (X ) et V (aX ) = a2 V (X )
2. Si X et Y sont deux v.a. indépendantes admettant des variances alors : V (X + Y ) = V (X ) + V (Y )
Mini-exercices.
Vrai Faux
Une variable éléatoire est une variable numérique
L’espérance d’une v.a. discrète est la valeur qu’elle prend le plus souvent
L’espérance d’une somme de deux v.a. discrète est toujours la somme de leurs espérances
Si deux v.a. continus ont la même espérance alors elles ont la même variance
La variance d’une somme de deux v.a. continues est toujours la somme de leurs espérances
INTRO AUX PROBABILITÉS 4. LOIS USUELLES CONTINUES 4

3. Lois usuelles discrètes

Distribution Loi de probabilité E(X ) V (X ) Description


Bernoulli P(X = 0) = 1 − p et P(X = 1) = p p p(1 − p) Épreuve aléatoire à deux issues
X = 0 échec ; X = 1 succés appelée une alternative
Binomiale B(n, p) P(X = k) = Cnk p k (1 − p)n−k np np(1 − p) n alternatives qui sont toutes
indépendantes
k
Poisson P (λ) P(X = k) = e−λ λk! λ λ Nombre d’événements
indépendants dans un intervalle
1 1−p
Géométrique G (p) P(X = k) = p(1 − p)k p p2
Nombre d’alternatives
avant le premier succés
r(1−p)
Pascal P(X = k) = Ck−1 p (1 − p)k−r
r−1 r r
p p2
Nombre d’alternatives
avant le r ième succés

Remarquons que la loi de Poisson peut être vue comme un cas limite de la loi Binomiale :
quand n → +∞, p→0 et np = λ
Mini-exercices.
1. En sortant du lycée, Nafi achète chaque jour un ticket «tombola» dans une confiserie proche du lycée. La probabilité pour un
ticket d’être un ticket gagnant est égale à 15%. Soit X le nombre de ticket que Nafi doit acheter pour tomber sur un ticket
gagnant.
(a) Établir la loi de probabilité de la v.a. X .
(b) Calculer l’espérance et la variance de X .
2. Mamadou, a décidé de parcourir cet été 10000 km en vélo. Or la probabilité d’avoir un accident sur 1 km est de 1/10000. En
prenant connaissance de cette probabilité, Mamadou décide alors d’annuler son long voyage en prétextant être sûr d’avoir
un accident. Êtes-vous d’accord avec Mamadou ? Si ce n’est pas le cas quelle est l’erreur commise par notre ami Mamadou ?

4. Lois usuelles continues

Distribution Densité de probabilité E(X ) V (X ) Description


1 (b−a)2
Uniforme U (a, b) f (x) = b−a
b+a
2 12 Tous les intervalles de même
b − a = amplitude amplitude ont la même loi
1 1
Exponnentielle E (λ) f (x) = λe−λx , λ λ2
Modélise la durée de vie d’un phénomène
x >0 sans mémoire, sans vieillisment ou sans usure
(x−m)2
1 −
Normale N (m, σ2 ) f (x) = p
2πσ
e 2σ2 m σ2 Modélise de nombreuses études scientifiques
x ∈R comme des mesures d’erreurs
Khi-deux χ 2 (n) f (x) = 2n/2 Γ1(n/2) x n/2−1 e−x/2 n 2n En fonction de v.a. X i de loi normale N (mi , σ2i )
Pn € X −m Š2
à n-ddl x >0 χ 2 (n) ≡ i=1 iσi i
Š−(n+1)/2
Γ ((n+1)/2) x2
€
Student T (n) f (x) = p
nπΓ (n/2)
1+ n 0 si n > 1 n
n−2 si n > 2 Utilisée pour les tests statistiques,
la construction d’intervalle de confiance, etc.
Z +∞
Rappelons que : Γ (a) = x a−1 e−x d x
0

Mini-exercices.
1. On suppose que la taille, en centimètres, d’un homme âgé de 30 ans est une variable aléatoire normale de paramètres
µ = 175 et σ2 = 36. Quel est le pourcentage d’hommes de 30 ans ayant une taille supérieure à 185 cm ?
2. Lors d’un procès en attribution de paternité, un expert témoigne que la durée de la grossesse, en jours, est de distribution
approximativement normale avec paramètres µ = 270 et σ2 = 100. L’un des pères putatifs est en mesure de prouver son
absence du pays pendant une période s’étendant entre le 290e et le 240e jour précédant l’accouchement.
Quelle est la probabilité que la conception de l’enfant ait eu lieu plus de 290 jours avant sa naissance ou moins de 240 jours
avant ?

You might also like