You are on page 1of 2

MASTER SDI Electronique M1 semestre 1 F.

HUET, année 2010-2011

Phénomènes et signaux aléatoires (MSY01) Rappels de probabilités
Rappels de base ! P(A ∪ B) = P(A) + P(B) - P(A ∩ B) P(A ∪ B) = P(A) + P(B) si A et B sont disjoints car alors P(A ∩ B) = 0 pour A et B quelconques (exemple des tirages sans remise) pour A et B indépendants (exemple des tirages avec remise) car alors P(B | A) = P(B)

A

B

P(A ∩ B) = P(B | A) P(A) P(A ∩ B) = P(B) P(A)

formule des probabilités totales (ou formule des causes)
cause 1 cause 2 cause n P(A | cause n) P(A | cause 1) A

P(A) = P(A | cause 1) P(cause 1) + … + P(A | cause n) P(cause n)

formule de Bayes : P(cause1 A) = P( A cause1) P(cause1) P(cause1 ∩ A) = P( A) P( A cause1) P(cause1) + ... + P( A cause n) P(cause n)

Variable aléatoire discrète (v.a. uniforme, binômiale, Poisson…) : X prend des valeurs x discrètes - loi de probabilité de X : donnée par P(X = x) pour tout x - condition de normalisation : - espérance de X : E[ X ] =

∑ P( X = x) = 1
x

∑ x P( X = x)
x

- espérance d'une fonction de X : E[h( X )] =

∑ h( x) P ( X = x )

x 2 - variance de X : Var[ X ] = σ X = E[( X − E[ X ])2 ] = E[ X 2 ] − E 2 [ X ] avec E[ X 2 ] =

∑ x 2 P( X = x)
x

Variable aléatoire continue (v.a. uniforme, exponentielle, normale…) : X prend des valeurs x dans un intervalle [a, b]

- densité de probabilité de X : donnée par fX(x) telle que P(x < X < x+dx) = fX(x) dx - condition de normalisation :

∫a

b

f X ( x ) dx = 1
x

car P(x1 < X < x2) =

∫x

x2
1

f X ( x ) dx

- fonction de répartition : FX ( x) = P( X < x) = - espérance de X : E[ X ] =

∫ a f X (u) du

' donc f X ( x) = FX ( x)

∫ a x f X ( x ) dx

b

X2) d'où : fY(y) |dy| = fX(x) |dx| . exemple pour X1 : P( X1 = x1 ) = ∑ P( X1 = x1. x2 ) dx1dx2 2 (E[X] est un opérateur linéaire) Var[a X1 + b X 2 ] = a 2 Var[ X1 ] + b 2 Var[ X 2 ] + 2a b Cov[ X1. x2 ) = f X ( x1 ) f X ( x2 ) 1 2 espérance d'une fonction de X1 et X2 : E[h( X1. X2 = x2) = P(X1 = x1) P(X2 = x2) ∀ x1. X 2 ] avec Cov[ X1.. x2 ) donnée par P ( x1 < X 1 < x1 + dx1.cas discret : loi de probabilité jointe donnée par P(X1 = x1.variance de X : Var[ X ] = σ 2 = E[( X − E[ X ])2 ] = E[ X 2 ] − E 2 [ X ] avec E[ X 2 ] = X Changement de variable Y = h(X) avec h bijectif : f X ( x ) dx cas discret : P(Y = y) = P(X = h-1(y)) cas continu : P(y < Y < y+dy) = P(x < X < x+dx) Extension à 2 variables : X = (X1.cas continu : densité jointe f X ( x1. X 2 = x2 ) x2 cas particulier : X1 et X2 indépendantes si P(X1 = x1. x2 ) dx1 dx2 alors : P[( X1. x2 ) f X ( x1. exemple pour X1 : f X ( x1 ) = f ( x . X 2 ] = E[( X1 − E[ X1 ]) ( X 2 − E[ X 2 ])] = E[ X1 X 2 ] − E[ X1 ] E[ X 2 ] si X1 et X2 indépendants : E[ X1 X 2 ] = E[ X1 ] E[ X 2 ] et Cov[ X1. X 2 ) ∈ domaine A] = f X ( x1. X2 = x2) = P(X1 = x1 ∩ X2 = x2) alors : P[( X1. X 2 ] = 0 E[ g ( X1 ) h( X 2 )] = E[ g ( X1 )] E[h( X 2 )] . x2 ) dx1dx2 ∫∫ A densités marginales de X1 et X2. X 2 = x2 ) ( x1 . X 2 )] = ∑∑ h( x1. X 2 = x2 ) x1 x2 . X 2 )] = Propriétés (cas discret ou continu) : E[a X1 + b X 2 ] = a E[ X1 ] + b E[ X 2 ] ∀ x1. X 2 ) ∈ domaine A] = ∑ ∑ P( X1 = x1. x ) dx 2 x2 X 1 2 1 ∫ cas particulier : X1 et X2 indépendantes si f X ( x1. ∀ x2 espérance d'une fonction de X1 et X2 : E[h( X1. x2 < X 2 < x2 + dx2 ) = f X ( x1. x2 ) ∈ A lois marginales de X1 et X2. x2 ) P( X1 = x1.espérance d'une fonction de X : E[h( X )] = ∫ a h ( x ) f X ( x ) dx ∫a x b 2 b . ∀ x2 ∫x ∫x 1 h( x1.