Notions de probabilités

Il existe plusieurs manières de définir une probabilité. Principalement, on parle de probabilités inductives ou expérimentales et de probabilités déductives ou théoriques. On peut les définir comme suit : Probabilité expérimentale ou inductive : la probabilité est déduite de toute la population concernée. Par exemple, si sur une population d'un million de naissances, on constate 530000 garçons et 470000 filles, on dit que P[garçon] = 0.53 Probabilité théorique ou déductive : cette probabilité est connue grâce à l'étude du phénomène sous-jacent sans expérimentation. Il s'agit donc d'une connaissance a priori par opposition à la définition précédente qui faisait plutôt référence à une notion de probabilité a posteriori. Par exemple, dans le cas classique du dé parfait, on peut dire, sans avoir à jeter un dé, que P["obtenir un 4"] = .

Comme il n'est pas toujours possible de déterminer des probabilités a priori, on est souvent amené à réaliser des expériences. Il faut donc pouvoir passer de la première à la deuxième solution. Ce passage est supposé possible en terme de limite (i.e. avec une population dont la taille tend vers la taille de la population réelle).

Théorème des probabilités composées Soient deux évènements A et B réalisés respectivement au cours de épreuves. On a donc et et fois

. Si de plus

A et B sont réalisés simultanément fois, on a . Que peut-on déduire sur la probabilité de l'évènement B sachant que l'évènement A est réalisé ? Cette probabilité est appellée probabilité

conditionnelle de B sachant A et se note a .

. Dans notre cas, on

Par définition, on a Conséquences

et

.

Deux évènements A et B sont dits indépendants si ou encore si (l'information sur la .

réalisation de A n'apporte rien à l'évènement B) et Attention : 1) indépendant 2) incompatible. et sont indépendants uniquement si

vous pouvez prouver que théoriquement. En pratique, i.e. sur des valeurs numériques, on ne peut pas induire l'indépendance à partir de cette égalité constatée numériquement. On ne peut que supposer très probable cette indépendance. Si deux évènements et sont indépendants, alors il en est de même de et , et , et . Soit , , ..., une suite d'évènements ayant une intersection , on a alors

commune non nulle, i.e.

Théorème de Bayes - Probabilités des causes

Soit un évènement qui peut dépendre de causes différentes et incompatibles deux à deux (on ne peut avoir deux causes réalisées simultanément). Etant donnée la réalisation de l'évènement , quelle est la probabilité que ce soit qui en soit la cause ?

On peut écrire que car constitue un système complet (les causes sont incompatibles deux à deux et toutes les causes possibles à sont supposées connues). Donc d'après le théorème des probabilités totales, on a .

En appliquant le théorème des probabilités conditionnelles, on a donc

Exemple : Deux machines 200 objets. produit

et

produisent respectivement 100 et en produit

de pièces défectueuses et

. Quelle est la probabilité pour qu'un objet défectueux ait été fabriqué par la machine L'évènement constaté, ? , est donc la présence d'une pièce et . Compte tenu . De selon les

défectueuse et les causes sont les machines

des productions de ces machines, on a et plus, les probabilités conditionnelles de l'évènement

machines sont et . En reportant ces valeurs dans la formule générale, on obtient

Variable aléatoire : définitions
Une variable aléatoire (V.A.) est une application de l'ensemble des épreuves dans le corps des réels. Elle est caractérisée par l'ensemble des probabilités associées à tous ses états possibles. Définition 1 Tout ensemble de parties d'un ensemble , stable par réunion, intersection et complémentarité s'appelle une tribu sur . Soit une tribu de parties de . Le couple s'appelle un espace probabilisable ou mesurable et est l'ensemble des évènements. Si peut être muni d'une topologie, alors la tribu engendrée par la classe des ouverts de est appellée tribu borélienne. Définition 2 Une variable aléatoire est une application mesurable d'un espace probabilisé ( , , ) dans le corps des réels muni de sa tribu borélienne ( , ) (i.e. ensemble des intervalles de la forme ). Définition 3 Pour tout borélien B (i.e. probabilité de X sur ( , ) et l'on note ), on définit une loi de :

Définition 4 Une v.a. dénombrable.

est discrète si Card[ ] est fini ou

Dans ce cas,

ne peut prendre, avec une probabilité non nulle, qu'un . On note .

nombre fini de valeurs particulières généralement les probabilités par Définition 5 Une v.a.

est continue si elle peut prendre toute valeur , , , et telle

sur un segment de la forme que Définition 6 Une v.a. 2) et 3) .

est mixte si 1)

,

Fonction de répartition : Définition La fonction de répartition (FR) d'une v.a. dans définie par est l'application de

Propriétés est non décroissante. est continue à gauche. est continue à droite dans le cas des v.a. continues. et

Fonction de répartition d'une v.a. discrète Soit une v.a. discrète pouvant prendre les valeurs avec . . de

probabilités respectivement où est donné par

Fonction de répartition d'une v.a. continue
Soit une v.a. continue. Sa fonction de répartition est continue à telle que l'on puisse gauche et à droite. Il existe donc une fonction écrire :

Par définition, est appellée densité de probabilité de , ou en abrégé, ddp de . Cette fonction a les propriétés suivantes :

Couple de variables aléatoires :

Définitions Soient et deux v.a. définies sur le même espace probabilisé. On appelle fonction de répartition conjointe de et , la fonction définie par :

On a par définition, Cas d'un couple de v.a. continues On note la ddp conjointe de et

et

.

et l'on a par définition :

avec les propriétés suivantes :

On peut également définir une fonction de répartition marginale de , notée par ). Cas d'un couple de v.a. discrètes (idem pour ,

On note Distribution conditionnelle Soient conjointe et

.

deux v.a. continues de FR conjointe

et de ddp

. Comment peut-on évaluer la probabilité conditionnelle ?

On définit la fonction de répartition conditionnelle

par

et la densité de probabilité conditionnelle

par

Si les deux v.a. sont indépendantes, alors on a

Moyenne et espérance mathématique d'une v.a. : Notion de moyenne pour une v.a. discrète Soit une v.a. discrète prenant ses valeurs dans . et dont

les probabilités associées sont

Par définition, on appelle moyenne théorique ou espérance mathématique de , et l'on note , la valeur .

On ne connait cette v.a. que par le moyen d'un échantillon de taille (dont on supposera qu'il est significatif par rapport au nombre de valeurs possible, se réalise , de la v.a., i.e. ). Chaque évènement ).

fois dans l'échantillon (

La moyenne expérimentale est définit par

.

Si on admet que la proportion tend vers la propabilité théorique pour un échantillon de taille infinie ( ) alors on peut estimer la moyenne théorique par la limite de la moyenne expérimentale. Espérance mathématique Soit note une v.a. On définit l'espérance mathématique de la valeur et l'on

est la fonction de répartition de

. une v.a. définie

Cette intégrale est dite au sens de Stieljes. Soit sur . On peut discrétiser la v.a.

en introduisant une nouvelle en intervalles

v.a. discrète tels que

en découpant l'intervalle

et donc

Grâce à un échantillon de taille expérimentale de si (

, on peut calculer une moyenne ) qui tend vers la moyenne théorique

. Si de plus, on découpe en une infinité ( par ), alors on obtient la

d'intervalles de la forme moyenne théorique de la v.a.

Remarque : L'espérance mathématique n'est pas toujours définie. C'est en particulier le cas de la loi de Cauchy dont la ddp est donnée par car l'intégrale diverge.

Propriétés : Les propriétés de l'espérance mathématique proviennent de celle de l'opérateur intégral et en particulier la linéarité. Soit une v.a. et une constante.

Soient

et

deux v.a. et

et deux constantes.

Plus généralement, pour toute fonction support compact

, positive, continue, à

Exemple : Soient

et

deux v.a. continues indépendantes de même . On

loi . On souhaite trouver la loi de la variable aléatoire a donc

Les deux variables étant indépendantes, on a Soit le changement de variables suivant :

.

dont le jacobien est

Ce qui nous donne

d'où l'on déduit la densité de probabilité

Supposons maintenant que ces deux variables aléatoires suivent une loi exponentielle de paramètre , . On a alors

La v.a.

suit donc une loi uniforme. Comme on doit avoir , cela donne et .

et

Moments
La notion de moment permet d'introduire celle d'indicateur résumant et/ou caractérisant une variable aléatoire. On y retrouvera la moyenne comme cas particulier. Définitions Moment d'ordre n. On appelle moment d'ordre n de la v.a. note la valeur . et l'on

Pour les v.a. discrètes, cela donne : Moment d'ordre n rapporté à l'abscisse a. On appelle moment d'ordre n de la v.a. valeur rapporté à l'abscisse . , et l'on note , la

Moment centré d'ordre n. On appelle moment centré d'ordre n de la v.a. et l'on note la valeur

d'ordre

. Le moment centré d'une v.a. est donc le moment d'ordre de cette v.a. ).

rapporté à l'abscisse particulière qu'est sa moyenne ( Variance, covariance et écart-type La variance est définie par

Elle traduit la dispersion de la distribution de la v.a. autour de sa valeur moyenne. Etant un carré, la dimension de la variance n'est pas celle de la moyenne. C'est pourquoi on utilise plus souvent l'écart type, noté , qui est la racine de la variance. On dit aussi que la variance traduit la notion d'incertitude. Plus la variance est faible, moins le résultat de l'expérience aléatoire est incertain. A la limite, une v.a. de variance nulle conduit à des expériences strictement identiques (i.e. le phénomène est complètement déterministe, il n'y a donc plus aucune raison de garder la notion de variable aléatoire). La variance a également des propriétés intéressantes vis à vis de la combinaison linéaire de v.a. : Soient et deux v.a.

est la covariance des v.a.

et

définie par :

La covariance peut être vue comme le moment centré conjoint d'ordre 1 de deux v.a. Si les deux v.a. sont indépendantes, alors leur covariance est nulle (mais la réciproque n'est pas vraie en général).

Par ailleurs, soit

une v.a. et

et deux constantes. On a

Les valeurs principales Loi Type Prob. ou ddp et Moyenn e Variance

0-1 Uniforme Binomiale

D D D pour

Géométrique Pascal

D D

pour

Poisson

D et

pour

Uniforme

C

avec

Gauss

C

pour non défini

Cauchy

C

non défini

Gamma Exponentiell e Rayleigh Laplace

C C pour et

C C C

pour

Student Weibull Type : D

C C loi discrète ; C loi continue.

Semestre123456 Bon chance :

Sign up to vote on this title
UsefulNot useful