Précis de Recherche Opérationnelle

et
Aide à la Décision
Cours IPST CNAM de Toulouse
Richard Loustau
Le 13 mars 2004
TABLE DES MATIÈRES iii
Table des matières
Introduction ix
A Eléments de la théorie des graphes et applications 1
I Eléments de la théorie des graphes 3
I.1 Le concept de graphe . . . . . . . . . . . . . . . . . . . . . . . . . 3
I.1 .a Graphes orientés . . . . . . . . . . . . . . . . . . . . . . . 3
I.1 .b Graphes non orientés . . . . . . . . . . . . . . . . . . . . . 4
I.2 Principales définitions . . . . . . . . . . . . . . . . . . . . . . . . 4
I.3 Matrices associées à un graphe . . . . . . . . . . . . . . . . . . . 5
I.3 .a Matrices d’adjacence . . . . . . . . . . . . . . . . . . . . . 5
I.3 .b Matrices d’incidence sommets-arcs . . . . . . . . . . . . . 6
I.4 Fermeture transitive d’un graphe . . . . . . . . . . . . . . . . . . 7
I.4 .a Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
I.4 .b Matrice de fermeture transitive . . . . . . . . . . . . . . . 7
I.4 .c Algorithme de Roy-Warshall . . . . . . . . . . . . . . . . 7
I.5 Graphes et connexité . . . . . . . . . . . . . . . . . . . . . . . . . 8
I.5 .a Composantes connexes . . . . . . . . . . . . . . . . . . . . 9
I.5 .b Composantes fortement connexes . . . . . . . . . . . . . . 9
I.6 Mise en ordre d’un graphe . . . . . . . . . . . . . . . . . . . . . . 10
II Chemins optimaux 15
II.1 L’algorithme de Ford . . . . . . . . . . . . . . . . . . . . . . . . . 15
II.2 Algorithme de Dijkstra . . . . . . . . . . . . . . . . . . . . . . . . 17
II.3 Graphes sans circuit . . . . . . . . . . . . . . . . . . . . . . . . . 17
II.4 Algorithmes matriciels . . . . . . . . . . . . . . . . . . . . . . . . 18
II.4 .a Algorithme de Floyd . . . . . . . . . . . . . . . . . . . . . 19
III Ordonnancement 23
III.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . 23
III.2 Principaux types de contraintes . . . . . . . . . . . . . . . . . . . 24
III.2 .a Contraintes de type potentiel . . . . . . . . . . . . . . . . 24
III.2 .bContraintes de type disjonctif . . . . . . . . . . . . . . . . 25
III.3 Exemple de problème : . . . . . . . . . . . . . . . . . . . . . . . . 25
III.4 La méthode MPM . . . . . . . . . . . . . . . . . . . . . . . . . . 26
III.4 .a Construction du graphe MPM . . . . . . . . . . . . . . . 26
III.4 .bDétermination du calendrier au plus tôt . . . . . . . . . . 26
iv TABLE DES MATIÈRES
III.4 .c Détermination du calendrier au plus tard . . . . . . . . . 27
III.4 .dMarge totale . . . . . . . . . . . . . . . . . . . . . . . . . 27
III.4 .e Marge libre . . . . . . . . . . . . . . . . . . . . . . . . . . 27
III.4 .f Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
III.5 La méthode PERT . . . . . . . . . . . . . . . . . . . . . . . . . . 30
III.5 .a Construction du graphe PERT . . . . . . . . . . . . . . . 30
III.5 .bCalendrier au plus tôt . . . . . . . . . . . . . . . . . . . . 30
III.5 .c Calendrier au plus tard . . . . . . . . . . . . . . . . . . . 30
III.5 .dMarges totales : . . . . . . . . . . . . . . . . . . . . . . . 30
III.5 .e Marges libres : . . . . . . . . . . . . . . . . . . . . . . . . 30
B Programmation Linéaire 33
I Présentation 35
I.1 Présentation d’un exemple : . . . . . . . . . . . . . . . . . . . . . 35
I.2 Forme standard des problèmes de PL . . . . . . . . . . . . . . . . 36
I.2 .a Présentation générale : . . . . . . . . . . . . . . . . . . . 36
I.2 .b Forme matricielle : . . . . . . . . . . . . . . . . . . . . . . 37
I.3 Résolution d’un système d’équations par la méthode du pivot de
Gauss : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
I.4 Définitions : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
I.5 Résolution graphique d’un PL: . . . . . . . . . . . . . . . . . . . 39
I.5 .a Exemples : . . . . . . . . . . . . . . . . . . . . . . . . . . 39
I.6 Cas général : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
II La méthode du simplexe 47
II.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
II.1 .a Etude d’un exemple : . . . . . . . . . . . . . . . . . . . . . 47
II.1 .b Disposition pratique des calculs : . . . . . . . . . . . . . . 48
II.2 L’algorithme du simplexe : . . . . . . . . . . . . . . . . . . . . . . 49
II.2 .a Passage d’un extrême à l’autre . . . . . . . . . . . . . . . 49
II.2 .b Choix de la variable entrante . . . . . . . . . . . . . . . . 50
II.3 L’algorithme du simplexe : . . . . . . . . . . . . . . . . . . . . . . 50
II.3 .a L’algorithme : . . . . . . . . . . . . . . . . . . . . . . . . . 51
II.3 .b Disposition pratique : . . . . . . . . . . . . . . . . . . . . . 51
II.3 .c Traitement d’un exemple : . . . . . . . . . . . . . . . . . . 52
II.4 Obtention d’une base réalisable de départ : . . . . . . . . . . . . . 53
II.4 .a Méthode en deux phases : . . . . . . . . . . . . . . . . . . 53
II.4 .b Exemple : . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
IIIDual 57
III.1 Introduction : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
III.2 Définitions et exemples : . . . . . . . . . . . . . . . . . . . . . . . 58
III.2 .a Primal et Dual : . . . . . . . . . . . . . . . . . . . . . . . 58
III.2 .bExemples : . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
III.3 Propriétés de la dualité : . . . . . . . . . . . . . . . . . . . . . . . 59
III.4 Passage du dernier tableau simplexe du primal au dernier tableau
simplexe du dual : . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
TABLE DES MATIÈRES v
IVAnalyse de sensibilité, PL paramétrique 63
IV.1 Paramétrisation de la fonction économique . . . . . . . . . . . . . 63
IV.2 Paramétrisation du second membre des contraintes . . . . . . . . 64
IV.3 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
C Processus Stochastiques et applications 69
I Présentation des processus stochastiques 71
I.1 Définition des processus stochastiques . . . . . . . . . . . . . . . 71
I.2 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 73
I.2 .a Présentation . . . . . . . . . . . . . . . . . . . . . . . . . 73
I.2 .b Modélisation . . . . . . . . . . . . . . . . . . . . . . . . . 73
I.3 Temps d’attente . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
I.4 Détermination expérimentale . . . . . . . . . . . . . . . . . . . . 74
I.4 .a Théorème . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
I.4 .b Application . . . . . . . . . . . . . . . . . . . . . . . . . . 74
I.5 Graphes associés à une loi de Poisson . . . . . . . . . . . . . . . . 75
I.6 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
II Processus de naissance et de mort 77
II.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
II.2 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
II.3 Modélisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
II.3 .a Processus de naissance pur . . . . . . . . . . . . . . . . . 79
II.3 .b Processus de mort pur . . . . . . . . . . . . . . . . . . . . 79
II.4 Probabilités à long terme . . . . . . . . . . . . . . . . . . . . . . 79
III Chaînes de Markov 83
III.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
III.2 Probabilités de transition . . . . . . . . . . . . . . . . . . . . . . 83
III.2 .a Transition d’ordre 1 . . . . . . . . . . . . . . . . . . . . . 83
III.2 .bTransitions d’ordre n . . . . . . . . . . . . . . . . . . . . . 84
III.2 .c Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
III.3 Classification des états d’une chaîne . . . . . . . . . . . . . . . . 85
III.4 Propriétés des chaînes de Markov . . . . . . . . . . . . . . . . . . 85
III.4 .a relation d’équivalence sur l’ensemble des états . . . . . . . 85
III.4 .bExemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
III.4 .c Théorème 1 . . . . . . . . . . . . . . . . . . . . . . . . . . 86
III.4 .dThéorème 2 . . . . . . . . . . . . . . . . . . . . . . . . . . 87
III.4 .e Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
IVFiles d’attente 89
IV.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
IV.2 Evaluation du système, mesures à long terme . . . . . . . . . . . 90
IV.2 .a Lois de Little . . . . . . . . . . . . . . . . . . . . . . . . . 90
IV.3 Files d’attente M/M/1 . . . . . . . . . . . . . . . . . . . . . . . . 91
IV.3 .a Probabilités associées . . . . . . . . . . . . . . . . . . . . 91
IV.3 .bExemple n◦1 . . . . . . . . . . . . . . . . . . . . . . . . . 92
IV.4 Files M/M/1 (N) . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
vi TABLE DES MATIÈRES
D Eléments de Fiabilité 95
I Présentation 97
I.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
I.2 Généralités, terminologie . . . . . . . . . . . . . . . . . . . . . . . 97
I.2 .a Fonctions de défaillance et de fiabilité . . . . . . . . . . . 97
I.3 Détermination expérimentale . . . . . . . . . . . . . . . . . . . . 98
I.3 .a Estimation des fonctions R et T . . . . . . . . . . . . . . 98
I.4 Principales lois utilisées . . . . . . . . . . . . . . . . . . . . . . . 100
I.4 .a La loi exponentielle . . . . . . . . . . . . . . . . . . . . . . 100
I.4 .b Loi de Weibull . . . . . . . . . . . . . . . . . . . . . . . . 100
II Fiabilité d’un système et de ses composants 101
II.1 Système à structure en série . . . . . . . . . . . . . . . . . . . . . 101
II.1 .a Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
II.2 Système à structure parallèle . . . . . . . . . . . . . . . . . . . . 102
II.2 .a Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
II.3 Systèmes à structure mixte . . . . . . . . . . . . . . . . . . . . . 102
II.3 .a Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
E Annexes 105
A Eléments de probabilités 107
A.1 Vocabulaire des probabilités . . . . . . . . . . . . . . . . . . . . . 107
A.2 Espaces probabilisés . . . . . . . . . . . . . . . . . . . . . . . . . 107
A.2 .a Définition des probabilités . . . . . . . . . . . . . . . . . . 108
A.2 .b Probabilités conditionnelles . . . . . . . . . . . . . . . . . 108
A.3 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . 109
A.3 .a Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 109
A.3 .b Variables aléatoires discrètes . . . . . . . . . . . . . . . . 109
A.3 .c Variables aléatoires continues . . . . . . . . . . . . . . . . 109
A.4 Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
A.4 .a Loi binômiale . . . . . . . . . . . . . . . . . . . . . . . . . 110
A.4 .b Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . 110
A.4 .c Loi géométrique . . . . . . . . . . . . . . . . . . . . . . . 110
A.4 .d Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . 110
A.4 .e Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . 111
A.4 .f Loi de Weibull . . . . . . . . . . . . . . . . . . . . . . . . 111
A.4 .g Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
B TABLES 113
B.1 Table de la loi de Poisson . . . . . . . . . . . . . . . . . . . . . . 113
B.2 TABLE DE LA LOI DE WEIBULL . . . . . . . . . . . . . . . . 114
C conclusion 115
TABLE DES FIGURES vii
Table des figures
I.1 Arc u =(x
i
, x
j
) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
I.2 Exemple de graphe orienté . . . . . . . . . . . . . . . . . . . . . . 3
I.3 Incidence sommets-arcs . . . . . . . . . . . . . . . . . . . . . . . 7
I.4 algorithme de Roy-Warshall . . . . . . . . . . . . . . . . . . . . . 8
I.5 Composantes fortement connexes . . . . . . . . . . . . . . . . . . 9
I.6 Mise en ordre d’un graphe . . . . . . . . . . . . . . . . . . . . . . 11
II.1 Algorithme de Ford . . . . . . . . . . . . . . . . . . . . . . . . . . 16
II.2 Algorithme de Dijkstra . . . . . . . . . . . . . . . . . . . . . . . . 17
II.3 Graphe sans circuit . . . . . . . . . . . . . . . . . . . . . . . . . . 18
II.4 Algorithme de Floyd . . . . . . . . . . . . . . . . . . . . . . . . . 19
III.1 Graphe MPM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
III.2 Graphe PERT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
I.1 Représentation graphique en 2D, solution unique . . . . . . . . . 44
I.2 Représentation graphique en 2D, infinité de solutions . . . . . . . 44
I.3 Problème non borné, pas de solution . . . . . . . . . . . . . . . . 45
I.4 Problème non borné, solution unique . . . . . . . . . . . . . . . . 45
IV.1 Intervalles de stabilité . . . . . . . . . . . . . . . . . . . . . . . . 66
I.1 Exemple de processus en temps discret . . . . . . . . . . . . . . . 72
I.2 Exemple de trajectoire : le CAC40 . . . . . . . . . . . . . . . . . 72
I.3 Graphe du processus de Poisson . . . . . . . . . . . . . . . . . . . 75
II.1 Graphe du processus de Naissance et de mort . . . . . . . . . . . 80
I.1 Allure de la courbe du taux d’avarie . . . . . . . . . . . . . . . . 99
A.1 Quelques densités de la loi de Weibull (η = 1, γ = 0, β =
0.3, 0.6, 1, 1.5, 2, 3.) . . . . . . . . . . . . . . . . . . . . . . . . . 112
viii TABLE DES FIGURES
ix
Introduction
Ce précis est le contenu du cours dispensé au CNAM de Toulouse dans la
demi-valeur intitulée TL 18967. Les domaines abordés sont très variés et pré-
sentés de manière élémentaire pour que les étudiants sachent avant tout de quoi
l’on parle et par la suite utiliser de manière adéquate les outils informatiques
dont ils peuvent disposer.
Quelques pré-requis en mathématiques sont nécessaires à la compréhension
du cours et quelques rappels sont présentés en annexe :
– Connaissance des fonctions usuelles.
– Notions de calcul intégral et sur les séries.
– Notions d’algèbre linéaire et de calcul matriciel.
– Bases du calcul de probabilités et de statistiques.
x
1
Première partie
Eléments de la théorie des
graphes et applications
3
Chapitre I
Eléments de la théorie des
graphes
On considère un ensemble fini E = ¦x
1
, ,x
n
¦ où n est un entier naturel
et une relation binaire sur E, assimilée à une partie U de E E c’est à dire un
ensemble de couples (x
i
, x
j
) où i, j ∈ ¦1, ,n¦. On se bornera à l’étude de ce
que la théorie générale appelle des 1-graphes.
I.1 Le concept de graphe
I.1 .a Graphes orientés
La donnée du couple (E, U) définit un graphe orienté, les éléments de E
sont appelés des sommets , et ceux de U des arcs et sont représentés par
des flêches. Dans un arc (x
i
, x
j
), x
i
est appelé extrémité initiale , et x
j
,
extrémité finale. Un arc (x
i
, x
i
) est appelé une boucle.
x
i
u

x
j
Fig. I.1 – Arc u =(x
i
, x
j
)
Exemple :
E = ¦A, B, C, D, E, F¦,
G = ¦(A, B), (A, D), (B, C), (C, B), (C, E), (D, C), (D, D), (D, E)¦
?>=< 89:;
A
u1

u2

?>=< 89:;
B
u3

?>=< 89:;
C
u4

u5
.
?>=< 89:;
D
u7

u8

u6

?>=< 89:;
E
?>=< 89:;
F
Fig. I.2 – Exemple de graphe orienté
4 CHAPITRE I. ELÉMENTS DE LA THÉORIE DES GRAPHES
Au lieu de formuler explicitement G, on utilise souvent l’application Γ : E →
{(E), qui associe à chaque sommet l’ensemble des extrémités finales des arcs
partant de ce sommet. C’est ainsi que dans l’exemple précédent, Γ est définie
par :
Γ(A) = ¦B, D¦, Γ(B) = ¦C¦, Γ(C) = ¦B, E¦, Γ(D) = ¦C, D, E¦,
Γ(E) = Γ(F) = ∅.
Un graphe est donc entièrement déterminé par la donnée de E et Γ, on notera
désormais un graphe G = (E, Γ) ou G = (E, U) suivant qu’il est défini par la
donnée de ses arcs ou de l’application Γ.
Dans la suite on utilisera aussi l’application, notée Γ
−1
(attention, il ne s’agit
pas de l’application réciproque de Γ!) qui à chaque sommet du graphe associe
l’ensemble des extrémités initiales des arcs aboutissant à ce sommet.
Toujours dans l’exemple précédent, on a :
Γ
−1
(A) = ∅, Γ
−1
(B) = ¦A, C¦, Γ
−1
(C) = ¦B, D¦,
Γ
−1
(D) = ¦A, D¦, Γ
−1
(E) = ¦C, D¦, Γ
−1
(F) = ∅.
I.1 .b Graphes non orientés
Dans certaines applications, seule la liaison entre de sommets importe, et
non le sens de la liaison. On parlera alors d’arêtes,notés [x
i
, x
j
] et non plus
d’arcs. Un tel graphe est dit non orienté.
I.2 Principales définitions
Soit G = (E, U) ou (E, Γ) un graphe, on a les définitions suivantes :
Graphe réflexif : ∀x
i
∈ E, (x
i
, x
i
) ∈ U.
Graphe symétrique : ∀x
i
, x
j
∈ E, (x
i
, x
j
) ∈ U => (x
j
, x
i
) ∈ U.
Graphe transitif : ∀x
i
, x
j
, x
k
∈ E, (x
i
, x
j
) ∈ U, (x
j
, x
k
) ∈ U => (x
i
, x
k
) ∈
U.
Graphe partiel : Soit U

⊂ U, G

= (E, U

) est un sous-graphe. L’application
Γ

associée est une restriction de Γ, i.e. ∀x ∈ E, Γ

(x) ⊂ Γ(x).
Sous-graphe : Soit E

⊂ E et U

⊂ U l’ensemble des arcs obtenu en ne
conservant dans U que les arcs dont les extrémités sont dans E

, G

=
(E

, U

) est un sous-graphe de G.
Exemple :
G est le réseau routier français, E est constitué des différentes localités
et U est l’ensemble des routes et autoroutes (entre deux villes v1 et v2,
s’il existe au moins une route directe entre les deux, on aura les arcs
(v1, v2) et (v2, v1) (le graphe est symétrique). Si on restreint le réseau
aux autoroutes, on obtient un graphe partiel, si on restreint le réseau à la
région Midi-Pyrénées, on obtient un sous-graphe, tandis que les autoroutes
de Midi-Pyrénées constituent un sous-graphe partiel.
Adjacence : Deux sommets sont dits adjacents s’ils sont reliés par un arc ou
une arête. Deux arcs sont adjacents s’ils ont une extrémité commune.
Chemins et chaînes : Un chemin est constitué d’une séquence d’arcs adja-
cents dont l’extrémité finale de l’un est l’extrémité initiale du suivant, sauf
I.3. MATRICES ASSOCIÉES À UN GRAPHE 5
pour le dernier. Dans le cas d’un graphe non orienté, on parlera de chaîne.
Un chemin est :
– simple s’il ne passe pas deux fois par le même arc.
– élémentaire s’il ne passe pas deux fois par le même sommet.
– un circuit si l’extrémité finale coïncide avec l’extrémité initiale. Dans
le cas d’une chaîne on parlera de cycle.
– hamiltonien s’il passe une fois et une seule par chacun de ses som-
mets. Si c’est de plus un circuit c’est un circuit hamiltonien.
Degrés :
– Le demi-degré extérieur du sommet x
i
est le nombre d’arcs du
graphe issus de x
i
, on le note d
+
(x
i
), on a d
+
(x
i
) = [Γ(x
i
)[. Dans le
cas où d
+
(x
i
) = 0, on dit que x
i
est une sortie du graphe.
– Le demi-degré intérieur du sommet x
i
est le nombre d’arcs du
graphe aboutissant à x
i
, on le note d

(x
i
), on a d

(x
i
) =

Γ
−1
(x
i
)

.
Dans le cas où d

(x
i
) = 0, on dit que x
i
est une entrée du graphe.
– Le degré du sommet x
i
est d(x
i
) = d
+
(x
i
) + d

(x
i
). Dans le cas
d’une boucle, on augmente de 2 le degré.
Exemple : [cf fig. I.2]
d

(D) = 2, d
+
(D) = 3, d(D) = 5.
I.3 Matrices associées à un graphe
Soit G = (E, U) un graphe.
I.3 .a Matrices d’adjacence
Au graphe G, on fait correspondre une matrice d’adjacence (considérée
comme booléenne ou entière, suivant l’utilisation), de la manière suivante :
Les lignes et les colonnes sont indexées par les sommets du graphe (en général
numérotés de 1 à n), l’élément de la ligne i et de la colonne j vaut 1 si l’arc
(i, j) ∈ U, 0 sinon.
Exemple : [cf fig. I.2]
M =

¸
¸
¸
¸
¸
¸
¸
0 1 0 1 0 0
0 0 1 0 0 0
0 1 0 0 1 0
0 0 1 1 1 0
0 0 0 0 0 0
0 0 0 0 0 0
¸

Concaténation de chemins
Soient (A
1
, , A
m
) et (B
1
, , B
n
) deux chemins du graphe G donnés
par la liste de leurs sommets successifs. Si A
m
= B
1
(et seulement à cette
condition) on peut définir la concaténation des deux chemins de la manière
6 CHAPITRE I. ELÉMENTS DE LA THÉORIE DES GRAPHES
suivante : (A
1
, , A
m
).(B
1
, , B
n
) = (A
1
, , A
m
, B
2
, B
n
). On peut
également définir la somme de deux chemins qui correspond à la réunion (au
sens ensembliste) des deux chemins. Ces deux opérations permettent de donner
une interprétation pour les produits et sommes de matrices d’adjacence. M
k
donnera le nombre de chemins de longueur k partant d’un sommet i à un som-
met j (M
[k]
indiquera l’existence d’un tel chemin en mode booléen).
Exemple : [cf fig. I.2]
M
5
=

¸
¸
¸
¸
¸
¸
¸
0 3 2 1 4 0
0 0 1 0 0 0
0 1 0 0 1 0
0 2 3 1 3 0
0 0 0 0 0 0
0 0 0 0 0 0
¸

Il y a, par exemple, 4 chemins de longueur 5 de A vers E, 3 de D vers C. Si l’on
considère les matrices booléennes, on trouve :
M
[2]
=

¸
¸
¸
¸
¸
¸
¸
0 0 1 1 1 0
0 1 0 0 1 0
0 0 1 0 0 0
0 1 1 1 1 0
0 0 0 0 0 0
0 0 0 0 0 0
¸

et
M
[4]
=

¸
¸
¸
¸
¸
¸
¸
0 1 1 1 1 0
0 0 1 0 1 0
0 0 1 0 1 0
0 1 1 1 1 0
0 0 0 0 0 0
0 0 0 0 0 0
¸

Il existe au moins un chemin de longueur 2 de D vers E, et au moins un de
longueur 4 de D vers B.
I.3 .b Matrices d’incidence sommets-arcs
Les lignes sont indexées par les sommets du graphe tandis que les colonnes
sont indexées par la liste ordonnée (u
1
, , u
m
) des arcs. Si x
i
est l’origine de
l’arc u
k
, on a a
ik
= 1, si x
j
est l’extrémité du même arc, a
jk
= −1, pour les
autres cas on obtient 0, où a
ik
est l’élément générique de la matrice d’incidence.
On remarque que la somme de chaque colonne est égale à 0, par ailleurs cette
représentation n’est valable que pour les graphes sans boucle.
Exemple : Pour le graphe de la figure [I.3], on obtient :
M =

¸
¸
¸
1 1 0 0 0 0
−1 0 1 −1 0 −1
0 −1 0 1 1 0
0 0 −1 0 −1 1
¸

I.4. FERMETURE TRANSITIVE D’UN GRAPHE 7
?>=< 89:;
A
u1

u2

?>=< 89:;
B
u3
·
?>=< 89:;
C
u5

u4

?>=< 89:;
D
u6

Fig. I.3 – Incidence sommets-arcs
I.4 Fermeture transitive d’un graphe
I.4 .a Définition
Soit G = (E, Γ) un graphe et x un des ses sommets. On appelle fermeture
transitive de x, l’ensemble :
ˆ
Γ(x) = ¦x¦ ∪ Γ(x) ∪ ∪ Γ
k
(x) ∪ ,
où, pour k ≥ 1, Γ
k
(x) = Γ(Γ
(k−1)
)(x) est l’ensemble des sommets extrémités
d’un chemin de longueur k issu de x, avec Γ
0
(x) = ¦x¦, par convention. Plus
généralement, la fermeture transitive du graphe G est le plus petit graphe tran-
sitif et réflexif contenant G. On le notera τ(G). Il est caractérisé par le fait que
(x, y) ∈ U si et seulement s’il existe un chemin allant de x vers y dans G ou si
x = y.
I.4 .b Matrice de fermeture transitive
On l’obtient en faisant la somme de toutes les matrices booléennes M
[k]
et
de la matrice identique. On la notera
ˆ
Γ(E).
ˆ
Γ(E) = I +M + M
[k]
+
Cette somme est finie car dans un graphe de n sommets il ne peut y avoir de
chemins de plus de n − 1 arcs sans répétition d’arc, on a donc,
ˆ
Γ(E) = (I +
M)
[n−1]
. Dans la pratique, on arrête le calcul dès que (I +M)
[k]
= (I +M)
[k+1]
.
Exemple : Dans le graphe de la figure [I.2], on obtient,
ˆ
Γ(E) =

¸
¸
¸
¸
¸
¸
¸
1 1 1 1 1 0
0 1 1 0 1 0
0 1 1 0 1 0
0 1 1 1 1 0
0 0 0 0 1 0
0 0 0 0 0 1
¸

= (I +M)
[2]
I.4 .c Algorithme de Roy-Warshall
Soit G = (E, U) un graphe de n sommets numérotés de 1 à n, M = (m
ij
)
la matrice booléenne associée à G, avec m
ii
= 1 pour la réflexivité. Pour r ∈
¦1, ,n¦, on considère l’opérateur θ
r
qui à G associe le graphe θ
r
(G) défini de
la manière suivante :
– G est un graphe partiel de θ
r
(G)
8 CHAPITRE I. ELÉMENTS DE LA THÉORIE DES GRAPHES
– (i, j) est un arc de θ
r
(G) soit s’il est dans G, soit si les arcs (i, r) et (r, j)
sont dans G.
L’algorithme de Roy-Warshall consiste à appliquer successivement à G l’opéra-
teur θ
1
, à θ
1
(G) l’opérateur θ
2
, et ainsi de suite. On obtient
τ(G) = θ
n

n−1
( (θ
1
(G)) )).
?>=< 89:;
1

?>=< 89:;
2

?>=< 89:;
3

?>=< 89:;
4

?>=< 89:;
5
?>=< 89:;
6

Fig. I.4 – algorithme de Roy-Warshall
Exemple : Pour le graphe de la figure [I.4], on obtient successivement,
M+ I =

¸
¸
¸
¸
¸
¸
¸
1 1 0 1 1 0
0 1 1 0 0 0
0 1 1 1 0 0
0 0 0 1 1 0
0 0 0 1 1 1
0 0 0 1 0 1
¸

θ1

¸
¸
¸
¸
¸
¸
¸
1 1 0 1 1 0
0 1 1 0 0 0
0 1 1 1 0 0
0 0 0 1 1 0
0 0 0 1 1 1
0 0 0 1 0 1
¸

θ2

¸
¸
¸
¸
¸
¸
¸
1 1 1 1 1 0
0 1 1 0 0 0
0 1 1 1 0 0
0 0 0 1 1 0
0 0 0 1 1 1
0 0 0 1 0 1
¸

θ3

¸
¸
¸
¸
¸
¸
¸
1 1 1 1 1 0
0 1 1 1 0 0
0 1 1 1 0 0
0 0 0 1 1 0
0 0 0 1 1 1
0 0 0 1 0 1
¸

θ4

¸
¸
¸
¸
¸
¸
¸
1 1 1 1 1 0
0 1 1 1 0 0
0 1 1 1 1 0
0 0 0 1 1 0
0 0 0 1 1 1
0 0 0 1 1 1
¸

θ5

¸
¸
¸
¸
¸
¸
¸
1 1 1 1 1 1
0 1 1 1 0 0
0 1 1 1 1 0
0 0 0 1 1 0
0 0 0 1 1 1
0 0 0 1 1 1
¸

θ6

¸
¸
¸
¸
¸
¸
¸
1 1 1 1 1 1
0 1 1 1 0 0
0 1 1 1 1 0
0 0 0 1 1 0
0 0 0 1 1 1
0 0 0 1 1 1
¸

=
ˆ
Γ(E)
I.5 Graphes et connexité
Soit G = (E, Γ) un graphe orienté, on introduit sur E une relation binaire
notée _, on a x _ y si et seulement si y ∈
ˆ
Γ(x) i.e. si x = y ou s’il existe un
chemin de x vers y. On dira dans ce cas que x précède y. La relation _ est
réflexive et transitive. On définit également une relation d’équivalence sur E à
partir de la relation _, notée ·: x · y ⇔ (x _ y et y _ x). Sur les graphes non
orientés, on définit la relation d’équivalence ≡ définie par x ≡ y si et seulement
si x et y sont reliés par une chaîne.
I.5. GRAPHES ET CONNEXITÉ 9
I.5 .a Composantes connexes
Les classes d’équivalence du graphe G pour la relation ≡ sont appelées com-
posantes connexes . Un graphe est dit connexe s’il existe une seule composante
connexe i.e. ∀i, j ∈ E il existe une chaîne entre x et y.
I.5 .b Composantes fortement connexes
Les classes d’équivalence pour la relation _ sont appelées composantes
fortement connexes(cfc) . Un graphe est dit fortement connexe s’il existe
une seule composante fortement connexe i.e. : ∀i, j ∈ E il existe un chemin
entre x et y (donc un circuit contenant x et y). Une condition nécessaire et
suffisante (CNS) est que
ˆ
Γ(E) ne comporte que des 1. De la même manière que
l’on a défini
ˆ
Γ(x) pour x ∈ E, on définit
ˆ
Γ
−1
(x) :
ˆ
Γ
−1
(x) = ¦x¦ ∪ Γ
−1
(x) ∪ ∪ Γ
−k
(x) ∪
La composante fortement connexe (cfc) d’un sommet x est égale à
ˆ
Γ(x)∩
ˆ
Γ
−1
(x).
Cette remarque permet d’obtenir un algorithme pour déterminer les cfc dans
un graphe :
Tant que il reste des sommets marqués Faire
Début
Prendre un sommet non marqué x ;
Calculer
ˆ
Γ(x) ∩
ˆ
Γ
−1
(x) ;
Marquer les sommets obtenus ;
Passer au sommet non marqué suivant ;
Fin.
Exemple :
?>=< 89:;
B

?>=< 89:;
F

?>=< 89:;
E

?>=< 89:;
D
?>=< 89:;
A

?>=< 89:;
H
?>=< 89:;
C
?>=< 89:;
G

Fig. I.5 – Composantes fortement connexes
Dans le graphe de la figure [I.5], on obtient :
10 CHAPITRE I. ELÉMENTS DE LA THÉORIE DES GRAPHES
A B C D E F G H
ˆ
Γ
−1
(A)
ˆ
Γ
−1
(C)
A 0 1 0 0 0 0 0 1 0 2
B 0 0 0 1 0 0 0 0 2 4
C 0 0 0 0 0 0 1 0 0
D 1 0 0 0 0 0 0 0 1 3
E 0 0 0 0 0 1 0 0 2
F 0 0 1 0 0 0 0 0 1
G 0 0 0 0 1 0 0 0 3
H 0 0 1 0 0 0 0 0 1
ˆ
Γ(A) 0 1 2 2 4 5 3 1
ˆ
Γ(C) 0 2 3 1
D’où,
cfc(A) = {A, B, D} = cfc(B) = cfc(D),
cfc(C) = {C, E, F, G} = cfc(E) = cfc(F) = cfc(G),
cfc(H) = {H}.
I.6 Mise en ordre d’un graphe
On considère un graphe G ne possédant que des chemins de longueur finie,
cela implique en particulier que le graphe ne possède pas de circuit. La mise en
ordre s’effectuera sur chacune des composantes connexes, on peut donc suppo-
ser le graphe connexe. La classe C
0
est constituée des entrées de G = G
0
, on
considère alors G
1
sous-graphe de G obtenu en enlevant les éléments de C
0
, les
entrées de G
1
constituent la classe C
1
, on itère le processus jusqu’à épuisement
des sommets.
Début
Pour i = 1 à n Faire d

i

Γ
−1
(i)

;
k ← 0 ; C[0] ← ∅ ;
Pour i = 1 à n Faire
Si d

i
= 0 Alors C[0] ← C[0] ∪ {i} ;
{C[k] est l’ensemble des sommets i tels que d

i
= 0 à la k
eme
itération.}
Tant que C[k] = ∅ Faire
Début
C[k + 1] = ∅ ;
Pour tout i ∈ C[k] Faire
Début ;
r[i] ← k ; {calcul du rang du sommet i}
Pour tout j ∈ Γ(i) Faire
Début
d

j
← d

j
−1 ;
Si d

j
= 0 Alors C[k + 1] ← C[k + 1] ∪ {j} ;
Fin;
Fin;
k ← k + 1 ;
Fin;
Fin.
I.6. MISE EN ORDRE D’UN GRAPHE 11
Exemple :
?>=< 89:;
2

?>=< 89:;
4
?>=< 89:;
7
?>=< 89:;
1

?>=< 89:;
3

?>=< 89:;
6

?>=< 89:;
5

Fig. I.6 – Mise en ordre d’un graphe
Dans l’exemple de la figure [I.6], on obtient,
C[0] = ¦1¦, C[1] = ¦3¦, C[2] = ¦2¦, C[3] = ¦6¦, C[4] = ¦4, 5¦,C[5] = ¦7¦ et
r(1) = 0, r(2) = 2, r(3) = 1, r(4) = r(5) = 4, r(6) = 3, r(7) = 5.
12
Exercices du chapitre I
Exercice I.1
On considère un graphe G = (E, U) avec E = (A, B, C, D, E) et M sa matrice
associée :
M =

¸
¸
¸
¸
¸
0 1 0 1 0
0 0 1 0 0
0 0 0 0 1
0 0 1 0 1
0 0 0 0 0
¸

1. Tracer le graphe représentatif de cette matrice.
2. Déterminer la matrice d’incidence de ce graphe.
3. Calculer M
i
, i ∈ ¦1, 2, 3¦. Rappeler la signification des coefficients non
nuls de ces matrices.
4. Calculer M
[i]
, i ∈ ¦1, 2, 3¦.
5. Calculer A = I +M +M
[2]
+M
[3]
+M
[4]
. Donner une interprétation de
A.
6. Appliquer l’agorithme de Roy-Warshall à la matrice M. Que remarque-t-
on?
Exercice I.2
On considère le graphe G suivant :
?>=< 89:;
A

?>=< 89:;
F

?>=< 89:;
B

.
·

?>=< 89:;
E

?>=< 89:;
C
.
?>=< 89:;
D

1. Déterminer Γ(A), . . . , Γ(F) ainsi
que Γ
−1
(A), . . . , Γ
−1
(F).
2. Calculer les demi-degrés inté-
rieurs et extérieurs de chaque
sommet.
3. Donner un exemple de chemin
simple mais non élémentaire.
4. Existe-t-il un circuit hamiltonien
dans G?
5. Tracer le graphe non orienté dé-
duit de G.
6. G est-il connexe ? fortement
connexe?
Exercice I.3
Décomposer le graphe G suivant en composantes fortement connexes. On rem-
place chaque cfc par un seul point et on garde un seul arc joignant une cfc à
13
une autre, ordonner puis tracer le graphe G

ainsi obtenu.
?>=< 89:;
B
·

?>=< 89:;
E
?>=< 89:;
J

?>=< 89:;
A

?>=< 89:;
C

?>=< 89:;
F

·
GFED @ABC
K
?>=< 89:;
L

?>=< 89:;
D

?>=< 89:;
G

?>=< 89:;
I
Exercice I.4
Définitions :
– un graphe G = (E, U) est dit τ-minimal si, ∀u ∈ U, si G

= (E,U`¦u¦)
alors τ(G

) = τ(G) où τ(X) représente la fermeture transitive de X.
– Deux graphes G et G

sont dits τ-équivalents si τ(G) = τ(G

).
Soit G le graphe ci-dessous :
?>=< 89:;
B
?>=< 89:;
C

?>=< 89:;
D
?>=< 89:;
A

?>=< 89:;
E

1. Déterminer la fermeture τ(G) de G.
2. Déterminer le graphe G

τ-minimal τ-équivalent à G.
Exercice I.5
Deux joueurs disposent de deux tas de trois allumettes, à tour de rôle chaque
joueur peut enlever une ou deux allumettes dans un des tas. Le joueur qui retire
la dernière allumette perd la partie.
1. Modéliser le jeu à l’aide d’un graphe.
2. Que doit jouer le premier joueur pour gagner à coup sûr?
3. Reprendre l’exercice avec trois tas de trois allumettes.
14
15
Chapitre II
Chemins optimaux
Dans les graphes utilisés dans la pratique, les arcs sont affectés de valeur
numériques qui traduisent un coût de parcours. Il peut s’agir d’une distance
(réseau routier), d’un coût financier, d’une durée, d’un débit, etc...
Les graphes considérés désormais possèdent une entrée et une sortie uniques,
qui correspondent respectivement au début et à la fin du processus décrit par le
graphe. Le problème se pose alors de déterminer le chemin optimum pour aller
de l’entrée du graphe vers sa sortie, les coûts de parcours reflétant les différentes
contraintes du problème à traiter. L’optimisation peut se faire dans le sens d’un
coût maximum (par exemple recherche des délais maximum dans un ensemble
de tâches) ou d’un coût minimum (par exemple le plus court trajet entre deux
localités). Il peut y avoir d’autre contraintes du type «passer par tous les som-
mets du graphe» (chemin hamiltonien), etc...
II.1 L’algorithme de Ford
On considère un graphe G = (E, U) à n sommets, numérotés de 1 à n. Pour
simplifier, on supposera que le sommet 1 est l’entrée du graphe et le sommet n
sa sortie. On va chercher un chemin de longueur minimum de 1 à n, on suppose
pour ce faire que le graphe G ne comporte pas de circuit de longueur négative.
L’algorithme de Ford permet de calculer le plus court chemin du sommet 1 à
tous les sommets du graphe. Chaque sommet i du graphe est affecté d’une valeur
λ
i
qui initialement vaut 0 pour le sommet 1 et +∞ pour les autres sommets.
A la sortie, λ
i
contiendra la valeur du plus court chemin de 1 à i. On utilisera
un tableau v : v
ij
est égal à la longueur de l’arc (i, j) si (i, j) ∈ U, +∞ sinon.
La stratégie utilisée est la suivant : pour tout couple (i, j) de sommets traité,
si v
ij
< λ
j
−λ
i
, on remplace λ
j
par λ
i
+v
ij
. Les remplacements sont effectués
jusqu’à ce qu’on ne puisse en faire de nouveaux.
16 CHAPITRE II. CHEMINS OPTIMAUX
Début
Pour i = 1 à n Faire
Pour j = 1 à n Faire Lire(vij) ; {vij = +∞ si (i, j) / ∈ U}
λ1 ← 0 ;
Pour i = 2 à n Faire λi ← +∞;
i ← 1 ;
Tant que i ≤ n Faire
Début
j ← 2 ;
Tant que j ≤ n Faire
Début
Si vij < +∞
Alors
Si λj −λi > vij
Alors
Début
λj ← λi + vij ;
Si i > j Alors i ← j Sinon j ← j + 1 ;
Fin
Sinon j ← j + 1
Sinon j ← j + 1
Fin;
i ← i + 1 ;
Fin;
Fin.
Pour trouver un chemin optimal, appelé chemin critique on choisit un
prédécesseur de n, soit p
1
, tel que v
p1n
= λ
n
− λ
p1
, puis un prédécesseur p
2
de
p
1
tel que v
p2p1
= λ
p1
−λ
p2
, et ainsi de suite jusqu’à parvenir au sommet initial.
Le chemin (1,p
k
, , p
1
, ,n) est bien minimal (longueur = λ
n
).
Exemple :
?>=< 89:;
2
8

2
?>=< 89:;
5
8

2

?>=< 89:;
1
4

9

12

?>=< 89:;
6
?>=< 89:;
3
2
?>=< 89:;
4
5

Fig. II.1 – Algorithme de Ford
Dans le graphe de la figure [II.1], on trouve,
λ
1
= 0, λ
2
= 4, λ
3
= 8, λ
4
= 10, λ
5
= 6, λ
6
= 14.
Le chemin le plus court de l’entrée à la sortie du graphe a pour longueur 14, le
chemin critique est (1, 2, 5, 6).
II.2. ALGORITHME DE DIJKSTRA 17
L’algorithme de Ford est un algorithme général, il y a cependant des cas
particuliers où l’on peut simplifier la recherche de chemin optimum.
II.2 Algorithme de Dijkstra
Cet algorithme s’applique pour des arcs qui ont tous des longueurs positives
ou nulles.
Début
S

← {2, · · · , n} ;
λ1 ← 0 ;
Pour i = 1 à n Faire
Pour j = 1 à n Faire Lire(vij) ; {vij = +∞ si (i, j) / ∈ U}
Pour i = 2 à n Faire λi ← v1i ;
Tant que S

= ∅ Faire
Début
Soit j ∈ S

tel que λj = min
i∈S

(λi) ;
S

← S

\{j} ;
Pour tout i ∈ Γ(j) ∩ S

Faire λi ← min(λi, λj + vji) ;
Si λj = λi + vji Alors Pred(i) ← j ;
Fin;
Fin.
Exemple :
?>=< 89:;
2
1

4
?>=< 89:;
4
?>=< 89:;
1
7

1

?>=< 89:;
5
5

2

?>=< 89:;
3
5

7

2

?>=< 89:;
6
3

Fig. II.2 – Algorithme de Dijkstra
Dans le graphe de la figure [II.2], on trouve,
λ
1
= 0, λ
2
= 5, λ
3
= 1, λ
4
= 8, λ
5
= 3, λ
6
= 6.
Pred(2) = 5, Pred(3) = 1, Pred(4) = 5, Pred(5) = 3, Pred(6) = 2.
II.3 Graphes sans circuit
Si un graphe ne possède pas de circuit, on peut l’ordonner en utilisant par
exemple l’algorithme [I.6], l’algorithme de recherche de chemin optimum est
alors très simplifié :
18 CHAPITRE II. CHEMINS OPTIMAUX
Début
S ← {1} ; Tant que |S| < n Faire
Début
Prendre un sommet j ∈ S

(complémentaire de S) tel que Γ
−1
(j) ⊂ S ;
λj ← min
i∈Γ
−1
(j)
(λi + vij) ;
S ← S ∪ {j} ;
Fin;
Fin.
Exemple :
?>=< 89:;
2
−3

4

2

?>=< 89:;
4
4
?>=< 89:;
7
?>=< 89:;
1
7

1

?>=< 89:;
3
5

7

2

?>=< 89:;
6
5

3
?>=< 89:;
5
10

Fig. II.3 – Graphe sans circuit
Dans le graphe de la figure [II.3], on obtient, après l’avoir ordonné (cf [I.6]) :
– λ
1
= 0
– λ
3
= λ
1
+v
13
= 1
– λ
2
= min(λ
1
+v
12
, λ
3
+v
32
) = 6
– λ
6
= min(λ
2
+v
26
, λ
3
+v
36
) = 3
– λ
4
= min(λ
2
+v
24
, λ
6
+v
64
) = 8
– λ
5
= min(λ
2
+v
25
, λ
3
+v
35
, λ
6
+v
65
) = 3
– λ
7
= min(λ
4
+v
47
, λ
5
+v
57
) = 12
II.4 Algorithmes matriciels
On considère un graphe G = (E, U) sans circuit de longueur négative. On
considère les matrices L
(k)
= (l
(k)
ij
) pour k ≥ 1 en posant L
(0)
= (v
ij
) et où
l
(k)
ij
= min(l
(k−1)
ij
, l
(k−1)
ik
+l
(k−1)
kj
) est la longueur du plus court chemin entre i et
j dont les sommets intermédiaires sont dans ¦1, , k¦. L
(n)
= L est la matrice
des plus courts chemins entre deux sommets.
II.4. ALGORITHMES MATRICIELS 19
II.4 .a Algorithme de Floyd
Début
Pour i = 1 à n Faire
Pour j = 1 à n Faire Lire(lij) ; {lij = vij, (+∞ si (i, j) / ∈ U)}
Pour k = 1 à n Faire
Pour i = 1 à n Faire
Si (l
ik
+ l
ki
) ≥ 0
Alors Pour j = 1 à n Faire lij ← min(lij, l
ik
+ l
kj
)
Sinon Fin; {circuit de longueur négative.}
Fin.
?>=< 89:;
1
3

3

?>=< 89:;
2 2
2
·
2
.

?>=< 89:;
3
−2

1

?>=< 89:;
4
4

4

Fig. II.4 – Algorithme de Floyd
Exemple : Dans le graphe de la figure [II.4], on obtient successivement,
L
(0)
=

¸
¸
¸
0 3 +∞ 3
2 0 2 2
−2 +∞ 0 1
+∞ 4 4 0
¸

, L
(1)
=

¸
¸
¸
0 3 +∞ 3
2 0 2 2
−2 1 0 1
+∞ 4 4 0
¸

,
L
(2)
=

¸
¸
¸
0 3 5 3
2 0 2 2
−2 1 0 1
6 4 4 0
¸

, L
(3)
=

¸
¸
¸
0 3 5 3
0 0 2 2
−2 1 0 1
2 4 4 0
¸

,
L = L
(4)
=

¸
¸
¸
0 3 5 3
0 0 2 2
−2 1 0 1
2 4 4 0
¸

.
20
Exercices du chapitre II
Exercice II.1
A la date 1, une personne achète une voiture de 15 000 ¤. Le coût de mainte-
nance annuelle du véhicule dépend de son âge pris au début de l’année :
âge de la voiture coût de maintenance
0 1 000 ¤
1 1 500 ¤
2 2 300 ¤
3 3 500 ¤
4 5 300 ¤
Pour minimiser les coûts de maintenance, cette personne envisage d’échanger sa
voiture contre une neuve. Elle doit alors payer la différence entre le prix d’une
voiture neuve (supposé de 15 000 ¤) et le coût de reprise de l’ancienne, donné
dans le tableau suivant :
âge de la voiture prix de reprise
1 12 000 ¤
2 7 500 ¤
3 6 000 ¤
4 3 500 ¤
5 2 000 ¤
Que doit faire la personne pour minimiser ses dépenses sachant qu’elle doit
vendre sa voiture à la fin de la 5
ème
année?
Exercice II.2
Exécuter l’algorithme de Dijkstra sur le graphe ci-dessous en choisissant C puis
F comme sommets sources.
?>=< 89:;
B
1

?>=< 89:;
A
7

?>=< 89:;
F
8

6

?>=< 89:;
G
5

?>=< 89:;
C
13

4

?>=< 89:;
E
10

1

?>=< 89:;
D
2

21
Exercice II.3
Exécuter l’algorithme de Floyd pour déterminer les chemins de valeur maximale
entre tout couple de sommets dans le graphe suivant :
?>=< 89:;
C
3

4

?>=< 89:;
A
4

8

?>=< 89:;
B
2

2

?>=< 89:;
D
−6

1
?>=< 89:;
E
Peut-on appliquer l’algorithme pour la recherche de chemin de valeur minimale?
22
23
Chapitre III
Ordonnancement
III.1 Position du problème
On appelle problème d’ordonnancement un problème dans lequel les trois
conditions suivantes sont réalisées :
Il s’agit d’étudier comment on doit réaliser quelque chose.
Il peut s’agir d’un grand ensemble (maison, usine, navire, ), d’une production
d’atelier (construction mécanique, imprimerie, . . .), d’un ensemble d’opérations
d’entretien à effectuer périodiquement pour maintenir un matériel en état de
fonctionnement, ou encore d’un emploi du temps . . .
Ce quelque chose est décomposable en tâches.
Ces tâches correspondent soit à des opérations élémentaires, soit à des groupe-
ments d’opérations selon que l’on veut aller plus ou moins loin dans le détail.
La décomposition n’est en général pas unique et demande une analyse minu-
tieuse. La définition de chaque tâche peut nécessiter de grandes connaissances
technologiques ainsi qu’une expérience des modèles d’ordonnancement dont elle
constitue l’élément de base.
Si l’on considère n tâches numérotées de 1 à n, (n pouvant varier de quelques di-
zaines à quelques milliers), il est indispensable que pour chaque tâche les notions
suivantes soient clairement définies :
1. époque de début, notée t
i
pour la tâche i.
2. durée d’exécution, notée d
i
pour la tâche i.
Si l’on suppose que cette durée est convenablement évaluée (en fait on sera sou-
vent amené à considérer une valeur moyenne avec son écart type), et qu’aucune
interruption prévisible ne doive intervenir durant l’exécution de la tâche i, on
peut considérer que celle-ci sera achevée à l’époque f
i
= t
i
+ d
i
. Souvent pour
déterminer cette époque on s’intéressera aux moyens qu’il faut affecter pour son
exécution (moyens humains et matériels). Mais même quand ces moyens jouent
un rôle important c’est toujours par l’intermédiaire de ces deux nombres qu’ils
se manifesteront dans les calculs.
Cette réalisation est soumise à un ensemble de contraintes.
24 CHAPITRE III. ORDONNANCEMENT
Ces contraintes sont imposées par :
– Le matériel.
– La main d’oeuvre.
– La technologie : une tâche ne peut souvent débuter que lorsque certaines
autres sont achevées.
– Le commerce : certaines tâches doivent être terminées avant un délai fixé.
– Les fournisseurs : la livraison de matières premières risque de limiter infé-
rieurement l’époque de début de certaines tâches,
– Le climat : il est des tâches irréalisables à certaines époques de l’année.
Le choix de l’ordonnancement est généralement guidé par des critères tels
que :
– coût ou durée totale minimaux.
– immobilisation, attentes, pénalités minimales.
– Production maximale.
– Sécurité ou souplesse maximales, . . .
Après avoir donné une formulation analytique convenable du problème, on
est conduit à la recherche d’un optimum. L’analyse des contraintes permettra de
déterminer les tâches clefs, c’est à dire celles qui ne supporteront que peu d’écart
par rapport aux prévisions si l’on ne veut pas introduire des perturbations graves
dans l’exécution.
III.2 Principaux types de contraintes
III.2 .a Contraintes de type potentiel
Elles sont de deux types :
Localisation temporelle : elles imposent à une tâche i quelconque d’être si-
tuée à certains moments : ne pas débuter avant une certaine époque (cli-
mat, matières premières non livrées, . . .) ou, au contraire, d’être terminées
au plus tard avant une époque donnée (exigences commerciales, . . .).
On peut les mettre sous la forme suivante :
t
i
> e

i
t
i
< e

i
En effet, si l’on veut exprimer qu’une tâche i doit être terminée avant
l’époque limite L
i
, il vient :
t
i
+d
i
< L
i
succession: elles viennent limiter l’intervalle de temps qui s’écoule entre les
débuts de deux tâches i et j. On peut les mettre sous la forme :
t
j
−t
i
> a

ij
t
j
−t
i
< a

ij
Par exemple si la tâche j ne peut commencer avant que la tâche i ne soit
terminée on aura :
t
j
> t
i
+d
i
III.3. EXEMPLE DE PROBLÈME: 25
Plus généralement si la tâche j ne peut commencer avant que la tâche i
n’ait atteint un certain degré d’avancement a on aura :
t
j
> t
i
+a.d
i
III.2 .b Contraintes de type disjonctif
Ce sont les contraintes traduisant que les intervalles de temps durant lesquels
doivent être exécutées deux tâches i et j ne peuvent avoir de partie commune,
ce qui se traduit par :
[t
i
, t
i
+d
i
] ∩ [t
j
, t
j
+d
j
] = ∅
Cela arrive,entre autres, quand les deux tâches réclament l’utilisation d’un ma-
tériel unique susceptible de n’en accomplir qu’une seule à la fois. Si l’on connaît
l’ordre de succession, par exemple i avant j, on traduira par :
t
j
> t
i
+d
i
III.3 Exemple de problème :
On s’intéresse à la construction d’un complexe hydro-électrique. Après une
première approche, on a répertorié les opérations suivantes :
1. Construction des voies d’accès.
2. Travaux de terrassement.
3. Construction des bâtiments d’administration.
4. Commande du matériel électrique.
5. Construction de la centrale.
6. Construction du barrage.
7. Construction des galeries et conduites.
8. Installation des machines.
9. Tests de fonctionnement.
On supposera que toutes les contraintes sont des contraintes de succession, ré-
sumées dans le tableau ci-dessous :
Opérations Durée (mois) pré-requis
1 4 -
2 6 1
3 4 -
4 12 -
5 10 2, 3, 4
6 24 2, 3
7 7 1
8 10 5, 7
9 3 6, 8
Les deux principales méthodes pour résoudre les problèmes d’ordonnance-
ment sont les méthodes MPM et PERT . Elles sont exposées dans les deux
sections suivantes.
26 CHAPITRE III. ORDONNANCEMENT
III.4 La méthode MPM
MPM signifie "méthode des potentiels Métra". Dans le graphe de représenta-
tion, un sommet correspond à une tâche, un arc définit une relation d’antériorité.
La longueur de l’arc donne le temps minimum qui doit s’écouler entre la tâche
origine et le début de la tâche extrémité. Lorsque les contraintes sont unique-
ment des contraintes de succession, la longueur de l’arc sera donc égale à la
durée de la tâche origine.
III.4 .a Construction du graphe MPM
On établit d’abord un tableau donnant les tâches et, pour chacune d’entre
elles, les opérations pré-requises. On ordonne les tâches (qui seront les sommets
du graphe) en partant de la tâche origine (début). Pour cela on se sert du tableau
initial :
La classe 0 est obtenue en prenant les tâches sans pré-requis (sommets sans
prédécesseur). On raye ensuite les sommets ainsi obtenus, et la classe 1 est
obtenue en prenant les nouveaux sommets sans prédécesseur, on continue jusqu’à
épuisement des tâches.
Dans l’exemple [III.3], on obtient ainsi les classes :
¦1, 3, 4¦, ¦2, 7¦, ¦5, 6¦, ¦8¦, ¦9¦.
Les sommets sont disposés de gauche à droite de façon à limiter le nombre d’in-
tersections entre les arcs. Un arc relie un sommet i à un sommet j si i est un
pré-requis de j.
Chaque sommet est figuré par un rectangle où figurent les informations sui-
vantes :
x : nom de la tâche. (en bas)
T
x
: date de début au plus tôt de la tâche. (en haut à gauche)
T

x
: date de début au plus tard de la tâche. (en bas à droite)
On introduit une tâche supplémentaire ou tâche fin, Z et une tâche initiale
W qui précède toutes les autres. Elles sont évidemment de durée nulle.
III.4 .b Détermination du calendrier au plus tôt
Pour chaque sommet x, on considère T
x
, chemin le plus long de 0 à x; cela
garantit que toutes les contraintes d’antériorité seront respectées. L’ensemble
des arcs qui contribuent à la détermination de la date de fin des travaux T
Z
constitue le chemin critique. Pour déterminer ce chemin, on peut utiliser
l’algorithme de Ford, modifié pour la détermination de chemin maximal.
Pour la tâche W, on pose T
W
= 0. Pour une tâche x quelconque, T
x
est la
longueur du plus long chemin conduisant de W à x. La figure [III.1] correspond
au graphe de l’exemple [III.3].
Disposition pratique
On utilise la disposition suivante pour effectuer les calculs :
III.4. LA MÉTHODE MPM 27
0 : 1 4 : 2 0 : 3 0 : 4 12 : 5 10 : 6 4 : 7
0 [ W : 0 0 [1 : 4 0 [W : 0 0 [W : 0 4 [2 : 6 4 [2 : 6 0 [1 : 4
0 [3 : 4 0 [3 : 4
0 [4 : 12
22 : 8 34 : 9 37 : Z
12 [5 : 10 10 [6 : 24 34 [9 : 3
4 [7 : 7 22 [8 : 10
Le chemin critique est ici, ¦W, 1, 2, 6, 9, Z¦.
III.4 .c Détermination du calendrier au plus tard
Il s’agit de déterminer pour chaque tâche x la date au plus tard T

x
telle
que la date de fin des travaux T
Z
ne soit pas retardée. On utilise la procédure
suivante :
1. On pose T

Z
= T
Z
.
2. Soit x un sommet dont tous les suivants sont marqués (ce qui implique
que T

y
est connu), alors,
T

x
= min
y∈Γ(x)
(T

y
−d
x
).
En effet, les contraintes imposent que T

x
+d
x
≤ T

y
.
III.4 .d Marge totale
C’est le retard maximum que l’on peut prendre dans la mise en route d’une
tâche sans remettre en cause les dates au plus tard des tâches suivantes et donc
retarder la fin des travaux. Pour une tâche x, elle est égale à
T

x
−T
x
.
III.4 .e Marge libre
C’est le retard maximum que l’on peut prendre dans la mise en route d’une
tâche sans remettre en cause la date au plus tôt d’aucune autre tâche. Elle est
égale à
min
y∈Γ(x)
(T
y
−T
x
−d
x
).
III.4 .f Synthèse
On réunit les résultats obtenus précédemment dans un tableau récapitulatif :
28 CHAPITRE III. ORDONNANCEMENT
Tâche Date au plus tôt Date au plus tard Marge totale Marge libre
1 0 0 0 0
2 4 4 0 0
3 0 6 6 6
4 0 2 2 0
5 12 14 2 0
6 10 10 0 0
7 4 17 13 11
8 22 24 2 2
9 34 34 0 0
Z 37
III.4. LA MÉTHODE MPM 29
0 0
W
0 0
1
0 6
3
0 2
4
4 17
7
4 4
2
10 10
6
12 14
5
34 34
9
22 24
8
37 37
Z
0 0
0
4
4
4
4
12
6
6
7
10
10
24
3
Fig. III.1 – Graphe MPM
30 CHAPITRE III. ORDONNANCEMENT
III.5 La méthode PERT
Les principes diffèrent de ceux de la méthode MPM: à chaque tâche corres-
pond un arc du graphe dont la longueur est égale à la durée de la tâche. Chaque
sommet du graphe correspond à une étape signifiant :
Toutes les tâches qui arrivent sont terminées
Toutes les tâches qui partent peuvent commencer
III.5 .a Construction du graphe PERT
Chaque sommet est représenté par un cercle où figurent :
X : étape (en bas)
t
x
: date attendue de l’étape X (en haut à gauche).
t

x
: date au plus tard de l’étape X (en haut à droite).
On ajoute un sommet initial d’où partent toutes les tâches dont la mise en
route n’est soumise à aucune contrainte d’antériorité et un sommet final auquel
aboutissent toutes les tâches n’ayant pas de suivante. On est parfois obligé d’in-
troduire des tâches fictives, ainsi dans l’exemple [III.3], pour tenir compte du
fait que les tâches 2, 3, 4 sont antérieures à la tâche 5 alors que seules les tâches
2, 3 sont antérieure à la tâche 6, on introduit une tâche fictive de longueur nulle
entre l’étape 3 à laquelle aboutissent les tâches 3 et 2 et l’étape 4 à laquelle
aboutit également la tâche 4.
La figure [III.2] correspond au graphe de l’exemple [III.3].
III.5 .b Calendrier au plus tôt
A chaque sommet x on affecte une date t
x
égale à la longueur du chemin le
plus long allant du sommet 1 au sommet x. t
x
est la date attendue de l’événement
x, elle est égale à la date au plus tôt de toutes les tâches partant du sommet x.
III.5 .c Calendrier au plus tard
Pour chaque étape x, on détermine t

x
date de réalisation de x telle que la
date au plus tôt de la fin des travaux ne soit pas retardée. On utilise la procédure
suivante :
1. On pose t

Z
= t
Z
.
2. Pour un sommet x ayant tous ses suivants marqués, on pose
t

x
= min
y∈Γ(x)
(t

y
−d
k
)
où k est une tâche joignant x à y.
III.5 .d Marges totales :
Idem que par la méthode MPM.
III.5 .e Marges libres :
Pour une tâche k joignant un sommet x à un sommet y, elle est égale à
t
y
−t
x
−d
k
.
III.5. LA MÉTHODE PERT 31
0 0
1
0 0
1
4 4
2
10 10
3
22 24
5
34 34
6
37 37
7
12 14
4
12
{4}
{1}
4
{3}
4
{2}
6
{7}
7
{5}
10
{6}
24
{8}
10
{9}
3
Fig. III.2 – Graphe PERT
32
Exercices du chapitre III
Exercice III.1
Un producteur de cinéma a planifié les tâches suivantes pour son prochain film:
Code de la tâche Définition Durée (en jours) Antériorités
A
Choix du scéna-
rio
30 -
B
Choix et recrute-
ment des comé-
diens
45
Ne peut com-
mencer que 20
jours après le
début de A
C
Choix des lieux
de tournage
30
Ne peut com-
mencer que 25
jours après le
début de A
D
Découpage des
scènes
15
A et C doivent
être terminées
E
Préparation des
décors
21
C et D doivent
être terminées
F
Tournage des ex-
térieurs
35
A, B, C et D
doivent être ter-
minées
G
Tournage des in-
térieurs
21
D, E et F doivent
être terminées
H Synchronisation 7
F et G doivent
être terminées
I Montage 21
H doit être termi-
née
J Bande sonore 14
H, ne peut com-
mencer que 7
jours après le
début de I
K Mixage 7
I et J doivent être
terminées
L
Tirage de la pre-
mière copie
1
K doit être ter-
minée
1. Supprimer les contraintes obtenues par transitivité et ordonner les tâches.
2. Déterminer par la méthode MPM l’ordonnancement au plus tôt des diffé-
rentes tâches et indiquer le chemin critique.
3. Tracer le graphe MPM.
4. Tracer le graphe PERT.
33
Deuxième partie
Programmation Linéaire
35
Chapitre I
Présentation
La programmation linéaire est un des domaines les plus utilisés de la RO.
Elle permet de traiter un vaste ensemble de problèmes d’optimisation dans des
contextes divers comme la gestion de stocks, flux de transport, distribution de
tâches à des personnels, recherche de plans de fabrication etc. . . La modélisation
de ces problèmes débouche sur des équations ou inéquations linéaires (exprimant
les différentes contraintes) dont on cherche les solutions permettant d’optimi-
ser une fonction économique elle-même linéaire. De plus on supposera que les
variables considérées sont astreintes à être positives (contraintes de positivité).
On appelle une telle formulation un programme linéaire (PL).
I.1 Présentation d’un exemple :
Un industriel fabrique un engrais dans lequel interviennent trois composants
de base P
1
, P
2
, P
3
dont les cours sont fluctuants et dont on suppose que les
quantités disponibles sont illimitées. Suivant le prix de ces composants, l’indus-
triel détermine les pourcentages de chacun d’entre eux x
1
, x
2
, x
3
devant entrer
dans la composition du produit final, sachant que certaines normes de fabrica-
tion doivent être respectées. On notera c
1
, c
2
, c
3
les coûts respectifs d’une unité
des produits P
1
, P
2
, P
3
. Le coût de fabrication d’une unité d’engrais est :
z = c
1
x
1
+c
2
x
2
+c
3
x
3
qui définit la fonction économique du problème et que l’on doit minimiser. De
plus l’engrais doit présenter un taux de potasse minimum b
1
. Notons a
11
, a
12
, a
13
les taux de potasse minimum respectifs de P
1
, P
2
, P
3
, la proportion de potasse
dans le produit final est : a
11
x
1
+a
12
x
2
+a
13
x
3
et l’on doit avoir,
a
11
x
1
+a
12
x
2
+a
13
x
3
≥ b
1
De la même manière on suppose que la teneur en nitrate ne doit pas descendre en
dessous d’une certaine valeur b
2
, en notant a
21
, a
22
, a
23
les teneurs respectives
en nitrate de P
1
, P
2
, P
3
, on doit donc avoir,
a
21
x
1
+a
22
x
2
+a
23
x
3
≥ b
2
36 CHAPITRE I. PRÉSENTATION
De plus, comme les x
i
sont des pourcentages (exprimé en centièmes 100% est
ramené à 1), on a l’équation,
x
1
+x
2
+x
3
= 1.
Par ailleurs les contraintes de positivité impliquent que x
i
≥ 0, pour i = 1, 2, 3.
On obtient ainsi la formulation du problème à résoudre :
min(z) = c
1
x
1
+c
2
x
2
+c
3
x
3
(I.1)

a
11
x
1
+ a
12
x
2
+ a
13
x
3
≥ b
1
a
21
x
1
+ a
22
x
2
+ a
23
x
3
≥ b
2
x
1
+ x
2
+ x
3
= 1
x
i
≥ 0, pour i ∈ ¦1, 2, 3¦
(I.2)
l’ensemble ainsi formé est un PL, la fonction économique est donnée par l’équa-
tion (I.1), tandis que le système (I.2) détermine les contraintes du problème.
Les variables x
i
sont appelées variables structurelles ou variables de dé-
cision. La résolution du problème consiste à déterminer les valeurs des x
i
qui
optimisent la fonction z (qui est une fonction des variables x
i
).
t
i
=
n
¸
j=1
a
ij
x
j
−b
i
est appelée variable d’écart, t
i
≥ 0. Son introduction dans
chacune des contraintes, hors celles de positivité, permet d’obtenir des équations
et conduit à une formulation dite standard du PL. Ici on obtient :
min(z) = c
1
x
1
+c
2
x
2
+c
3
x
3
(I.3)

a
11
x
1
+ a
12
x
2
+ a
13
x
3
+ t
1
= b
1
a
21
x
1
+ a
22
x
2
+ a
23
x
3
+ t
2
= b
2
x
1
+ x
2
+ x
3
= 1
x
i
≥ 0, pour i ∈ ¦1, 2, 3¦
(I.4)
I.2 Forme standard des problèmes de PL
I.2 .a Présentation générale :
Pour les problèmes à maximum de la fonction économique, les contraintes
par rapport aux seconds membres b
i
seront de du type ≤ tandis que pour les pro-
blèmes à minimum elles seront du type ≥. On obtient ainsi les deux formulation
suivantes appelées formes canoniques :
max(z) =
n
¸
j=1
c
j
x
j

n
¸
j=1
a
ij
x
j
≤ b
i
, i ∈ ¦1, . . . ,m¦
x
j
≥ 0, pour j ∈ ¦1, . . . , n¦
min(z) =
n
¸
j=1
c
j
x
j

n
¸
j=1
a
ij
x
j
≥ b
i
, i ∈ ¦1, . . . ,m¦
x
j
≥ 0, pour j ∈ ¦1, . . . , n¦
Remarques :
1. Minimiser la fonction économique z revient à maximiser −z : on change c
i
en c

i
= −ci.
I.2. FORME STANDARD DES PROBLÈMES DE PL 37
2. Les contraintes peuvent toujours se ramener à des égalités en introdui-
sant les variables d’écarts t
i
égales à t
i
= b
i

n
¸
j=1
a
ij
x
j
dans le cas d’un
maximum (resp. t
i
=
n
¸
j=1
a
ij
x
j
−b
i
dans le cas d’un minimum).
On obtient la formule standard suivante :
max(z) =
n
¸
j=1
c
j
x
j
(I.5)

n
¸
j=1
a
ij
x
j
= b
i
, i ∈ ¦1, . . . ,m¦
x
j
≥ 0, pour j ∈ ¦1, . . . , n¦
(I.6)
I.2 .b Forme matricielle :
Soit, A =

¸
¸
a
11
a
1m
.
.
.
.
.
.
a
m1
a
mn
¸

la matrice représentant les coefficients des
contraintes (avec l’adjonction des variables d’écart, on a toujours n ≥ m).
X =

¸
¸
x
1
.
.
.
x
n
¸

, C =

¸
¸
c
1
.
.
.
c
n
¸

respectivement le vecteur des solutions et des
coefficients de la fonction économique, et pour j ∈ ¦1, . . . , n¦, P
j
=

¸
¸
a
1
j
.
.
.
a
m
j
¸

les vecteurs colonnes de la matrice A, B =

¸
¸
b
1
.
.
.
b
m
¸

. La formulation du PL se
résume à :
min¦z =
t
C.X [ A.X = B, X ∈ R
n
+
¦ ou encore
n
¸
j=1
P
j
x
j
= B (I.7)
38 CHAPITRE I. PRÉSENTATION
I.3 Résolution d’un système d’équations par la
méthode du pivot de Gauss :
Partant d’un système d’équations du type :
n
¸
j=1
a
ij
x
j
= b
i
, i ∈ ¦1, . . . ,m¦,
on suppose que les différentes équations du système sont linéairement indépen-
dantes, ce qui revient à dire que la matrice A, définie à la section précédente, est
de rang m (ce qui est toujours acquis avec l’introduction des variables d’écart).
Après réduction par l’utilisation de la méthode du pivot, on arrive à une formu-
lation du type,

x
1
+ a

1,m+1
x
m+1
+ . . . + a

1n
x
n
= b

1
x
2
+ a

2,m+1
x
m+1
+ . . . + a

2n
x
n
= b

2
.
.
. . . .
x
m
+ a

m,m+1
x
m+1
+ . . . + a

mn
x
n
= b

m
. .. .
variables en base
. .. .
variables hors base
Les variables x
1
, . . . , x
m
(on a éventuellement changé la numérotation au cours
des calculs pour qu’elles apparaissent dans cet ordre) sont appelées variables en
base. Les variables restantes i.e. x
m+1
, . . . , x
n
sont appelées variables hors
base. Dans cette configuration, une solution évidente du système de départ
sera :
x
i
= b

i, pour i ∈ ¦1, . . . , m¦ et x
i
= 0, pour i ∈ ¦m+ 1, . . . , n¦.
Cette solution est de base réalisable. Ce type de solution sera utilisé ultérieu-
rement dans la méthode du simplexe.
I.4 Définitions :
Solution réalisable :
On appelle ainsi toute solution du système (I.6) (y compris donc les
contraintes de positivité).
Variables de base :
tout sous-ensemble x
i1
, . . . , x
im
de m variables prises parmi x
1
, . . . , x
n
et
telles que les vecteurs associés P
i1
, . . . , P
im
forment une base de R
m
donc
que la matrice qu’ils forment, qui est carrée d’ordre m, soit inversible.
Solution de base :
Toute solution comportant n − m variables nulles et telles que les m res-
tantes soient des variables de base.
Solution de base réalisable :
Toute solution de base qui satisfait aux contraintes (I.6).
Solution optimale :
Toute solution réalisable qui optimise z. Si une telle solution existe, il y a
au moins une qui est de base et réalisable.
I.5. RÉSOLUTION GRAPHIQUE D’UN PL: 39
I.5 Résolution graphique d’un PL:
I.5 .a Exemples :
1. Problème borné à solution unique (voir fig.(I.1) :
max(z) = x
1
+ 3x
2

x
1
+ x
2
≤ 14
−2x
1
+ 3x
2
≤ 12
2x
1
− x
2
≤ 12
x
1
, x
2
≥ 0
2. Problème borné avec infinité de solutions (voir fig.(I.2) :
max(z) = x
1
+x
2

x
1
+ x
2
≤ 14
−2x
1
+ 3x
2
≤ 12
2x
1
− x
2
≤ 12
x
1
, x
2
≥ 0
3. Problème non borné sans solution (voir fig.(I.3) :
max(z) = x
1
+x
2

−x
1
+ x
2
≤ 1
−x
1
+ 2x
2
≤ 4
x
1
, x
2
≥ 0
4. Problème non borné avec une solution unique (voir fig.(I.4) :
max(z) = −3x
1
+ 4x
2

−x
1
+ x
2
≤ 1
−x
1
+ 2x
2
≤ 4
x
1
, x
2
≥ 0
Dans le cas où il n’y a que deux variables structurelles, on peut effectuer une
résolution graphique. L’espace des décisions est ici le plan (x
1
, x
2
). L’ensemble
des solutions réalisables, dans le cas d’un problème borné, constitue un polygone
convexe : (O, A, B, C, D) dans l’exemple 1 ci-dessus. Dans le cas général, si le
PL a des solutions, il en existe toujours au moins une qui est de base, c’est un
sommet (ou point extrême) du polygone. Dans le PL de l’exemple 1, le point
B(6, 8) pour lequel la fonction économique z vaut 30 donne l’optimum. Toutes
les droites d’équation z = x
1
+3x
2
sont parallèles, en les déplaçant vers le haut,
tout en restant au contact du polygone convexe (O, A, B, C, D), on obtient
comme limite le point B. Dans l’exemple 2, la fonction économique z = x
1
+x
2
,
conduit à une infinité de solutions constituées par le segment [B, C], z vaut 14
sur ce segment. Dans les exemples 3 et 4, l’ensemble des solutions réalisables est
non borné, dans ce cas la solution peut-être infinie (ex. 3) ou exister (ex. 4) cf
les figures à la fin du chapitre. Enfin dans le cas de contraintes contradictoires,
l’ensemble est vide, il n’y alors pas de solution.
40 CHAPITRE I. PRÉSENTATION
I.6 Cas général :
L’ensemble des solutions réalisables d’un PL détermine dans l’espace des
décisions (R
n
) un ensemble convexe appelé domaine réalisable, qui est,
– soit l’ensemble vide,
– soit un ensemble polyédrique convexe non borné,
– soit un polyèdre convexe.
Dans le cas où le PL admet des solutions, il existe toujours une solution située
sur un des sommets, appelés points extrêmes, du polyèdre.
41
Exercices du chapitre I
Exercice I.1
Une entreprise fabrique deux produits P
1
et P
2
qui nécéssitent du temps de
travail(main d’œuvre), du temps-machine et des matières premières. Les données
techniques de production ainsi que les prix de vente par unité sont donnés dans
le tableau ci-dessous :
P
1
P
2
Quantité de travail (en
h) nécessaire à la fabri-
cation d’une unité
0.07 0.04
Quantité de temps-
machine (en h) néces-
saire à la fabrication
d’une unité
0.12 0.06
Quantité de matière
première (en nombre
d’unité u) nécessaire
à la fabrication d’une
unité de produit
2 1
Prix de vente par unité
(en ¤)
15 8
Chaque semaine, au plus, 4000 unités de matière première sont disponibles au
prix de 1.5¤ par unité. L’entreprise emploie 4 ouvriers qui travaillent 35 heures
par semaine pour la main d’œuvre. Ces personnes peuvent faire des heures sup-
plémentaires payée 10¤ l’unité. La disponibilité hebdomadaire des machines
est de 320h. Sans publicité, la demande hebdomadaire du produit P
1
est de
500 unités, celle de P
2
de 600. Chaque ¤ dépensé en publicité pour P
1
(resp.
P
2
) augmente la demande hebdomadaire de 10 (resp. 15) unités. Les frais de
publicité ne doivent pas dépasse 1000 ¤ et les quantités fabriquées doivent res-
ter inférieures ou égales à la demande réelle (compte-tenu de la publicité). On
définit les 6 variables suivantes :
X
1
: nombre d’unités de P
1
fabriquées par semaine.
X
2
: nombre d’unités de P
2
fabriquées par semaine.
HS: nombre total d’heures supplémentaires effectuées par semaine.
MP: nombre d’unités de matière première achetées par semaine.
PUB
1
: nombre d’¤ dépensés en publicité pour P
1
.
PUB
2
: nombre d’¤ dépensés en publicité pour P
2
.
L’entreprise désire maximiser son profit sachant que,
Bénéfice = Chiffre des ventes - Somme des coûts variables.
42
Les salaires (pour les heures normales) sont un coût fixe pour l’entreprise.
Question :
Modéliser le problème sous forme d’un PL que l’on ne demande pas de
résoudre.
Exercice I.2
On cherche comment approvisionner, au moindre coût, des clients en implantant
un nombre p, donné a priori, de dépôts dans des sites préalablement recensés.
Chaque client sera rattaché à un seul dépôt, un client quelconque pouvant être
rattaché à n’importe quel dépôt. Les données sont :
– m le nombre de sites (m ≥ p).
– n le nombre de clients.
– γ
i
le coût de construction d’un dépôt sur le site i (1 ≤ i ≤ m).
– c
ij
le coût de rattachement du client j à un dépôt construit sur le site i
(1 ≤ i ≤ m, 1 ≤ j ≤ n).
On prend comme inconnues :
x
ij
=

1 si le client j est rattaché au dépôt i
0 sinon
y
i
=

1 si le dépôt est construit sur le site i
0 sinon
Formuler :
1. La fonction économique du problème (coût de construction des entrepôts
+ coût de rattachement).
2. Les contraintes exprimant que chaque client est rattaché à un seul dépôt.
3. La contrainte exprimant que l’on doit construire exactement p dépôts.
4. Que signifient les contraintes supplémentaires :
x
ij
≤ y
i
, (1 ≤ i ≤ m, 1 ≤ j ≤ n)
(interpréter le cas y
i
= 1, puis y
i
= 0).
5. A la question précédente, on a introduit m.n contraintes. Montrer que l’on
peut remplacer celles-ci par seulement m contraintes du type :
n
¸
j=1
x
ij
≤ n.y
i
.
Exercice I.3
Résoudre graphiquement le PL suivant :
max(z) = x
1
+ 2x
2

x
1
+ x
2
≤ 3
−x
1
+ x
2
≤ 1
x
1
≤ 2
x
1
, x
2
≥ 0
43
Même question pour le PL suivant :
max(z) = x
1
+ 2x
2

x
1
≤ 1
x
1
+ x
2
≥ 6
−x
1
+ x
2
= 12
x
1
, x
2
≥ 0
Exercice I.4
Un fabricant d’aliment pour porcs, cherche à optimiser la composition de celui-
ci sachant qu’il n’entre dans sa composition que trois ingrédients : Blé, maïs
et soja. L’aliment devra comporter au moins 22% d’un composant C
1
et 4%
d’un composant C
2
pour se conformer aux normes en vigueur. Les données sont
résumées dans le tableau ci-dessous :
Blé Soja Colza
Pourcentage
de C
1
12 52 42
Pourcentage
de C
2
2 2 10
Coût en ¤
par tonne
25 41 39
1. Donner la formulation algébrique du PL en prenant comme variables struc-
turelles les différents pourcentages requis pour obtenir une tonne d’ali-
ment.
2. Montrer que l’on peut réduire à deux variables le PL et le résoudre gra-
phiquement.
44
3
0
=
z=
x1
+
3
x2
0=
z=
x
1 +
3
x
2
2
x
1

-

x
2

=

1
2
x
1

+

x
2

=

1
4
O
A
B
C
D
x2
x1
-
2
x
1
+
3
x
2
=
1
2
8
6
Opt
z cro
is
sa
n
t
Fig. I.1 – Représentation graphique en 2D, solution unique
0
=
z
=
x
1

+

x
2
2
x
1

-

x
2

=

1
2
x
1

+

x
2

=

1
4
O
A
B
C
D
x2
x1
-2
x
1
+
3
x
2
=
1
2
z

c
r
o
i s
s
a
n
t
Fig. I.2 – Représentation graphique en 2D, infinité de solutions
45
x2
x1
-x1
+
2
x
2 =
4
-
x
1

+

x
2

=

1
O
A
B
z

=

x
1

+

x
2
z
c
r
o
is
s
a
n
t
Fig. I.3 – Problème non borné, pas de solution
x2
x1
-x1
+
2
x2
=
4
-
x
1

+

x
2

=

1
6
=

z
=

-
3
x
1

+
4
x
2
O
A
B
Opt
3
2
z
c
r
o
is
s
a
n
t
Fig. I.4 – Problème non borné, solution unique
46
47
Chapitre II
La méthode du simplexe
II.1 Introduction
II.1 .a Etude d’un exemple :
Reprenons l’exemple 1 de la section (III.2 .b) du chapitre précédent :
max(z) = x
1
+ 3x
2

x
1
+ x
2
≤ 14
−2x
1
+ 3x
2
≤ 12
2x
1
− x
2
≤ 12
x
1
, x
2
≥ 0
Pour obtenir des égalités, on introduit 3 variables d’écart t
1
, t
2
, t
3
, qui seront les
variables de base initiales, avec x
1
, x
2
hors base et de valeur nulle. On obtient
le système :

z − x
1
− 3x
2
= 0
x
1
+ x
2
+ t
1
= 14
−2x
1
+ 3x
2
+ t
2
= 12
2x
1
− x
2
+ t
3
= 12
La solution de base associée est (x
1
, x
2
, t
1
, t
2
, t
3
) = (0, 0, 14, 12, 12) avec
z = 0. Le but est de maximiser z, on cherche si l’on peut augmenter les valeurs
de x
1
ou x
2
en les faisant entrer en base et en faisant sortir l’une des variables
t
i
(le nombre de variables en base est constant et égal à m (3 ici)). x
2
a le plus
fort coefficient dans la fonction économique, il est donc naturel de la faire entrer
en base. Les différentes contraintes imposent, x
2
≤ 14, x
2

12
3
= 4, x
2
≥ 0,
obtenues par les trois dernières équations du système. On retient la valeur x
2
=
4, de la deuxième équation, ce qui va entraîner la sortie de t
2
, x
1
restant égale
à 0. On utilise la méthode du pivot de Gauss, pour obtenir le nouveau système
(ici, on divise le coefficient de x
2
par 3 dans la deuxième équation et on remplace
x
2
par
2
3
x
1

1
3
t
2
+ 4 dans les trois autres, on obtient le nouveau système :

z − 3x
1
+ t
2
= 12
5
3
x
1
+ t
1

1
3
t
2
= 10

2
3
x
1
+ x
2
+
1
3
t
2
= 4
4
3
x
1
+
1
3
t
2
+ t
3
= 16
48 CHAPITRE II. LA MÉTHODE DU SIMPLEXE
La nouvelle solution de base est (x
1
, x
2
, t
1
, t
2
, t
3
) = (0, 4, 10, 0, 16) avec z = 12.
On cherche si on peut améliorer la solution, la seule possibilité ici est de faire
entrer x
1
en base, les contraintes conduisent à faire sortir t
1
de la base et on
obtient ainsi le nouveau système :

z +
9
5
t
1
+
2
5
t
2
= 30
5
3
x
1
+ t
1

1
3
t
2
= 10

2
3
x
1
+ x
2
+
1
3
t
2
= 4
4
3
x
1
+
1
3
t
2
+ t
3
= 16
La nouvelle solution de base est (x
1
, x
2
, t
1
, t
2
, t
3
) = (6, 8, 0, 0, 8) avec z = 30.
Comme l’on doit avoir z = 30−
9
5
t
1

2
5
t
2
, avec t
1
, t
2
= 0, la solution obtenue est
bien optimale. La solution du problème initial est (x
1
, x
2
) = (6, 8), on retrouve
bien sûr ce que l’on avait obtenu par la résolution graphique.
II.1 .b Disposition pratique des calculs :
On va représenter les données par un tableau (que l’on enrichira par la suite)
comportant les colonnes :
(Variables en base, Seconds membres, Liste des variables)
Dans notre exemple, nous obtenons successivement,
Tableau initial :
Base B x
1
x
2
t
1
t
2
t
3
t
1
14 1 1 1 0 0
t
2
12 −2
?>=< 89:;
3 0 1 0
t
3
12 2 −1 0 0 1
Tableau n

2 :
Le nombre 3 en gras, est appelé pivot, il est forcément strictement po-
sitif, on divise la ligne du pivot (dans l’exemple, la ligne de la variable
t
2
) par le pivot pour que la valeur de celui-ci devienne égale à 1, puis
par combinaison linéaire, en ajoutant la ligne du pivot multipliée par un
coefficient tel que les valeurs de la colonne du pivot deviennent égales à 0
à chacune des autres lignes, on obtient le tableau suivant, en remplaçant
dans la première colonne la variable sortante par la variable entrante. Ici,
on multiplie la ligne du pivot par −1 et on l’ajoute à la première ligne,
puis on multiplie la ligne du pivot par 1 (inchangée) et on l’ajoute à la
dernière ligne, pour obtenir les nouvelles lignes, cela donne :
Base B x
1
x
2
t
1
t
2
t
3
t
1
10
GFED @ABC
5
3
0 1 −
1
3
0
x
2
4
−2
3
1 0
1
3
0
t
3
16
4
3
0 0
1
3
1
II.2. L’ALGORITHME DU SIMPLEXE: 49
Ici le pivot est
5
3
, on opère comme précédemment.
Tableau final :
Base B x
1
x
2
t
1
t
2
t
3
x
1
6 1 0
3
5

1
5
0
x
2
8 0 1
2
5
1
5
0
t
3
8 0 0 −
4
5
3
5
1
Dans la colonne du vecteur B du dernier tableau figurent les valeurs des
variables en base : x
1
= 6, x
2
= 8, t
3
= 8.
II.2 L’algorithme du simplexe :
On part d’un PL mis sous forme standard dans lequel on suppose que l’on
dispose d’une solution de base réalisable de départ. En général celle-ci est ob-
tenue par les m variables d’écart t
i
qui prennent respectivement les m valeurs
b
i
. Dans un problème à maximum, on va successivement, à chaque étape, faire
entrer une variable en base, de telle sorte que la valeur de la fonction écono-
mique z augmente. On cherche les solutions aux points extrêmes de l’ensemble
convexe des solutions réalisables.
II.2 .a Passage d’un extrême à l’autre
Considérons un point extrême (correspondant à une solution de base du PL),
X = (x
1
, . . . , x
m
, 0, . . . , 0) où
m
¸
i=1
x
i
P
i
= B, x
i
≥ 0 et P
1
, . . . , P
m
linéairement
indépendants (base de R
m
). Les n−mvecteurs P
m+1
, . . . , P
n
peuvent s’exprimer
comme des combinaisons linéaires des précédents, on peut écrire
P
j
=
m
¸
i=1
x
ij
P
i
, j ∈ ¦m+ 1, . . . , n¦ (II.1)
Pour simplifier, supposons que l’on veuille faire entrer en base le vecteur P
m+1
.
Notons θ la valeur que l’on va donner à la variable x
m+1
qui devient de base.
On a θP
m+1
=
m
¸
i=1
θx
i, m+1
P
i
, on peut donc écrire,
m
¸
i=1
(x
i
−θx
i, m+1
)P
i
+θP
m+1
= B (II.2)
On va chercher un point extrême voisin du point précédent. Pour cela, l’un des
vecteurs P
i
initiaux doit sortir de base et un vecteur hors base doit y rentrer. Il
faut déterminer quel vecteur sortant on va choisir. On doit avoir obligatoirement
50 CHAPITRE II. LA MÉTHODE DU SIMPLEXE
θ > 0, et x
i
−θx
i, m+1
≥ 0, ∀i ∈ ¦1, . . . , m¦. Cette dernière condition est acquise
si x
i, m+1
≤ 0 pour les autres on doit avoir
x
i
x
i, m+1
≥ θ. On va donc choisir :
θ = θ
s
= min
{i|xi,m+1>0}

x
i
x
i, m+1

(II.3)
Soit s l’indice qui donne ce minimum, on a donc θ
s
=
x
s
x
s, m+1
. Le coefficient
de P
s
est donc nul et c’est le vecteur qui sort de base. La nouvelle base est
donc (P
i
), i ∈ ¦1, . . . , m + 1¦`¦s¦. Si l’on suppose que s = 1, le nouveau point
extrême serait,
X

= (0, x
2
−θ
s
x
2, m+1
, . . . , x
m
−θ
s
x
m, m+1
, θ
s
, 0, . . . , 0)
II.2 .b Choix de la variable entrante
On va s’intéresser à la fonction économique. Avec les notations précédentes,
sa valeur pour le premier point extrême était z
0
=
m
¸
i=1
c
i
x
i
, pour le nouveau
point extrême X

on obtient, en posant z
j
=
m
¸
i=1
c
i
x
ij
quantité appelée coût
fictif,
z

0
=
m
¸
i=1
i=s
c
i
(x
i
−θ
s
x
ij
) +θ
s
c
m+1
= z
0

s
(c
m+1
−z
m+1
)
On va choisir comme vecteur entrant celui dont l’indice e vérifie
c
e
−z
e
= max
{i|ci−zi>0}
(c
i
−z
i
),
c’est celui qui est susceptible de donner le plus grand accroissement à la fonction
économique. Dans le cas où tous les coûts fictifs sont négatifs ou nuls, on dé-
montre que l’optimum est atteint. De plus, si pour un coût fictif positif, toutes
les coordonnées x
ij
de la colonne correspondante sont négatives ou nulles, on
montre que le problème n’admet pas de solution (problème non borné).
II.3 L’algorithme du simplexe :
Cet algorithme a été mis au point par George Dantzig en 1947. Il est basé
sur les considérations précédentes.
II.3. L’ALGORITHME DU SIMPLEXE: 51
II.3 .a L’algorithme :
PL à maximum
Début
Mettre les contraintes sous forme d’égalités ;
Rechercher une première solution réalisable ;
Construire le premier tableau du simplexe ;
Tant que ∃j ∈ {1, . . . , n} : (cj −zj) > 0 Faire
Si ∃k ∈ {1, . . . , n} : (c
k
−z
k
) > 0 et xij < 0 ∀i ∈ {1, . . . , m}
Alors max(z) = +∞ {pas de solution}
Sinon
Début
{Recherche des variables entrante et sortante }
xe entre en base si ce −ze = max(c
k
−z
k
) ;
xs sort si
bs
xse
= min
x
ie
>0
(
bi
xie
) ;
{Construction du nouveau tableau, le pivot est xse}
{Ligne du pivot}
b

e

bs
xse
{dans la colonne de B};
x

ej

xsj
xse
{donc 1 pour x

es
} ;
{Autres lignes}
b

i
← bi −
xie
xse
xs ;
x

ij
← xij −
xie
xse
;
z

0
← z0 +
xs
xse
(ce −ze) ;
cj −z

j
← cj −zj −
xsj
xse
(ce −ze) ;
Fin;
Fin.
II.3 .b Disposition pratique :
On suppose que les variables x
1
, . . . , x
m
sont en base.
c
1
c
2
. . . c
m
c
m+1
. . . c
n
Base C B x
1
x
2
. . . x
m
x
m+1
. . . x
n
x
1
c
1
b
1
1 0 . . . 0 x
1,m+1
. . . x
1,n
x
2
c
2
b
2
0 1 . . . 0 x
2,m+1
. . . x
2,n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
x
m
c
m
b
m
0 0 . . . 1 x
m,m+1
. . . x
m,n
z
0
0 0 . . . 0 c
m+1
−z
m+1
. . . c
n
−z
n
52 CHAPITRE II. LA MÉTHODE DU SIMPLEXE
II.3 .c Traitement d’un exemple :
Soit le PL suivant :
min(z) = x
2
−3x
3
+ 2x
5

x
1
+ 3x
2
− x
3
+ 2x
5
= 7
−2x
2
+ 4x
3
+ x
4
= 12
−4x
2
+ 3x
3
+ 8x
5
+ x
6
= 10
x
j
≥ 0, j ∈ ¦1, . . . , 6¦
Les vecteurs P
i
et B correspondant aux variables x
i
sont les suivants :
P
1

¸
1
0
0
¸

P
2

¸
3
−2
−4
¸

P
3

¸
−1
4
3
¸

P
4

¸
0
1
0
¸

P
5

¸
2
0
8
¸

P
6

¸
0
0
1
¸

B

¸
7
12
10
¸

Une base initiale est formée par P
1
P
4
, P
6
, avec 7P
1
+ 12P
4
+ 10P
6
= B,
X = (7, 0, 0, 12, 0, 10) est une solution de base réalisable. Relativement à cette
base, on a,
P
2
= 3P
1
− 2P
4
− 4P
6
, P
3
= −P
1
+ 4P
4
+ 3P
6
, P
5
= 2P
1
+ 8P
6
. Le problème
étant un problème à minimum, on va maximiser −z et donc remplacer dans
l’algorithme du simplexe c
i
par c

i
= −c
i
. Pour obtenir les valeurs de z
i
, on
multiplie les valeurs de la colonne C par les valeurs correspondantes de la co-
lonne relative à la variable x
i
, puis on calcule les valeurs c

i
−z
i
, on obtient ainsi,
Tableau initial :
0 −1 3 0 −2 0
Base C B x
1
x
2
x
3
x
4
x
5
x
6
x
1
0 7 1 3 −1 0 2 0
x
4
0 12 0 −2
?>=< 89:;
4 1 0 0
x
6
0 10 0 −4 3 0 8 1
0 0 −1 3 0 −2 0
Seul c
3
− z
3
> 0, x
3
entre en base. Les valeurs pour lesquelles x
i3
> 0
sont x
43
, x
63
, on calcule les quotients :
x
4
x
43
=
12
4
= 3 et
x
6
x
63
=
10
3
, la
plus petite valeur est θ = 3, donc x
4
sort de base, on calcule le deuxième
tableau.
Tableau n

2 :
0 −1 3 0 −2 0
Base C B x
1
x
2
x
3
x
4
x
5
x
6
x
1
0 10 1
GFED @ABC
5
2
0
1
4
2 0
x
3
3 3 0 −
1
2
1
1
4
0 0
x
6
0 1 0 −
5
2
0 −
3
4
8 1
9 0
1
2
0 −
3
4
−2 0
On a ici c
2
−z
2
> 0 et x
2
entre en base tandis que x
1
sort, avec θ = 4.
II.4. OBTENTION D’UNE BASE RÉALISABLE DE DÉPART: 53
Tableau n

3 :
0 −1 3 0 −2 0
Base C B x
1
x
2
x
3
x
4
x
5
x
6
x
2
−1 4
2
5
1 0
1
10
4
5
0
x
3
3 5
1
5
0 1
3
10
2
5
0
x
6
0 11 1 0 0 −
1
2
10 1
11 −
1
5
0 0 −
4
5

12
5
0
La solution optimale est X = (0, 4, 5, 0, 0, 11) et z
0
= 11.
II.4 Obtention d’une base réalisable de départ :
Si le problème initial n’est pas sous la forme canonique, même en introdui-
sant des variables d’écart, on n’obtiendra pas aisément une solution de base de
départ : en effet certaines des variables introduites figureront avec le coefficient
−1 du fait du changement du sens de l’inégalité dans la contrainte correspon-
dante. On sera donc amené à introduire de nouvelles variables, dites variables
artificielles qui figureront provisoirement dans la formulation du PL jusqu’à
l’obtention, si elle est possible, d’une base de départ avec les variables initiales.
G. Dantzig et d’autres chercheurs de RAND Corporation ont mis au point la :
II.4 .a Méthode en deux phases :
Début
Mettre les contraintes sous forme d’égalités ;
Rendre positif le second membre des contraintes ;
Introduire les variables artificielles vi dans les contraintes :
n
¸
j=1
aijxj + vi = bi, xi, vj ≥ 0
Sous ces contraintes, résoudre le PL:
max(z) = −
m
¸
i=1
vi
Si ∀i ∈ {1, . . . , m}, vi = 0
Alors
Résoudre le PL initial en prenant comme solution de base de départ
la solution obtenue à l’issue de la première phase
Sinon Il n’y a pas de solution réalisable
Fin.
Remarques :
1. On n’introduira que le nombre nécessaire de variables artificielles (≤ m),
c’est à dire dans les contraintes qui le nécessitent.
2. Lorsqu’une variable artificielle sort de base, cette sortie est définitive et
on la raye de la liste.
3. Le premier tableau du simplexe de la deuxième phase est identique au
dernier tableau de la première phase, à l’exception de la dernière ligne où
l’on reprend les coefficients initiaux de la fonction économique.
54 CHAPITRE II. LA MÉTHODE DU SIMPLEXE
II.4 .b Exemple :
On veut résoudre le PL suivant :
max(z) = 5x
1
+ 7x
2

x
1
+ x
2
≥ 6
x
1
≥ 4
x
2
≤ 3
x
1
, x
2
≥ 0
On introduit les variables d’écart t
1
, t
2
, t
3
≥ 0 ce qui conduit à :
max(z) = 5x
1
+ 7x
2

x
1
+ x
2
− t
1
= 6
x
1
− t
2
= 4
x
2
+ t
3
= 3
x
1
, x
2
, t
1
, t
2
, t
3
≥ 0
Les deux premières équations nécessitent l’introduction de deux variables arti-
ficielles v
1
, v
2
, on obtient :
max(z) = −v
1
−v
2

x
1
+ x
2
− t
1
+ v
1
= 6
x
1
− t
2
+ v
2
= 4
x
2
+ t
3
= 3
x
1
, x
2
, t
1
, t
2
, t
3
, v
1
, v
2
≥ 0
Première phase :
0 0 0 0 0 −1 −1
Base C B x
1
x
2
t
1
t
2
t
3
v
1
v
2
v
1
−1 6 1 1 −1 0 0 1 0
v
2
−1 4
?>=< 89:;
1 0 0 −1 0 0 1
t
3
0 3 0 1 0 0 1 0 0
−10 2 1 −1 −1 0 0 0
v
2
sort et x
1
rentre en base, on élimine v
2
du problème :
0 0 0 0 0 −1
Base C B x
1
x
2
t
1
t
2
t
3
v
1
v
1
−1 2 0
?>=< 89:;
1 −1 1 0 1
x
1
0 4 1 0 0 −1 0 0
t
3
0 3 0 1 0 0 1 0
−2 0 1 −1 1 0 0
II.4. OBTENTION D’UNE BASE RÉALISABLE DE DÉPART: 55
v
1
sort et x
2
entre en base, on élimine v
1
, ce qui achève la première phase :
0 0 0 0 0
Base C B x
1
x
2
t
1
t
2
t
3
x
2
0 2 0 1 −1 1 0
x
1
0 4 1 0 0 −1 0
t
3
0 1 0 0 1 −1 1
0 0 0 0 0
Une solution de base réalisable est donc :
X = (x
1
, x
2
, t
1
, t
2
, t
3
) = (4, 2, 0, 0, 1).
Deuxième phase :
Le PL se formule sous la forme équivalente suivante :
max(z) = 5x
1
+ 7x
2

x
2
− t
1
+ t
2
= 2
x
1
− t
2
= 4
t
1
− t
2
+ t
3
= 1
x
1
, x
2
, t
1
, t
2
, t
3
≥ 0
5 7 0 0 0
Base C B x
1
x
2
t
1
t
2
t
3
x
2
7 2 0 1 −1 1 0
x
1
5 4 1 0 0 −1 0
t
3
0 1 0 0
?>=< 89:;
1 −1 1
34 0 0 7 −2 0
t
3
sort de base et t
1
entre, La colonne de t
2
ne comporte que des nombres
≤ 0, le problème est donc non borné :
5 7 0 0 0
Base C B x
1
x
2
t
1
t
2
t
3
x
2
7 3 0 1 0 0 1
x
1
5 4 1 0 0 −1 0
t
1
0 1 0 0 1 −1 1
41 0 0 0 5 −7
56
Exercices du chapitre II
Exercice II.1
Un chalutier est équipé pour la pêche de trois sortes de crustacés, C
1
, C
2
, C
3
. La
capacité totale de pêche est de 1000 tonnes. Au débarquement, on effectue un
tri sur la cargaison et seuls 80% de C
1
, 95% de C
2
et 90% de C
3
sont utilisables
à la vente. Par ailleurs la capacité de traitement est de 900 tonnes au maximum.
Pour préserver les espèces, la différence entre la quantité pêchée de C
1
et de la
totalité des deux autres espèces, ne doit pas dépasser 100 tonnes. Le capitaine
veut maximiser le bénéfice sachant qu’une tonne de C
1
pêché et conditionné
dégage un bénéfice de 125 ¤ de C
2
, 84 ¤ et de C
3
, 78 ¤.
1. Formuler algébriquement le PL ainsi posé (on pourra arrondir aux entiers
les plus proches les coefficients de la fonction économique).
2. résoudre le PL par la méthode du simplexe.
Exercice II.2
Résoudre le PL suivant en utilisant la méthode des pénalités pour trouver une
première solution de base réalisable.
max(z) = 3x
1
+ 4x
2
+x
3

x
1
+ 2x
2
+ 2x
3

8
3
x
1
+ 2x
2
+ 3x
3

7
3
x
1
, x
2
, x
3
≥ 0
57
Chapitre III
Dual
III.1 Introduction :
Etant donné un PL du type,
max(z) =
n
¸
j=1
c
j
x
j

n
¸
j=1
a
ij
x
j
≤ b
i
, i ∈ ¦1, . . . ,m¦
x
j
≥ 0, pour j ∈ ¦1, . . . , n¦
(III.1)
on peut considérer qu’il concerne une entreprise E
1
fabricant n biens j, j ∈
¦1, . . . , n¦ et faisant intervenir m ressources i, i ∈ ¦1, . . . , m¦. Le problème que
peut se poser l’entreprise est le suivant :
Etant donnée la disponibilité b
i
pour chaque ressource i et le profit unitaire c
j
pour chacun des biens j, quel doit être le niveau de production de chaque bien
j pour que la quantité de bien i consommée reste inférieure à la disponibilité b
i
et que le profit total soit maximal ?
Supposons qu’une autre entreprise E
2
, en rupture de stock, désire racheter les
ressources de la première, le problème qu’elle va se poser et le suivant :
Etant donné un prix unitaire c
j
pour chacun n biens j et une disponibilité b
i
pour chacune des m ressources i, quel doit être le prix unitaire minimum d’achat
y
i
de chaque ressource i pour que la valeur totale des ressources consommées
par chaque bien j soit supérieure ou égale à c
j
(pour que cela rester intéressant
pour l’entreprise E
1
et que le prix total d’achat des ressources disponible soit
minimum?
Ce deuxième problème constitue le problème dual du premier, il peut se mettre
sous la forme :
min(z) =
m
¸
i=1
b
i
y
i

m
¸
i=1
a
ij
y
i
≥ c
j
, j ∈ ¦1, . . . ,n¦
y
i
≥ 0, pour i ∈ ¦1, . . . , m¦
(III.2)
58 CHAPITRE III. DUAL
On voit aisément que les contraintes,
m
¸
i=1
a
ij
y
i
≥ c
j
, j ∈ ¦1, . . . ,n¦ (III.3)
impliquent que le prix d’achat des ressources par l’entreprise E
2
reste supérieur
au profit que peut en tirer l’entreprise E
1
, c’est à dire,
m
¸
i=1
b
i
y
i

n
¸
j=1
c
j
x
j
ce qui est conforme aux lois de l’économie, on voit donc intuitivement que le mi-
nimum atteint par le deuxième problème doit être égal au maximum du premier
problème. La théorie montre que c’est le cas quand le problème a des solutions.
III.2 Définitions et exemples :
III.2 .a Primal et Dual :
Les PL standards (III.1) et (III.2) sont appelés respectivement problèmes
primal et dual :
Primal
max(z) =
n
¸
j=1
c
j
x
j

n
¸
j=1
a
ij
x
j
≤ b
i
, i ∈ ¦1, . . . ,m¦
x
j
≥ 0, pour j ∈ ¦1, . . . , n¦
Dual
min(z) =
m
¸
i=1
b
i
y
i

m
¸
i=1
a
ij
y
i
≥ c
j
, j ∈ ¦1, . . . ,n¦
y
i
≥ 0, pour i ∈ ¦1, . . . , m¦
III.2 .b Exemples :
Primal
max(z
1
) = x
1
+ 3x
2

x
1
+ x
2
≤ 14
−2x
1
+ 3x
2
≤ 12
2x
1
− x
2
≤ 12
x
1
, x
2
≥ 0
Dual
min(z
2
) = 14y
1
+ 12y
2
+ 12y
3

y
1
− 2y
2
+ 2y
3
≥ 1
y
1
+ 3y
2
− y
3
≥ 3
y
1
, y
2
, y
3
≥ 0
Remarque : Le PL initial doit impérativement être mis sous forme canonique
avant de déterminer son dual, ainsi dans l’exemple qui suit,
III.3. PROPRIÉTÉS DE LA DUALITÉ: 59
min(z
1
) = −2x
1
+ 4x
2

3x
1
+ x
2
≥ 10
4x
1
− 3x
2
≤ 8
x
1
− x
2
≤ 6
x
1
, x
2
≥ 0
on écrira :
Primal
min(z
1
) = −2x
1
+ 9x
2

3x
1
+ x
2
≥ 10
−4x
1
+ 3x
2
≥ −8
−x
1
+ x
2
≥ −6
x
1
, x
2
≥ 0
Dual
max(z
2
) = 10y
1
−8y
2
−6y
3

3y
1
− 4y
2
− y
3
≤ −2
y
1
+ 3y
2
+ y
3
≤ 9
y
1
, y
2
, y
3
≥ 0
III.3 Propriétés de la dualité :
On démontre les théorèmes suivants :
Théorèmes :
– Le dual du PL dual est le PL primal.
– Si le primal est non borné, le dual est contradictoire. Si le primal est
contradictoire, le dual est non borné ou contradictoire. Si le primal admet
une solution finie ¯ x alors le dual admet une solution optimale finie ¯ y qui
vérifie : z
1
(¯ x) = z
2
(¯ y).
– A toute variable d’écart primale (resp. duale) positive correspond une va-
riable structurelle duale (resp. primale) nulle. A toute variable structurelle
primale (resp. duale) positive correspond une variable d’écart duale (resp.
primale) nulle. On note, x
j
(resp. y
i
)les variables structurelles du primal
(resp. dual) et t
i
(resp. u
j
) les variables d’écart du primal (resp. dual).

x
j
= 0 → u
j
> 0
x
j
> 0 ← u
j
= 0
t
i
= 0 → y
i
> 0
t
i
> 0 ← y
i
= 0

III.4 Passage du dernier tableau simplexe du pri-
mal au dernier tableau simplexe du dual :
Au signe près, on a les correspondances suivantes :
ligne x
j
(resp. t
i
) en base ←→ colonne u
j
(resp.y
i
) hors base.
colonne x
j
(resp. t
i
) hors base ←→ ligne u
j
(resp.y
i
) en base.
ligne c
j
−z
j
(primal) ←→ ligne z
i
−b
i
.
60 CHAPITRE III. DUAL
Exemple :
Base B x
1
x
2
t
1
t
2
t
3
x
1
6 1 0
3
5

1
5
0
x
2
8 0 1
2
5
1
5
0
t
3
8 0 0 −
4
5
3
5
1
30 0 0 −
9
5

2
5
0
En utilisant les propriétés vues ci-dessus, on obtient le tableau final simplexe
du dual :
Base B y
1
y
2
y
3
u
1
u
2
y
1
9
5
1 0
4
5

3
5

2
5
y
2
2
5
0 1 −
3
5
1
5

1
5
30 0 0 −8 −6 −8
61
Exercices du chapitre III
Exercice III.1
Une entreprise fabrique 3 produits A, B et C qui nécessitent matières premières
et main d’œuvre qui sont disponibles en quantité limitées suivant le tableau
ci-dessous :
Produits A B C Disponibilité
Matières premières(en kg) 4 2 1 6000
Main d’œuvre (en h) 2 0.5 3 4000
Bénéfice par unité (en ¤) 60 20 40
De plus les capacités de stockage ne peuvent excéder 2500 unités.
1. Formuler algébriquement le PL ainsi posé.
On note x
i
, i ∈ ¦1, 2, 3¦ les variables structurelles du problème et t
i
, i ∈
¦1, 2, 3¦ les variables d’écarts. On considère le tableau du simplexe cor-
respondant à notre PL:
60 20 40 0 0 0
Base C B x
1
x
2
x
3
t
1
t
2
t
3
x
1
60 1400 1
11
20
0
3
10

1
10
0
x
3
40 400 0

1
5
1

1
5
2
5
0
t
3
0 700 0
13
20
0

1
10

3
10
1
0 0 −5 0 −10 −10 0
2. Déterminer un plan optimal de fabrication hebdomadaire.
3. Déterminer le PL dual, son dernier tableau par la méthode du simplexe
et sa solution optimale.
4. On envisage la fabrication d’un nouveau produit, D, qui nécessite 1.5kg de
matières premières et 2.5h de main d’œuvre par unité. La fabrication d’une
unité de ce produit revient à 70 ¤. Quel est le prix de vente minimum à
donner au produit pour qu’il soit intéressant de le fabriquer? (on supposera
que le bénéfice net est égal à la différence du prix de vente et du coût de
fabrication, on notera p ce bénéfice.)
62
63
Chapitre IV
Analyse de sensibilité, PL
paramétrique
Dans la pratique, on a à faire face aux situations suivantes :
– Le profit unitaire de chaque activité peut varier soit à cause de la conjonc-
ture, soit qu’il ait mal été estimé.
– Les disponibilités peuvent varier et ainsi modifier les valeurs des seconds
membres des contraintes.
Grâce à la dualité on pourra se contenter de traiter le premier type de pro-
blème. On suppose que l’on a affaire à un PL sous forme standard admettant
des solutions optimales réalisables. Dans cette configuration, si l’on remplace le
coefficient c
i
d’une variable hors base x
i
par c

i
= c
i
+α, il se peut que la quantité
c

i
− z

i
correspondante ne soit plus négative et que la solution obtenue ne soit
plus optimale. La variable x
i
sera candidate pour entrer en base. La plus petite
valeur [α[ telle que, lorsque c
i
est remplacé par c

i
, la variable x
i
est candidate
à rentrer en base, est appelée coût réduit de la variable x
i
. La signification
économique est que pour les variables hors base, la valeur est nulle, ce qui veut
dire que les activités correspondantes ne sont pas profitables, le problème est
donc de savoir pour quelles valeurs des coefficients de la fonction économique
elles le deviennent.
IV.1 Paramétrisation de la fonction économique
Considérons le PL suivant :
max(z) =
n
¸
j=1
c
j
x
j

n
¸
j=1
a
ij
x
j
= b
i
, i ∈ ¦1, . . . ,m¦
x
j
≥ 0, pour j ∈ ¦1, . . . , n¦
64 CHAPITRE IV. ANALYSE DE SENSIBILITÉ, PL PARAMÉTRIQUE
On va poser, c
j
= c

j
+ λc

j
, ∀i ∈ ¦1, . . . , n¦. La fonction économique devient
une fonction de λ:
z(λ) =
n
¸
i=1
(c

i
+λc

i
)x
i
Le domaine de variation de λ peut être découpé en un nombre fini d’intervalles
pour chacun desquels correspond une solution optimale différente. Ces intervalles
sont appelés intervalles de stabilité .
Supposons qu’il existe une solution optimale ¯ x(λ
0
) du PL pour la valeur λ = λ
0
.
A cette solution correspond un tableau final du simplexe pour lequel toutes les
quantités c
j
−z
j
sont négatives. Comme ici,
z
j
=
m
¸
i=1
c
i
x
ij
=
m
¸
i=1
(c

i

0
c

i
)x
ij
, j ∈ ¦1, . . . , n¦
On en déduit,
λ
0

c

j

m
¸
i=1
c

i
x
ij

+

c

j

m
¸
i=1
c

i
x
ij

≤ 0, j ∈ ¦1, . . . , n¦
Posons C

j
= c

j

m
¸
i=1
c

i
x
ij
et C

j
= c

j

m
¸
i=1
c

i
x
ij
.
La solution ¯ x(λ) restera optimale si toutes les quantités correspondantes z
j
−c
j
restent négatives, i.e. pour toutes les valeurs de λ qui vérifient :

λ ≤ α
j
= −
C

j
C

j
∀j ∈ ¦1, . . . , n¦,`¦C

j
> 0¦
λ ≥ β
j
= −
C

j
C

j
∀j ∈ ¦1, . . . , n¦,`¦C

j
< 0¦
En posant a
0
= min
j
α
j
et b
0
= max
j
β
j
, l’intervalle de stabilité de la solution
¯ x(λ
0
) est [a
0
, b
0
]. Pour toute valeur de λ prise dans cet intervalle, ¯ x(λ) reste
une solution optimale.
Dans la pratique, on construit les intervalles de stabilité de proche en proche
à partir d’une valeur λ
0
déterminée (souvent 0), qui correspond à un PL sans
paramètre. On poursuit le processus jusqu’à ce que les intervalles de stabilité
recouvrent le domaine de variation de λ tout entier.
Remarque :
Le changement des coûts c
i
ne modifie pas la région admissible, seule la fonc-
tion économique varie. Dans le cas d’un problème à deux variables, si un point
extrême P est solution optimale, on cherche la pente des droites définies par la
fonction économique pour lesquels P reste une solution optimale.
IV.2 Paramétrisation du second membre des contraintes
Considérons le PL suivant :
max(z) =
n
¸
j=1
c
j
x
j
IV.3. EXEMPLE 65

n
¸
j=1
a
ij
x
j
≤ b

i
+ λb

i
, i ∈ ¦1, . . . ,m¦, λ ∈ R
x
j
≥ 0, pour j ∈ ¦1, . . . , n¦
Par dualité on peut se ramener au cas de la paramétrisation de la fonction éco-
nomique. Le dual s’écrit en effet :
min(z) =
m
¸
i=1
(b

i
+λb

i
)y
i

n
¸
i=1
a
ij
y
i
≥ c
j
, j ∈ ¦1, . . . ,n¦
y
i
≥ 0, pour i ∈ ¦1, . . . , m¦
que l’on résout comme à la section précédente.
IV.3 Exemple
max(z) = x
1
+ (3 −3λ)x
2

x
1
+ x
2
≤ 14
−2x
1
+ 3x
2
≤ 12
2x
1
− x
2
≤ 12
x
1
, x
2
≥ 0
Pour λ = 0 la solution optimale a déjà été calculée. Sur chaque intervalle de
stabilité, les valeurs de x
1
et x
2
sont fixées, la valeur optimale de la fonction
économique devient donc une fonction affine par morceaux de la variable λ.
1 3 −3λ 0 0 0
Base C B x
1
x
2
t
1
t
2
t
3
x
1
1 6 1 0
3
5

1
5
0
x
2
3 −3λ 8 0 1
2
5
1
5
0
t
3
0 8 0 0 −
4
5
GFED @ABC
3
5
1
30 −24λ 0 0
−9+6λ
5
−2+3λ
5
0

−9 + 6λ
5
≤ 0
−2 + 3λ
5
≤ 0
=> 0 ≤ λ ≤
2
3
, (x
1
, x
2
) = (6, 8), z = 30 −24λ.
Le premier intervalle de stabilité est donc :

0;
2
3

.
66 CHAPITRE IV. ANALYSE DE SENSIBILITÉ, PL PARAMÉTRIQUE
1 3 −3λ 0 0 0
Base C B x
1
x
2
t
1
t
2
t
3
x
1
1
26
3
1 0 −
1
3
0
1
3
x
2
3 −3λ
16
3
0 1
GFED @ABC
2
3
0 −
1
3
t
2
0
40
3
0 0 −
4
3
0
5
3
74
3
−16λ 0 0 −
7
3
+ 2λ 0
2
3
−λ


7
3
+ 2λ ≤ 0
2
3
−λ ≤ 0
=>
2
3
≤ λ ≤
7
6
, (x
1
, x
2
) =

26
3
,
16
3

, z =
74
3
−16λ.
Le deuxième intervalle de stabilité est donc :

2
3
;
7
6

.
1 3 −3λ 0 0 0
Base C B x
1
x
2
t
1
t
2
t
3
x
1
1 6 1 −
1
2
0 0
1
2
t
1
0 8 0
3
2
1 0 −
1
2
t
2
0 24 0 2 0 1 1
6 0
7
2
−3λ 0 0 −
1
2
λ ≥
7
6
, (x
1
, x
2
) = (6, 0), z = 6.
Le dernier intervalle de stabilité est donc :

7
6
; +∞

.
6
14
30
2/3 7/6

z
O
Fig. IV.1 – Intervalles de stabilité
67
Exercices du chapitre IV
Exercice IV.1
Une petite compagnie de taxis-bus possède 4 véhicules et emploie 6 chauffeurs.
Les véhicules peuvent rouler de jour comme de nuit. Le rendement d’un véhicule
circulant le jour est fixé à 1 tandis que la nuit il vaut 1+λ. Déterminer le nombre
de véhicules devant circuler la nuit en fonction de λ.
Exercice IV.2
Quatre machines M
1
, M
2
, M
3
, M
4
servent à fabriquer trois produits P
1
, P
2
, P
3
.
Le produit P
1
est composé de deux éléments fabriqués respectivement par M
1
et M
3
, P
2
de trois éléments fabriqués respectivement par M
2
, M
3
et M
4
, P
3
de trois éléments fabriqués respectivement par M
1
, M
2
et M
4
. Les machines
M
1
, M
2
, M
3
, M
4
doivent produire quotidiennement respectivement au moins
10, 12, 8, 10 unités pour être rentables.
Déterminer les quantités minimales des trois produits à fabriquer pour mi-
nimiser le coût total de production, si les coût unitaires de production valent
respectivement :
1. 2, 3 et 4 ¤.
2. (2+3λ), (3+2λ) et (4+λ) ¤, où λ est choisi de telle manière que les quan-
tités considérées soient positives ou nulles. Représenter graphiquement la
fonction économique pour les valeurs optimales, en fonction de λ.
68
69
Troisième partie
Processus Stochastiques et
applications
71
Chapitre I
Présentation des processus
stochastiques
I.1 Définition des processus stochastiques
On se souvient qu’une variable aléatoire réelle définit une mise en corres-
pondance biunivoque entre les résultats d’une expérience et des valeurs prises
dans R ou un sous-ensemble de R. Un processus stochastique consiste en la
mise en correspondance biunivoque entre les résultats d’une expérience et une
fonction d’un paramètre t (en général représentant le temps) ou d’une ou plu-
sieurs autres variables indépendantes, prenant ses valeurs dans un ensemble T
et à valeurs dans un ensemble noté E, appelé espaces des états. Cette fonc-
tion du paramètre t est appelée fonction aléatoire . Pour chaque valeur de
t on définit ainsi une variable aléatoire réelle . Si on appelle Ω l’ensemble défi-
nissant les résultats de l’expérience considérée, on définit donc une application
T → V A(Ω, E), t → (ω → X
t
(ω)). que l’on notera pour simplifier X. Si T est
un intervalle de R on parlera de processus stochastique, si T est discret (par
exemple N) on parlera de suite stochastique, à état d’état continu si E est
un intervalle de R, discret si E est discret. Pour ω fixé, l’application t → X
t
(ω)
est appelée trajectoire du processus X.
Exemple n

1 On mesure tous les jours du mois de janvier la pluviométrie
en mm de différentes communes. L’ensemble Ω représente ici la mesure
de la pluviométrie au mois de janvier dans l’ensemble des communes.
T = ¦1, . . . , 31¦ est discret, tandis que l’espace d’états E, qui est un
intervalle de R, est continu. Si on choisit une commune particulière c
1
, on
obtient la réalisation d’une courbe de pluviométrie X
c1
(t) d’autre part,
pour un jour donné t
1
, X
t1
représente une variable aléatoire réelle conti-
nue. Si l’on choisit une autre commune c
2
, on obtient une autre réalisation
X
c2
(t).
Exemple n

2 Sur la carte mémoire d’un appareil photo numérique on consi-
dère l’ensemble Ω des photos qui sont stockées. Le choix d’une photo don-
née constitue une réalisation particulière de l’expérience choisir une photo.
Si la photo est codée en RVB, Chaque pixel de la photo est représenté par
72 CHAPITRE I. PRÉSENTATION DES PROCESSUS STOCHASTIQUES
un triplet (R, V, B) appartenant à ¦0, . . . , 255¦
3
. L’espace T est ici l’en-
semble (fini) des pixels pour le format choisi, et l’espace E l’ensemble
des triplets possibles de couleurs. On a donc ici une suite stochastique à
valeurs discrètes.
t
X
c
1
(
t
)

e
n

m
m
1 2 3 31 t 2 3 31 1
Commune n˚1 Commune n˚2
X
c
2
(
t
)

e
n

m
m
Fig. I.1 – Exemple de processus en temps discret
Exemple n

3 La courbe d’évolution du CAC40 constitue une trajectoire du
processus stochastique continu à espace d’état continu, dont l’espace Ω est
formé de portefeuilles d’actions, le CAC40 étant constitué de l’ensemble
des 40 actions les plus représentatives de l’économie française. La courbe
est continue bien que très perturbée, ce n’est pas le cas pour toutes les
trajectoires.
Fig. I.2 – Exemple de trajectoire : le CAC40
I.2. PROCESSUS DE POISSON 73
I.2 Processus de Poisson
I.2 .a Présentation
Un processus de Poisson est un processus continu à espace d’états discret.
Il sert à décrire de nombreuses situations, citons, le nombre d’appels télépho-
niques à un standard, le nombre d’accidents à un carrefour, le nombre de pannes
sur des appareils, le nombre de clients dans un système de service, etc . . .
I.2 .b Modélisation
Si on note X le processus, en partant de la valeur t = 0, X
t
décrit le nombre
d’événements survenus dans l’intervalle ]0, t], par hypothèse X
0
= 0. Le proces-
sus X est dit de Poisson s’il vérifie les conditions suivantes :
1. Le processus est sans mémoire, ce qui revient à dire que pour un instant
quelconque t, les occurences d’événements avant la date t n’influent pas sur
les occurences d’événements après t. De manière générale, si l’on considère
deux intervalles [t
1
, t
2
] et [t

1
, t

2
] disjoints, le nombre d’événements qui se
produisent dans l’un des intervalles est indépendant des événements qui
se produisent dans l’autre.
2. Si l’on considère t > 0 et h > 0 quelconques, X
t+h
− X
t
est une variable
aléatoire dont les valeurs ne dépendent que de h. On dit que le processus
est homogène dans le temps. Puisque X
0
= 0, la loi de cette v.a. est la
même que celle de X
h
.
3. La probabilité pour qu’au moins deux événements se réalisent en même
temps est négligeable devant la probabilité qu’il ne s’en produise qu’un.
Sous réserve de quelques hypothèses supplémentaires, on montre qu’il existe une
constante λ telle que la v.a. X
t
suive une loi de Poisson de paramètre λt. C’est
à dire que,
∀t ∈]0, +∞[, ∀n ∈ N, P(X
t
= n) =
(λt)
n
n!
exp(−λt).
On a, E(X
t
) = V (X
t
) = λt. On a donc λ =
E(X
t
)
t
, c’est la taux d’arrivée i.e. le
nombre moyen d’arrivées par unité de temps. Cette remarque permettra de dé-
terminer λ expérimentalement en faisant quelques hypothèses supplémentaires.
Soient t, s > 0, le fait que le processus ne dépende pas de son passé implique
que :
P(X
t+s
−X
t
= n[X
u
,u ≤ t) = P(X
t+s
−X
t
= n) =
(λs)
n
n!
exp(−λs)
I.3 Temps d’attente
Etant donné un processus de Poisson X, on s’intéresse à la suite stochastique
T à espace d’états continu qui pour chaque valeur de n ∈ N définit le temps
écoulé jusqu’à la n
eme
occurence de l’événement considéré. La v.a. T
1
vérifie :
P(T1 > t) = P(X
t
= 0) = e
−λt
.
74 CHAPITRE I. PRÉSENTATION DES PROCESSUS STOCHASTIQUES
En effet l’événement (T
1
> t) signifie qu’aucun événement ne s’est produit sur
l’intervalle [0, t]. T
1
suit donc une loi exponentielle de paramètre λ. Pour n ∈ N

,
intéressons-nous à la v.a. T
n+1
− T
n
, qui définit la loi d’inter-arrivées entre la
n
eme
et la (n + 1)
eme
occurence de l’événement.
(∀s ∈ R
+
), P(T
n+1
−T
n
> t) = P(X
s+t
−X
s
= 0) = P(X
t
= 0) = e
−λt
puisque d’une part, si n événements sont arrivés sur l’intervalle ]0, s], il n’y en
aucun sur l’intervalle ]s, s + t], et que d’autre part le processus X est sans
mémoire.
Remarque : X et T décrivent le même processus et l’on a,
∀t ∈ R, ∀n ∈ N, (T
n
≤ t) ≡ (X
t
≥ n).
On déduit des résultats précédents que la v.a. T
n
suit une loi d’Erlang de para-
mètres n, λ définie par :
P(T
n
≤ t) = 1 −
n
¸
k=0
(λt)
k
k!
e
−λt
.
I.4 Détermination expérimentale
On a le résultat suivant :
I.4 .a Théorème
Soit X un processus de Poisson. Si un événement intervient dans l’intervalle
]0, t], t > 0, la probabilité pour qu’il se produise dans un sous-intervalle de lon-
gueur x ≤ t est
x
t
c’est à dire que la v.a. Y
1
associée à cet événement suit une loi
uniforme sur ]0, t]. Plus généralement, s’il y a eu n événements sur l’intervalle
]0, t], les v.a. Y
1
, . . . , Y
n
sont indépendantes et de loi uniforme sur ]0, t]. Cela
implique que lors de la détermination expérimentale de la loi on pourra choisir
des échantillons au hasard dans les intervalles concernés.
I.4 .b Application
Dans une banque ouvrant de 9h à 17h en journée continue, on a choisi un
échantillon de 100 intervalles de 30 minutes durant lesquels on a relevé le nombre
de clients dans la banque. On a fait l’hypothèse que durant la journée chaque
période vérifie les conditions du théoreme I.4 .a, ce qui signifie que les différentes
plages horaires sont identiquement chargées. On a établi le tableau suivant :
Nombre d’arrivées 0 1 2 3 4 5 6 7 8 9 10 11
Nombre de périodes 2 9 14 19 20 15 11 5 3 1 1 0
Calcul de la moyenne :
(0 2 + 1 9 +. . . + 10 1 + 11 0)
100
≈ 4.
On constate que l’histogramme est très proche de celui d’une loi de Poisson de
I.5. GRAPHES ASSOCIÉS À UNE LOI DE POISSON 75
paramètre 4 :
k 0 1 2 3 4 5 6 7 8 9 10 11
100 ×p
k
1.83 7.33 14.6 19.6 19.6 15.6 10.4 6.0 3.0 1.3 0.0 0.0
On valide cette hypothèse avec un test du χ
2
par exemple.
I.5 Graphes associés à une loi de Poisson
Soit X un processus de Poisson de paramètre λ. Sur un petit intervalle
de temps ∆t on peut considérer qu’il n’y a que deux possibilités : soit il y a
une arrivée, avec une probabilité proche de λ∆t, soit il n’y en a aucune avec la
probabilité 1−λ∆t. On obtient le graphe de transitions entre les différents états :
Fig. I.3 – Graphe du processus de Poisson
I.6 Exemple
Dans une station de RER, les trains arrivent à une gare selon un processus
de Poisson de paramètre 4 trains par heure en moyenne. Un voyageur arrive
à la gare où un employé lui déclare que le précédent train est passé il y a une
demi-heure. Quelle est la probabilité que le voyageur doive attendre plus de cinq
minutes le train suivant?
Réponse :
la durée d’attente T entre deux trains suit une loi exponentielle de paramètre
λ = 4. On a
P

T >
1
2
+
1
12
[T >
1
2

= P

T >
1
12

= e

4
12
= e

1
3
.
En utilisant le processus de Poisson X de paramètre 4, on obtient :
P(X 1
12
= 0) =
(
4
12
)
0
0!
e

4
12
= e

1
3
.
76
Exercices du chapitre I
Exercice I.1
Dans un standard téléphonique, on a constaté que le nombre moyen d’appels
arrivant par minute entre 14h et 18h est de 2.5. Sachant que les appels suivent
un processus de Poisson, trouver les probabilités pour que dans une minute
quelconque de l’intervalle [14, 18],
1. Il n’y ait pas d’appel.
2. Il y ait deux appels exactement.
3. Il y ait quatre appels au moins.
Exercice I.2
Un laboratoire d’analyses médicales effectue régulièrement des contrôles de fac-
teur rhésus sur des groupes de 30 personnes.
1. Sachant qu’en moyenne, 15 personnes sur 100 ont un rhésus négatif, expri-
mer la loi de la variable X associant à chacun de ces contrôles le nombre
des personnes contrôlées ayant un rhésus négatif. Calculer l’espérance et
la variance de X.
2. On approche la loi de X par une loi de Poisson. Déterminer le paramètre
de cette loi et donner à l’aide de cette loi les valeurs approchées des évé-
nements : (X < 2) et (X > 3).
Exercice I.3
Des bateaux arrivent dans un port de plaisance suivant un processus de Poisson
de paramètre λ = 2. Le port ne peut accueillir que 3 bateaux par jour. S’il arrive
plus de 3 bateaux, les navires en excès sont envoyés dans un autre port.
1. Quelle est la probabilité pour qu’un jour donné, au moins un bateau soit
refusé?
2. Combien de bateaux seront, en moyenne, accueillis dans une journée?
Exercice I.4
Les véhicules circulant dans une rue suivent un processus de Poisson de pa-
ramètre λ =
1
5
(en secondes). Pour traverser la rue un piéton a besoin de 10
secondes. Quelle est la fraction des intervalles entre deux véhicules, assez grande
pour permettre au piéton de traverser la rue?
77
Chapitre II
Processus de naissance et de
mort
II.1 Introduction
Dans un processus de Poisson, la probabilité de l’occurence d’un événement
est indépendante des événements qui se sont déjà produits. Cela n’est pas une
hypothèse réaliste quand on étudie, par exemple, l’évolution d’une population,
le nombre de naissances ou de morts dépendant de la taille de la population.
Dans le cas général, le taux de naissance dépendra de la taille n de la population,
on le notera λ
n
, de même que l’on notera µ
n
le taux de mort.
II.2 Définition
Considérons un processus stochastique X à espace d’états discret N. Ce
processus décrit un système qui est dans un état noté E
n
, n ∈ N au temps t si
et seulement si X
t
= n. On dira que ce système est un processus de naissance
et de mort, s’il existe des taux positifs ou nuls de naissance λ
n
, n ∈ N et des
taux positifs ou nuls de mort µ
n
, n ∈ N

tels que les conditions suivantes soient
satisfaites :
1. Les changements d’états sont seulement autorisés de l’état E
n
vers l’état
E
n+1
ou de l’état E
n
vers l’état E
n−1
si n ≥ 1 mais seulement de l’état
E
0
à l’état E
1
.
2. Si à l’instant t le système est dans l’état E
n
, la probabilité qu’entre l’ins-
tant t et l’instant t + h la transition se produise vers l’étant E
n+1
est
λ
n
h +o(h) (rappelons que o(h) signifie que lim
h→0
o(h)
h
= 0) et que la tran-
sition se produise vers l’état E
n−1
(si n ≥ 1) est µ
n
h +o(h)
3. La probabilité que plus d’une transition se produise dans l’intervalle [t, t+
h] est o(h).
Exemple : dans la théorie des files d’attente, on verra que l’on peut considérer
l’évolution de la file comme un processus de naissance et de mort où l’état E
n
correspond à la présence de n clients dans le système d’attente, attendant ou
recevant un service.
78 CHAPITRE II. PROCESSUS DE NAISSANCE ET DE MORT
II.3 Modélisation
Nous poserons dans la suite P
n
(t) = P(X
t
= n). Pour n ≥ 0 la probabilité
qu’au temps t +h le système soit dans l’état E
n
a quatre composantes :
1. Il était dans l’état E
n
à l’instant t et aucune transition ne s’est produite.
L’événement associé est :
(X
t
= n) ∩ (aucune naissance ni mort sur l’intervalle) [t,t +h].
La probabilité associée est
P
n
(t)(1 −λ
n
h +o(h))(1 −µ
n
h +o(h).
La probabilité qu’il n’y ait pas de transition étant égale à 1− la probabilité
qu’il y ait une transition. En utilisant les propriétés de o(h), on obtient :
P
n
(t)(1 −λ
n
h −µ
n
h) +o(h).
2. Il était dans l’état E
n−1
au temps t et se trouve dans l’état E
n
à l’instant
t +h. On obtient la probabilité :
P
n−1
(t)λ
n−1
h +o(h).
3. Il était dans l’état E
n+1
au temps t et se trouve dans l’état E
n
à l’instant
t +h. On obtient la probabilité :
P
n+1
(t)µ
n+1
h +o(h).
4. Plus d’une transition s’est produite : probabilité o(h) (négligeable devant
h).
Au total on obtient :
P
n
(t +h) = [1 −λ
n
h −µ
n
h]P
n
(t) +λ
n−1
hP
n−1
(t) +µ
n+1
hP
n+1
(t) +o(h).
En soustrayant P
n
(t), en divisant par h et en passant à la limite, on obtient les
équations différentielles :
∀n ∈ N

, P

n
(t) = −(λ
n

n
)P
n
(t) +λ
n−1
P
n−1
(t) +µ
n+1
P
n+1
(t).
Pour n = 0, on obtient,
P

0
(t) = −λ
0
P
0
(t) +µ
1
P
1
(t).
Si le système est dans l’état E
i
pour un certain i à l’instant t = 0, les conditions
initiales sont :
P
i
(0) = 1, P
j
(0) = 0 pour j = i.
Inutile de préciser que la résolution de tels systèmes est extrêmement complexe.
Il y a cependant des cas particuliers où cela reste relativement aisé. Voyons-en
quelques uns.
II.4. PROBABILITÉS À LONG TERME 79
II.3 .a Processus de naissance pur
On a ici ∀n ∈ N λ
n
= λ, µ
n
= 0. On est conduit au système :

P

n
(t) = −λP
n
(t) +λP
n−1
(t), pour n ≥ 1
P

0
(t) = −λP
0
(t)
P
0
(0) = 1, P
j
(0) = 0, pourj = 0
Les solutions de ce système sont :
∀n ∈ N, t ≥ 0, P
n
(t) =
(λt)
n
e
−λt
n!
.
On retrouve le processus de Poisson, ce qui permet d’en donner une nouvelle
interprétation : c’est un processus de naissance pur à taux constant.
II.3 .b Processus de mort pur
On part d’un système à N + 1 états possibles numérotés de 0 à N. Dans ce
processus nous avons,
∀n ∈ ¦0, . . . , N¦ λ
n
= 0, µ
n
= µ si n ≥ 1, µ
0
= 0.
Intuitivement, il s’agit ici d’une population à N individus dans laquelle il n’y a
que des disparitions et pas de naissance. Ici P
n
(t) est la probabilité que N − n
disparitions se soient produites dans l’intervalle [0, t], on trouve,
P
n
(t) =
(µt)
N−n
(N −n)!
e
−µt
, n ∈ ¦1, . . . , N¦, et P
0
(t) = 1 −
N−1
¸
j=0
(µt)
j
j!
e
−µt
II.4 Probabilités à long terme
Dans le cas général, le calcul des probabilités P
n
(t) s’avère très difficile,
voire impossible. Cependant, dans la plupart des cas, le processus atteint un
état d’équilibre appelé régime stationnaire où les probabilités P
n
(t) tendent
vers une limite p
n
qui ne dépend plus de t. Les dérivées P

n
(t) s’annulent alors
on obtient les équations d’équilibre suivantes :

λ
0
p
0
= µ
1
p
1
λ
n
p
n
= µ
n+1
p
n+1
pour n ∈ N

avec l’équation de normalisation :
+∞
¸
n=0
p
n
= 1
On obtient les solutions :
p
n
=
λ
0
λ
1
. . . λ
n−1
µ
1
µ
2
. . . µ
n
p
0
.
Avec l’équation de normalisation, on obtient p
0
et donc toutes les autres valeurs.
80 CHAPITRE II. PROCESSUS DE NAISSANCE ET DE MORT


n-1 n
n+1

n+1 n-1

n+1 n 1
Fig. II.1 – Graphe du processus de Naissance et de mort
En régime stationnaire, les équations obtenues signifient que pour tout état
E
n
on a :
Flux entrant = Flux sortant
81
Exercices du chapitre II
Exercice II.1
On considère un processus de naissance et de mort pouvant prendre les états
E
0
, E
1
, E
2
, E
3
caractérisé par les paramètres suivants :
λ
0
= 4, λ
1
= 3, λ
2
= 2, , µ
1
= 2, µ
2
= 4, et µ
3
= 4.
1. Construisez le diagramme de transition de ce processus.
2. Déterminer les probabilités en régime stationnaire du processus.
Exercice II.2
On considère un processus de naissance et de mort dans lequel, λ
n
=
α
n + 1
, n ∈
N pour un réel α > 0 et µ
n
= µ, n ∈ N.
Montrer que p
n
=
(
α
µ
)
n
n!
e

α
µ
.
82
83
Chapitre III
Chaînes de Markov
III.1 Définition
Un processus stochastique X = ¦X
t
, t ∈ T¦ à espace d’états E est un pro-
cessus de Markov s’il est homogène dans le temps, i.e. si son comportement
sur un intervalle de T ne dépend que de la longueur de cet intervalle et non de
son origine, et si, ∀¦t
1
, . . . , t
n+1
¦, n ∈ N

, t
1
< t
2
< . . . < t
n+1
et tout ensemble
d’états ¦E
1
, . . . , E
n+1
¦, prenant respectivemet les valeurs x
1
, . . . , x
n+1
,
P(X
tn+1
= x
n+1
[X
t1
= x
1
, . . . , X
tn
= x
n
) = P(X
tn+1
= x
n+1
[X
tn
= x
n
)
Intuitivement, cela signifie que le futur du processus ne dépend que de l’état
présent E
n
et non de l’histoire du processus.
On s’intéressera ici aux processus à espace d’états discret, appelé chaîne de
Markov. Pour simplifier les notations on supposera que la valeur prise dans
l’état E
n
, n ∈ N est n. De la même manière, on supposera que T est discret
et on noter m, m ∈ N au lieu de t
m
, on aura donc à considérer la suite X
n
, n ∈ N.
III.2 Probabilités de transition
III.2 .a Transition d’ordre 1
Si au temps 0 on est dans l’état E
i
, on va définir les probabilités de passer
dans un autre état E
j
à l’instant suivant :
p
ij
= P(X
1
= j[X
0
= i)
De manière générale on va s’intéresser aux probabilités :
P(X
n+1
= j[X
n
= i)
Ces probabilités appelées probabilités de transition dépendent en général de
l’état de départ E
n
, mais comme on a supposé le processus homogène dans le
temps il n’en est rien. On aura donc pour toute valeur de n,
P(X
n+1
= j[X
n
= i) = p
ij
84 CHAPITRE III. CHAÎNES DE MARKOV
Ces quantités vérifient les propriétés suivantes :

0 ≤ p
ij
≤ 1, ∀(i, j) ∈ N
2
+∞
¸
j=0
p
ij
= 1, ∀i ∈ N
La matrice ((p
ij
)) est appelée matrice stochastique .
III.2 .b Transitions d’ordre n
On va s’intéresser maintenant au passage d’un état E
i
à un état E
j
en n
transitions. Le processus étant homogène, cela ne dépend pas de l’instant initial.
On va donc poser :
p
n
ij
= P(X
n
= j[X
0
= i) = P(X
m+n
= j[X
m
= i), ∀m ≥ 0, n > 0.
Pour passer de l’état E
i
à l’état E
j
en m+n transitions, on peut passer par n’im-
porte quel état E
k
après m transitions et repartir vers l’état E
j
en n transitions.
On a donc,
(X
m+n
= j) ∩ (X
0
= i) =
¸
k
((X
m+n
= j) ∩ (X
m
= k)) ∩ (X
0
= i)
Les événements (X
m
= k, k ∈ N formant un système complet d’événements. On
obtient donc,
P(X
m+n
= j[X
0
= i) =
+∞
¸
k=0
P(X
m+n
= j[(X
m
= k) ∩ (X
0
= i))
=
+∞
¸
k=0
P(X
m+n
= j[(X
m
= k))P(X
m
= k[X
0
= i),
et d’après les propriétés d’homogénéité, P(X
m+n
= j[X
m
= k) = P(X
n
=
j[X
0
= k). On obtient ainsi les équations de Chapman-Kolmogorov :
p
m+n
ij
=
+∞
¸
k=0
p
n
ik
p
m
kj
, ∀n, m, i, j ≥ 0
En particulier, si E est fini, et si l’on nomme P la matrice de transition d’ordre 1,
la matrice de n-transitions est égale à P
n
. En effet, P
(2)
= P
2
et par récurrence
P
(n)
= P
(n−1)
P = P
n
.
III.2 .c Exemple
Un système de communication transmet les bits 0 et 1 à travers plusieurs
étapes. A chaque étape, la probabilité pour qu’un bit soit reçu de manière iden-
tique à l’étape suivante est 0.75. Quelle est la probabilité qu’un 0 entré à la
première étape soit reçu comme 0 à la cinquième?
Réponse :
La matrice de transition d’ordre 1 est ici :
P =

0.75 0.25
0.25 0.75

III.3. CLASSIFICATION DES ÉTATS D’UNE CHAÎNE 85
La probabilité cherchée est obtenue en prenant l’élément P
4
00
de la matrice P
4
.
On a,
P
4
=

0.53125 0.46875
0.46875 0.53125

4
La probabilité cherchée est donc égale à 0.53125.
III.3 Classification des états d’une chaîne
Etats communicants : Deux états E
i
et E
j
des états communicants si et
seulement si il existe un entier m tel que p
m
ij
> 0 et un entier n tel que
p
n
ji
> 0.
Etat récurrent : Si le retour à un état E
i
est certain, E
i
est dit récurrent .
L’état est dit récurrent positif si le temps moyen pour y revenir est fini,
récurrent nul si le temps est infini.
Etat périodique : S’il existe un entier d tel que l’état E
i
ne puisse être atteint
qu’aux temps d, 2d, . . . , nd,. . . , E
i
est dit périodique de période d.
Etat transitoire : Si le retour à un état E
i
n’est pas certain, l’état est dit
transitoire.
Etat absorbant : Un état E
i
est dit absorbant si une fois atteint il est im-
possible de le quitter, i.e. p
ii
= 1.
Définition: Une chaîne est dite apériodique si elle ne possède aucun état
périodique.
III.4 Propriétés des chaînes de Markov
III.4 .a relation d’équivalence sur l’ensemble des états
On définit une relation, que l’on notera ↔entre deux états E
i
et E
j
, E
i
↔ E
j
si et seulement si E
i
et E
j
sont communicants. Cette relation est une relation
d’équivalence. Ainsi les états d’une chaîne de Markov peuvent être partitionnés
en classes d’équivalence d’états. Une chaîne sera dite irréductible si et seule-
ment si elle ne possède qu’une seule classe d’équivalence pour cette relation.
Une chaîne irréductible peut traduire l’évolution d’un système réparable et/ou
soumis à une politique de maintenance préventive : le système étant toujours réparé,
il n’existe pas d’état absorbant.
Définition
Une chaîne de Markov irréductible et apériodique est dite ergodique.
Obention des classes d’équivalence
L’obtention des classes d’équivalence se fait en calculant la matrice de fer-
meture transitive du graphe associé à la chaîne de Markov. On appelle classe
finale une classe formée d’états récurrents et classe de transition une classe
formée d’états transitoires. Chaque trajectoire entre à un moment donné dans
une classe finale et ne la quitte plus, il y a absorption.
86 CHAPITRE III. CHAÎNES DE MARKOV
III.4 .b Exemple
Considérons un système à quatre états E
1
, E
2
, E
3
, E
4
. Les probabilités de
transition d’ordre 1 sont données par la matrice suivante :
P =

¸
¸
¸
0.6 0.3 0 0.1
0.1 0.4 0.5 0
0.75 0 0.2 0.05
0 0 0 1
¸

Le graphe associé est :
?>=< 89:;
1
0.6
0.3

0.1

?>=< 89:;
2
0.4
·
0.1

0.5

?>=< 89:;
4
1

?>=< 89:;
3
0.05

0.75

0.2

La matrice associée à ce graphe est :
M =

¸
¸
¸
1 1 0 1
1 1 1 0
1 0 1 1
0 0 0 1
¸

La matrice de fermeture transitive est :
Γ =

¸
¸
¸
1 1 1 1
1 1 1 1
1 1 1 1
0 0 0 1
¸

Seul l’état E
4
est absorbant, les états E
1
, E
2
, E
3
sont transitoires, on n’y passe
jusqu’à ce que l’on arrive à l’état E
4
. Il y a deux classes d’équivalence pour la
relation ↔: la classe ¦E
4
¦ qui est finale, E
4
étant un état récurrent, et la classe
¦E
1
, E
2
, E
3
¦ qui est une classe de transition (formée d’états transitoires).
III.4 .c Théorème 1
Soit (X) une chaîne de Markov irréductible. Une et une seule des assertions
suivantes est vérifiée :
1. Tous les états sont récurrents positifs.
2. Tous les états sont récurrents nuls.
3. Tous les états sont transitoires.
Notons π
(n)
i
la probabilité que la chaîne soit dans l’état E
i
au temps n, π
(n)
i
=
P(X
n
= i). On va supposer ici que E est fini de taille N. D’après les propriétés
III.4. PROPRIÉTÉS DES CHAÎNES DE MARKOV 87
des chaînes de Markov, où la présence dans un état donné ne dépend que du
précédent, on déduit que
π
(n)
i
=
N
¸
k=0
π
(n−1)
k
p
ki
d’après le fait que les événements (X
n−1
= k), k ∈ ¦0, . . . , N¦ forment un sys-
tème complet d’événement, en utilisant la formule des probabilités totales et le
fait que P(X
n
= i[X
n−1
= k) = p
ki
.
Appelons π
n
= (π
(n)
0
, π
(n)
1
, . . . , π
(n)
N
) le vecteur des probabilités d’états à l’ins-
tant n, on a :
π
n
= π
n−1
P = π
0
P
n
.
Dans certains cas, que nous allons voir, π
(n)
admet une limite quand n → +∞.
On la notera π, elle vérifie l’équation :
π = πP.
III.4 .d Théorème 2
Si X est une chaîne de Markov ergodique, les probabilités limites π =
lim
n→+∞
π
(n)
existent toujours et sont indépendantes de la distribution initiale. Si
tous les états ne sont pas pas récurrents positifs alors π = (0, . . . , 0) et il n’existe
pas de distribution stationnaire. Dans le cas contraire π = (π
0
, π
1
, . . . , π
N
) forme
une distribution stationnaire et le temps moyen de retour à l’état E
i
est
1
π
i
. On
a évidemment :
N
¸
i=0
π
i
= 1.
III.4 .e Exemple
Reprenons l’exemple III.2 .c, il est clair que la chaîne est ergodique et possède
une distribution stationnaire π = (π
0
, π
1
).
On obtient les équations :

π
0

1
= 1
π
0
= 0.75π
0
+ 0.25π
1
π
1
= 0.25π
0
+ 0.75π
1
D’où π
0
= π
1
= 0.5.
88
Exercices du chapitre III
Exercice III.1
La sociologie s’intéresse à la question suivante : dans quelle mesure le statut
social des parents influe sur celui des enfants. On considère pour simplifier trois
classes de population, "pauvre", "moyenne" et "riche" (états E
1
, E
2
, E
3
), On
a la matrice de transition suivante :
P =

¸
0.45 0.48 0.07
0.05 0.7 0.25
0.01 0.5 0.49
¸

1. Calculer la probabilité de passer de la classe riche à la classe pauvre en
deux générations.
2. Calculer la probabilité de passer de la classe pauvre à la classe riche en
deux générations.
3. Déterminer les probabilités stationnaires.
Exercice III.2
Les vacanciers partent en général, soit à la mer état E
1
, soit à la montagne, état
E
2
, soit à l’étranger, état E3. La matrice de transition est :
P =

¸
0.3 0.1 0.6
0.5 0.3 0.2
0.2 0.6 0.2
¸

Déterminer le flôt des congés en régime stationnaire.
Exercice III.3
Dans des temps reculés, un tout petit village se compose d’un paysan, d’un
tailleur et d’un charpentier. L’argent n’y a pas cours et il y règne une économie
de troc. Le paysan utilise
7
16
de sa production, le charpentier
5
16
et le tailleur
1
4
.
Le tailleur utilise la moitié de sa production, le paysan
3
16
et le charpentier
5
16
.
Le charpentier utilise
1
6
de sa production, le paysan la moitié et le tailleur
1
3
.
Des banquiers de passage veulent introduire l’argent. Pour cela ils estiment en
pourcentage les productions respectives de respectives p
1
, p
2
et p
3
de P, T, et C.
1. Tracer le graphe des échanges de troc.
2. Déterminer p
1
, p
2
et p
3
de telle manière que l’économie de troc ne voit
pas son équilibre brisé.
89
Chapitre IV
Files d’attente
IV.1 Introduction
La théorie des files d’attente a pour but de modéliser les situations qui ré-
pondent au schéma suivant : des clients arrivent à intervalles aléatoires dans
un système comportant un ou plusieurs serveurs auxquels ils vont adresser une
requête. La durée de service est également aléatoire. De nombreux cas de la
vie courante répondent à ce schéma : service dans une banque ou un organisme
public, ateliers d’usinage ou de production, ici les clients sont des ordres de pro-
duction à exécuter et les serveurs des machines, péages autoroutiers etc . . .
Les principales questions que l’on se pose sont :
– quel est le temps moyen avant qu’un client soit servi.
– quel est le nombre moyen de clients dans le système.
– quel est le taux d’utilisation moyen des serveurs.
Dans le cas général il y a de nombreux modèles de description : des systèmes
à serveurs parallèles ou en série, de même les arrivées des clients peuvent être
groupées ou individuelles et de la même façon il peut y avoir différents types de
service.
Les clients forment une ou plusieurs files d’attente, et il y a des règles de sélec-
tion pour le service, c’est ce que l’on appelle la discipline de service la plus
courante étant la discipline FIFO . La capacité du système , c’est à dire le
nombre de clients pouvant être présents dans le système est limitée ou non.
Dans le cadre de ce cours, nous nous bornerons à un seul serveur et arrivées et
services individuels.
Notation de Kendall on note A/B/S (N)une file d’attente où A est le code
de la loi des arrivées, B, celui de la loi des services et S le nombre des guichets
(tous identiques) fonctionnant en parallèle, N désigne le nombre maximal de
clients admis dans le système (infini si l’indication est omise).
Dans le cadre de ce cours, nous intéresserons aux files M/M/1 et M/M/1
(N).
Définitions :
– On appelle file d’attente l’ensemble des clients qui attendent d’être ser-
vis.
90 CHAPITRE IV. FILES D’ATTENTE
– On appelle système d’attente l’ensemble des clients qui font la queue,
y compris ceux ou celui qui est en train d’être servi.
IV.2 Evaluation du système, mesures à long terme
On appellera état du système à l’instant t, le nombre N
t
de clients présents
dans le système d’attente. On notera p
n
(t) la probabilité que n clients soient
présents dans le système à l’instant t i.e. P(N
t
= n) et p
n
= lim
t→+∞
p
n
(t), n ∈ N,
ce sont les probabilités en régime stationnaire, qui signifient que dans le long
terme exactement n clients soient présents dans le système ou qui indiquent la
proportion du temps, en régime stationnaire (avec quelques hypothèses supplé-
mentaires), où le système contient n clients, ce qui ne signifie pas qu’il devient
parfaitement déterministe.
La connaissance de ces probabilités permet de calculer de nombreuses mesures
de performance du système d’attente que l’on étudie. On considèrera en parti-
culier les mesures suivantes :
– L
s
: nombre de clients attendu dans le système d’attente (en régime sta-
tionnaire).
– L
q
: nombre de clients dans la file d’attente (en régime stationnaire).
– W
s
: temps attendu passé par chaque client dans le système (en régime
stationnaire).
– W
q
: temps attendu passé par chaque client dans la file d’attente (en régime
stationnaire).
Par définition on a :
L
s
=
+∞
¸
n=0
np
n
.
Si le système comporte c serveurs,
L
q
=
+∞
¸
n=c+1
(n −c)p
n
.
En effet, il ya (n −c) clients dans la file si et seulement s’il y a n clients dans le
système.
IV.2 .a Lois de Little
Appelons λ le taux d’entrée moyen de clients dans le système d’attente, on
a les formules de Little :
L
s
= λW
s
et L
q
= λW
q
.
La durée moyenne de service par client est : W
s
−W
q
.
Le nombre moyen de serveurs occupés est : L
s
−L
q
.
IV.3. FILES D’ATTENTE M/M/1 91
IV.3 Files d’attente M/M/1
Un système M/M/1 est caractérisé par le fait que c’est processus de nais-
sance et de mort, où les paramètres d’arrivée sont : λ
n
= λ, n ∈ N et les
paramètres de sortie : µ
0
= 0, µ
n
= µ,n ∈ N

. On supposera dans notre cas que
les clients arrivent suivant un processus de Poisson de paramètre λ et que le
temps de service suit une loi exponentielle de paramètre µ.
La signification de ces paramètres est la suivante : λ est le nombre moyen d’ar-
rivées par unité de temps et µ, le nombre moyen de clients pouvant être servis
par unité de temps. La durée moyenne d’un service est donc
1
µ
IV.3 .a Probabilités associées
Pour que le service puisse s’effectuer sans allongement indéfini de la file, il
faut que λ < µ, d’après les résultats vus sur les processus de naissance et de
mort, on a :
p
n
=

λ
µ

n
p
0
De la condition,
+∞
¸
k=0
p
k
= 1, on déduit que sous les conditions indiquées, p
0
=
1 −
λ
µ
et finalement,
p
n
=

λ
µ

n

1 −
λ
µ

Posons ρ =
λ
µ
, on obtient, en régime stationnaire,

W
q
=
ρ
µ
1 −ρ
L
q
= λW
q
=
ρ
2
1 −ρ
W
s
=
1
µ −λ
L
s
= λW
s
=
λ
µ −λ
Posons ρ =
λ
µ
.
La probabilité que le serveur soit occupé est :
1 − P(N = 0) = 1 −(1 −ρ) = ρ
La probabilité qu’il y ait plus de n clients dans le système est :
P(N ≥ n) = (1 −ρ)
¸
k≥n
ρ
k
= ρ
n
.
92 CHAPITRE IV. FILES D’ATTENTE
IV.3 .b Exemple n◦1
Chez un médecin la durée moyenne d’une consultation est de 15 minutes,
celui-ci prend des rendez-vous toutes les 20 minutes, les clients étant supposés
arriver de manière aléatoire. D’après le modèle que nous utilisons nous avons
ici, l’unité de temps étant l’heure, λ = 3 et µ = 4. On obtient L
s
=
3
4 −3
= 3 et
W
q
=
3
4(4 −3)
=
3
4
. Cela signifie que le nombre moyen de clients dans la salle
d’attente et dans le cabinet du médecin est de 3 et leur temps moyen d’attente
dans la salle d’attente est de
3
4
d’heure, tandis que le temps moyen passé chez
le médecin est de 1 heure.
La probabilité qu’il y ait plus de 4 clients dans le système d’attente est de
(
3
4
)
4
≈ 0.316, tandis que le médecin est occupé en moyenne
3
4
d’heure par
heure.
On montre que la probabilité que l’attente dans la file soit inférieure à une durée
t est :
P(T
f
≤ t) = 1 −

λ
µ

e
−(µ−λ)t
De même la probabilité que le temps passé dans le système d’attente soit infé-
rieur à une durée t est :
P(T
s
≤ t) = 1 −e
−(µ−λ)t
Dans l’exemple IV.3 .b, la probabilité d’attendre moins de 20 minutes chez le
médecin avant la consultation est : 1 −
3
4
e

1
3
≈ 0.463 et la probabilité de passer
moins de 20 minutes chez le médecin est 1 −e

1
3
≈ 0.283. La probabilité qu’un
patient attende plus d’une heure est P(T
f
> 1) = 1 − P(T
f
≤ 1) =
3
4
e
−1

0.276.
IV.4 Files M/M/1 (N)
Dans de nombreux cas le nombre de clients dans le système d’attente est
limité, soit N le nombre maximum de clients admissibles. Dans le système de
naissance et de mort associé, on a maintenant : λ
n
= λ, n ∈ ¦0, . . . , N −
1¦, 0 sinon et de même µ
n
= µ, n ∈ ¦1, . . . , N¦, 0 sinon.
En régime stationnaire, on a donc, en posant ρ =
λ
µ
:
p
n
= ρ
n
1 −ρ
(1 −ρ
N+1
)
, si λ = µ
p
n
=
1
N + 1
, si λ = µ.
On obtient
L
s
=
ρ
(1 −ρ)

(N + 1)ρ
N+1
(1 −ρ
N+1
)
si λ = µ.
IV.4. FILES M/M/1 (N) 93
et
L
s
=
N
2
si λ = µ
L
q
= L
s
−(1 −p
0
).
La probabilité pour que le serveur soit occupé est :
(1 −p
n
)ρ = ρ
(1 −ρ
N
)
(1 −ρ
N+1
)
.
W
s
=
L
s
(λ −p
N
)
et
W
q
=
L
q
λ(1 −p
N
)
.
94
Exercices du chapitre IV
Exercice IV.1
Chez un coiffeur, il entre λ = 5 clients à l’heure, et on sert µ = 6 clients à
l’heure. Des clients attendent en permanence.
1. Quelle est la fraction des clients qui n’aura pas besoin d’attendre?
2. Calculer le nombre moyen de clients dans le système et dans la file.
3. Dans le salon il y a quatre chaises réservées aux clients qui attendent.
Quelle est la probabilté pour qu’un nouveau client demeure debout.
4. Calculez la durée moyenne d’attente dans le salon et dans la file.
Exercice IV.2
Une succursale de banque est ouverte chaque jour ouvrable, de 9h à 17h en
journée continue. Elle accueille en moyenne 64 clients par jour. Il y a un guichet
unique, la durée moyenne de chaque traitement est de deux minutes et demie.
Les clients font la queue dans leur ordre d’arrivée, aucun client n’étant refusé.
On suppose que l’on fonctionne en régime stationnaire.
1. Calculer le temps moyen passé à attendre dans la queue, puis le temps
moyen passé dans la banque.
2. Quelles sont les probabilités pour qu’il n’arrive aucun client entre 15h et
16h? Que 6 clients arrivent entre 16h et 17h?
3. Quelle est, en moyenne et par heure, la durée pendant laquelle l’employé
du guichet ne s’occupe pas des clients?
4. Quelle est la probabilité d’avoir quatre clients dans la file d’attente?
5. Quelle est la probabilité qu’un client passe plus d’un quart d’heure dans
la banque?
On fait maintenant l’hypothèse que la banque ne peut accueillir plus de
cinq clients à la fois, ce qui arrivent en surnombre repartent.
6. Tracer le graphe des transitions associé à ce processus.
7. Déterminer les probabilités de chaque état en régime stationnaire et cal-
culer le nombre moyen de clients refusés par jour ainsi que le temps d’in-
activité de l’employé.
95
Quatrième partie
Eléments de Fiabilité
97
Chapitre I
Présentation
I.1 Introduction
La fiabilité est l’aptitude d’un système, d’un matériel,. . . ) à fonctionner sans
incident pendant un temps donné. Pour l’AFNOR c’est la caractéristique d’un
dispositif, qui s’exprime par une probabilité, pour que celui-ci accomplisse la
fonction requise, dans des conditions déterminées, pendant une période donnée.
Prévoir la fiabilité est essentiel pour des raisons de sécurité (systèmes de freinage,
système avioniques, systèmes nucléaires, systèmes informatiques, . . . ). La quasi-
impossibilité de réparer certains matériels (satellites par exemple), les problèmes
économiques (coûts de défaillances, gestion du personnel de maintenance, main-
tenance des stocks de pièces de rechange, . . . ) rendent nécessaire la connaissance
de la fiabilité des systèmes utilisés. Dans notre cas nous ne considèrerons que
des situations simples.
I.2 Généralités, terminologie
I.2 .a Fonctions de défaillance et de fiabilité
On considère ici un dispositif unique, ou un groupe de dispositifs identiques
de même provenance utilisés dans des conditions semblables, dont les propriétés
sont susceptibles de se modifier au cours du temps. Au bout d’un certain temps
appelé durée de vie , le système cesse de satisfaire aux conditions d’utilisation.
Définitions
On appelle,
1. fiabilité d’un système S la probabilité notée R(t) que le système n’ait
aucune défaillance sur l’intervalle [0, t].
2. maintenabilité d’un système d’un système réparable S et on note M(t)
la probabilité pour que le système soit réparé avant l’instant t sachant qu’il
est défaillant à l’instant 0, on M(t) = 1 −P(S non réparé sur [0, t]).
3. MTTF (mean time to failure), la durée moyenne de bon fonctionnement
d’un système en état de marche à l’instant initial.
98 CHAPITRE I. PRÉSENTATION
4. MTBF (mean time between failure) la moyenne des temps entre deux
défaillances d’un système réparable, en régime stationnaire.
Si l’on appelle T la v.a. mesurant la durée de bon fonctionnement du système,
on a R(t) = P(T > t = 1 − P(T ≤ t). Si T a pour densité f, on a presque
partout, f(t) = −R

(t).
La MTTF est alors l’espérance de T si elle existe et on a la relation,
MTTF = E(T) =

+∞
0
R(t)dt
On introduit le taux instantané de défaillance λ(t), on obtient,
λ(t) = lim
∆t→0
P(t < T ≤ t + ∆t[T > t)
∆t
On voit que
λ(t) = −
R

(t)
R(t)
et donc que
R(t) = exp

t
0
λ(u)du

.
d’où
T(t) = 1 −exp

t
0
λ(u)du

On constate expérimentalement que dans la plupart des cas la courbe représen-
tative de cette fonction est une courbe en baignoire comportant trois périodes :
1. Période (1) : le taux de défaillance décroît, il correspond à des fautes de
jeunesse.
2. Période (2) : c’est la période de vie utile, le taux reste à peu près constant,
les pannes semblent seulement dues au hasard.
3. Période (3) : le taux d’avarie croît rapidement, les pannes sont dues aux
défauts causés par l’usure.
I.3 Détermination expérimentale
I.3 .a Estimation des fonctions R et T
Sur un intervalle [0, t], une estimation de la fonction R(t est fournie par le
pourcentage des dispositifs n’ayant subi aucune défaillance.
Exemple
On étudie la fiabilité d’un ensemble de pièces mécaniques. On a étudié pour
cela la durée de vie de 9 de ces pièces. Les temps de bon fonctionnement (en
heures) jusqu’à défaillance constatés sont,
N◦ pièce 1 2 3 4 5 6 7 8 9
temps 90 350 950 1660 530 1260 2380 230 720
I.3. DÉTERMINATION EXPÉRIMENTALE 99
Fig. I.1 – Allure de la courbe du taux d’avarie
On estime la valeur de R(t) en prenant le quotient par 9 du nombre de pièces
en état de marche à l’instant t, N(t) étant le nombre de pièces en état de marche
à l’instant t :. On obtient ainsi le tableau suivant :
t 90 230 530 720 950 1260 1660 2380
N(t) 8 7 6 5 4 3 2 1 0
R(t)
8
9
7
9
6
9
5
9
4
9
3
9
2
9
1
9
0
Cette méthode d’estimation est acceptable si le nombre des systèmes mis
en service à l’instant 0 est suffisemment grand. C’est ainsi que l’on adopte les
estimations suivantes pour R(t) :
i
n
si n > 50 (méthode des rangs bruts)
i
n + 1
si 20 < n ≤ 50 (méthode des rangs moyens)
(i −0.3
n + 0.4
si n ≤ 20 (méthode des rangs médians)
Dans l’exemple précédent, on utilise la méthode des rangs médians et on obtient :
i 1 2 3 4 5 6 7 8 9
t 90 230 530 720 950 1260 1660 2380
R(t) 0.93 0.82 0.71 0.61 0.5 0.39 0.28 0.18 0.07
100 CHAPITRE I. PRÉSENTATION
I.4 Principales lois utilisées
I.4 .a La loi exponentielle
Si on considère des systèmes ne présentant pas de phénomènes d’usure (semi-
conducteurs, . . . ) et pour lesquels les défauts de jeunesse sont négligeables, il
faut envisager une loi dont le taux d’avarie est constant, on l’utilise aussi pour
décrire la période de vie utile du système. On a alors λ(t) = λ. On obtient ainsi,
R(t) = e
−λt
, MTTF = E(T) =
1
λ
La probabilité pour que le système fonctionne après un temps d’utilisation égal
à la MTTF est R(
1
λ
=
1
e
≈ 0.368 soit environ 36.8%.
En reprenant l’exemple ci-dessus, on peut approximer par une loi exponentielle
de paramètre λ ≈
1
1660
≈ 0.00094. On en déduit que la probabilité que la pièce
fonctionne à peu près 2000 heures est exp(−
2000
1060
) ≈ 0.15.
I.4 .b Loi de Weibull
Dans la loi de Weibull J(γ, η, β) la MTTF est égale à ηΓ

1 +
1
β

. Le
calcul pratique se fait grâce à des tables qui donne une valeur A = ηΓ

1 +
1
β

suivant les valeurs de β. De la même manière on a des tables avec une valeur B
où V (T) = Bη
2
.
101
Chapitre II
Fiabilité d’un système et de
ses composants
II.1 Système à structure en série
Un système présente une structure en série si la défaillance d’un de ses
composants entraîne celle du système. Il est souvent représenté par le schéma :
C
1
C
2
C
3
Si T
i
, i ∈ ¦1, . . . , n détermine le temps de bon fonctionnement du composant
n◦i, les événements (T
i
> t) étant supposés indépendants, on a si T représente
le temps de bon fonctionnement du système,
(T > t) =
n
¸
i=1
(T
i
> t)
D’où,
R(t) =
n
¸
i=1
R
i
(t)
II.1 .a Exemple
Un système à structure en série est constitué de n composants C
i
indépen-
dants dont la durée de vie T
i
suit une loi exponentielle de paramètre λ
i
. Pour
chaque composant, nous avons R
i
(t) = exp(λ
i
t) si t ≥ 0, 0 sinon.. La fonction
de fiabilité du système est donc :
R(t) = exp(λ
1
t +. . . +λ
n
t) si t ≥ 0, 0 sinon .
On en déduit que le système suit une loi exponentielle de paramètre λ = λ
1
+
. . . +λ
n
. On obtient,
MTTF =
1
n
¸
i=1
λ
i
102CHAPITRE II. FIABILITÉ D’UN SYSTÈME ET DE SES COMPOSANTS
II.2 Système à structure parallèle
Un système présente une structure parallèle si l’état de marche d’un seul
de ses composants entraîne celle du système. Le système est défaillant si chacun
de ses composants est défaillant. On le représente par le type de schéma suivant :
C
1

• C
2


C
3

Si le système comporte n éléments en parallèle, on a
(T ≤ t) =
n
¸
i=1
(T
i
≤ t).
D’où,
R(t) = 1 −
n
¸
i=1
(1 −R
i
(t)).
II.2 .a Exemple
Dans un système à structure parallèle de n composants, on suppose que la
durée de vie de chaque composant suit une loi exponentielle de paramètre λ.
Soit T
1
la durée d’attente avant que le premier composant ne tombe en panne
et pour i > 1, T
i
le temps écoulé entre la mise hors service de l’élément i − 1
et l’élément i (on suppose que l’on ordonné les composants dans l’ordre de leur
défaillance). On a alors,
T =
n
¸
i=1
T
i
.
Entre la défaillance de l’élément i − 1 et celle du suivant, il reste n − i + 1
appareils que l’on peut traiter comme s’ils étaient en série (puisque l’on at-
tend la défaillance d’un élément quelconque). On en déduit que T
i
suit une loi
exponentielle de paramètre λ
i
= (n −i + 1)λ et E(T
i
) =
1
λ
i
. Par suite,
E(T) =
n
¸
i=1
1
λ
i
=
1
λ(1 +
1
2
+. . . +
1
n
)
II.3 Systèmes à structure mixte
Si le système combine les deux structures précédentes est appelé système à
structure mixte, on peut en général le décomposer en sous-systèmes qui sont
soit en série soit en parallèle.
II.3. SYSTÈMES À STRUCTURE MIXTE 103
II.3 .a Exemple
Soit le système suivant,
C
1

• • C
3

C
2

Le système est une structure série du composant C
3
et du sous-système noté
C
1,2
à structure parallèle. La durée de vie de ce sous-système est :
R
1,2
= 1 −(1 −R
1
(t))(1 −R
2
(t)) = R
1
(t) +R
2
(t) −R
1
(t)R
2
(t).
Par suite,
R(t) = R
3
(t).(R
1
(t) +R
2
(t) −R
1
(t)R
2
(t)).
104
Exercices du chapitre II
Exercice II.1
On considère un système S constitué de 5 composants, de fonctions de fiabilité
respectives R
i
, suivant le schéma ci-dessous. Déterminer la fonction de fiabilité
R de ce système.
C
1

C
3

• • C
4


C
2

C
5

Exercice II.2
La fiabilité d’un type de machine a été ajustée par une loi de Weibull de para-
mètres γ = 40, η = 60 et β = 1.1
1. Déterminer la MTTF et calculer le temps de bon fonctionnement pour
une défaillance admise de 50%.
2. Calculer le taux d’avarie pour les valeurs t = 45, 75, 105, 135 et 165.
105
Cinquième partie
Annexes
107
Annexe A
Eléments de probabilités
A.1 Vocabulaire des probabilités
Expérience aléatoire : une expérience dépendant du hasard. On la décrit
par l’ensemble de ses résultats possibles. Un résultat possible est appelé
éventualité. L’ensemble des éventualités sera nommé Ω qui est l’univers
des possibles.
Evénement aléatoire : tout événement lié à une expérience aléatoire, il est
représenté par le sous-ensemble des éventualités permettent sa réalisation
qui est une partie ou sous-ensemble de Ω donc un élément de {(Ω). Un
événement élémentaire est un singleton ω de {(Ω). Ω est appelé évé-
nement certain . l’événement contraire d’un événement A est le com-
plémentaire dans Ω de A, on le note
¯
A. Etant donnés deux événement A et
B on note A ou B l’ensemble A∪B, événement A et B l’ensemble A∩B.
On dit que deux événements A et B sont incompatibles si A ∩ B = ∅.
On dit que l’événement A implique l’événement B si A ⊂ B.
Système complet d’événements : Soit (A
i
)
i∈I
où I est une partie finie ou
dénombrable de N, une famille d’événements non vides de Ω. On dit qu’elle
constitue un système complet d’événements si :
– ∀(i, j) ∈ I
2
, (i = j) => (A
i
∩ A
j
= ∅).

¸
i∈I
A
i
= Ω.
A.2 Espaces probabilisés
Soit Omega un ensemble, et B une partie de {(Ω) vérifiant :
– Ω ∈ B.
– ∀A ∈ B,
¯
A ∈ B
– Pour toute famille finie ou dénombrable (A
i
)
i∈I
d’éléments de B,
¸
i∈I
A
i

B.
On a les propriétés suivantes :
– ∅ ∈ B.
– B est stable par intersection dénombrable.
– ∀A, B ∈ B,A∩
¯
B ∈ B
108 ANNEXE A. ELÉMENTS DE PROBABILITÉS
– ∀A, B ∈ B,A∆B ∈ B
A.2 .a Définition des probabilités
On appelle probabilité sur l’espace probabilisable (Ω,B) toute application
P de B dans [0, 1] telle que :
1. P(Ω) = 1
2. Pour toute suite (A
n
) d’événements deux à deux incompatibles de B, on
a,
P

¸
n∈N
A
n

=
+∞
¸
n=0
P(A
n
)
Le triplet (Ω,B,P) est alors appelé espace probabilisé.
Propriété :
Si (A
i
]
i∈I
est un système complet d’événements,
¸
i∈I
P(A
i
) = 1.
Définition:
Deux événements A et B sont indépendants si P(A ∩ B) = P(A).P(B).
A.2 .b Probabilités conditionnelles
définition:
Soient deux événements A et B tels que P(A) = 0, on appelle proba-
bilité conditionnelle de B sachant que A est réalisé (ou B sachant A) :
P(B[A) =
P(A ∩ B)
P(A)
.
Soient (A
i
), i ∈ ¦1, . . . , n¦, n ∈ N une famille de n événements tels que
P

n
¸
i=1
A
i

= ∅., on a,
P

n
¸
i=1
A
i

= P(A
1
)P(A
2
[A
1
) . . . P(A
n
[A
1
∩ . . . ∩ A
n−1
).
Si (A
i
)
i∈I
est un système complet d’événements de probabilités non nulles, on
a la formule des probabilités totales
Pour tout événement B,
P(B) =
¸
i∈I
P(B[A
i
)P(A
i
).
De la même façon, on obtient la formule de Bayes :
P

n
¸
i=1
A
i

P(A
k
[B) =
P(B[A
k
)P(A
k
)
¸
i∈I
P(B[A
i
)P(A
i
)
.
A.3. VARIABLES ALÉATOIRES 109
A.3 Variables aléatoires
A.3 .a Définitions
1. On appelle, de façon générale, variable aléatoire réelle (v.a.r. ou v.a.
dans la suite) sur l’espace probabilisé (Ω, B, P) toute application X de Ω
dans R telle que pour tout intervalle I de R, X
−1
(I) ∈ B où X
−1
(I) =
¦ω ∈ Ω[X(ω) ∈ I¦. On aura par définition, P(X(ω) ∈ I) = P(X
−1
(I)).
que l’on notera désormais, P(X ∈ I)
2. On appelle fonction de répartition de la v.a. x l’application de Rdans
[0, 1] définie par x → P(X ≤ x).
A.3 .b Variables aléatoires discrètes
On dira que X est une v.a. discrète si X(Ω) est fini ou dénombrable. Soit
¦x
1
, x
2
, . . . , x
n
, . . .¦ les valeurs prises la v.a.
On appellera loi de v.a. discrète X, l’ensemble des couples (x
i
, P(X = x
i
)).
Définitions
1. On appelle espérance de X la quantité :
E(X) =
¸
i∈I
x
i
P(X = x
i
)
Elle existe sous réserve de convergence de cette série.
2. On appelle variance de X la quantité
V (X) =
¸
i∈I
(x
i
−E(X))
2
P(X = x
i
)
sous réserve de convergence. On a, V (X) = E(X
2
) −E(X)
2
.
3. Si la variance existe, on définit l’écart-type de X,
σ(X) =

V (X).
4. Si X admet une espérance et une variance, on définit la variable centrée
réduite
X

=
X −E(X)
σ(X)
.
A.3 .c Variables aléatoires continues
Définitions
1. Si f est une fonction rélle d’une variable réelle, on dit que f est une
densité de probabilité si :
– f est une fonction à valeurs réelles positives.
– f est continue sur R (sauf éventuellement en un nombre fini de va-
leurs).
110 ANNEXE A. ELÉMENTS DE PROBABILITÉS

+∞
−∞
f(t)dt = 1.
2. Soit X une variable à densité f, on définit :
F(x) = P(X ≤ x) =

x
−∞
f(t)dt.
F est continue sur R et et dérivable sauf éventuellement en un nombre
fini de points. De plus F est croissante et à valeurs dans [0, 1]. De plus
lim
x→−∞
F(x) = 0 et lim
x→+∞
F(x) = 1
Si a et b sont deux réels, on a P(a < X ≤ b) = F(b) −F(a).
3. Si X est une variable à densité f et sous réserve de convergence, on a
– E(X) =

+∞
−∞
tf(t)dt.
– V (X) =

+∞
−∞
(t −E(X))
2
f(t)dt
A.4 Lois usuelles
A.4 .a Loi binômiale
La loi binômiale notée B(n, p) où n ∈ N, p ∈]0, 1[ est définie par :
P(X = k) = C
k
n
p
k
(1 −p)
n−k
, k¦0, . . . , n¦.
On a E(X) = np et V (X) = np(1 −p).
A.4 .b Loi de Poisson
Soit λ un réel strictement positif, la loi de Poisson est définie par
P(X = k) = e
−λ
λ
k
k!
.
On a E(X) = λ et V (X) = λ.
A.4 .c Loi géométrique
Soit p ∈]0, 1[, et q = 1−p, une variable aléatoire X suit une loi géométrique
de paramètre p, si
P(X = k) = q
k
p, k ∈ N.
On a E(X) =
q
p
et V (X) =
q
p
2
.
A.4 .d Loi uniforme
X suit une loi uniforme sur un intervalle [a, b] de R, notée |[¬,]
¯
si sa
densité f est définie par f(t) =
1
b −a
si t ∈ [a, b], 0 sinon. On a
F(x) =

x −a
b −a
si x ∈ [a, b]
0 si x ≤ a
1 si x > b
A.4. LOIS USUELLES 111
E(X) =
a +b
2
et V (X) =
(b −a)
2
12
.
A.4 .e Loi exponentielle
X suit une loi exponentielle de paramètre λ, notée c(λ) si sa densité est
f(x) =

λe
−λx
si x ≥ 0
0 si x < 0
On a, On obtient, E(X) =
1
λ
et V (X) =
1
λ
2
.
A.4 .f Loi de Weibull
X suit une loi de Weibull de paramètres γ, η, β, notée J(γ, η, β). si,
f(x) =

β
η
.

x −γ
η

β−1
exp

x −γ
η

β

si x ≥ γ
0 si x < γ
On obtient,
F(x) =

1 −exp

x − γ
η

β

si x ≥ γ
0 si x < γ
E(X) = ηΓ

1 +
1
β

où Γ(x) =

+∞
0
e
−t
t
x−1
dt.
A.4 .g Exemple
Soit T une v.a. de distribution géométrique, m et k deux entiers, on a P(T =
m+k[T ≥ m) = P(T = k). (à démontrer) La distribution géométrique est sans
mémoire, ce qui veut dire ici que le nombre d’essais entre deux succès ne dépend
pas du nombre d’essais qui précèdent (propriété de Markov).
De la même manière, si X suit une loi exponentielle de paramètre λ,
P(X > t +h[X > t) =
e
−λ(t+h)
e
−λt
= e
−λh
= P(X > h), t, h > 0.
Si X représente le temps d’attente avant qu’un événement particulier ne se
produise, et que t unités de temps n’ont produit aucun événement, alors la
distribution avant qu’un événement ne se produise à partir de la date t est
la même que si aucun temps ne s’était écoulé. Là aussi le processus est sans
mémoire.
112 ANNEXE A. ELÉMENTS DE PROBABILITÉS
Fig. A.1 – Quelques densités de la loi de Weibull (η = 1, γ = 0, β =
0.3, 0.6, 1, 1.5, 2, 3.)
113
Annexe B
TABLES
B.1 Table de la loi de Poisson
P(X = k) =
λ
k
k!
e
−λ
E(X) = V (X) = λ
k ↓ λ → 0.2 0.3 0.4 0.5 0.6 1 1.5 2 3 4 5
0 0.8187 0.7408 0.6703 0.6065 0.5488 0.368 0.223 0.135 0.0498 0.018 0.007
1 0.1637 0.2222 0.2681 0.3032 0.3293 0.368 0.335 0.271 0.149 0.073 0.034
2 0.0163 0.0333 0.0536 0.0758 0.0988 0.184 0.251 0.271 0.224 0.147 0.084
3 0.0011 0.0033 0.0536 0.0758 0.09988 0.061 0.126 0.180 0.224 0.195 0.140
4 0.000 0.0002 0.0007 0.0015 0.003 0.015 0.047 0.090 0.168 0.195 0.176
5 0.000 0.000 0.0001 0.0001 0.0003 0.003 0.014 0.036 0.101 0.156 0.176
114 ANNEXE B. TABLES
B.2 TABLE DE LA LOI DE WEIBULL
Tableau des coefficients nécessaires aux calculs de E(X))Aη+γ et de σ(X) =
Bη.
β A B β A B β A B β A B
0.20 120 1901 1.3 0.924 0.716 2.8 0.891 0.344 5 0.918 0.210
0.25 24 199 1.35 0.917 0.687 2.9 0.892 0.334 5.1 0.919 0.207
0.30 9.261 50.08 1.40 0.911 0.660 3 0.893 0.325 5.2 0.920 0.203
0.35 5.0291 19.98 1.45 0.907 0.635 3.1 0.894 0.316 5.3 0.921 0.200
0.40 3.323 10.44 1.5 0.903 0.613 3.2 0.896 0.307 5.4 0.922 0.197
0.45 2.479 6.46 1.55 0.899 0.593 3.3 0.897 0.299 5.5 0.923 0.194
0.50 2 4.47 1.6 0.897 0.574 3.4 0.898 0.292 5.6 0.924 0.191
0.55 1.702 3.35 1.65 0.894 0.556 3.5 0.900 0.285 5.7 0.925 0.188
0.60 1.505 2.65 1.7 0.892 0.540 3.6 0.901 0.278 5.8 0.926 0.185
0.65 1.366 2.18 1.75 0.8906 0.525 3.7 0.9025 0.272 5.9 0.927 0.183
0.70 1.264 1.85 1.8 0.889 0.511 3.8 0.904 0.266 6 0928 0.180
0.75 1.191 1.61 1.85 0.888 0.498 3.9 0.905 0.260 6.1 0.929 0.177
0.80 1.133 1.43 1.9 0.887 0.486 4 0.906 0.254 6.2 0.929 0.175
0.85 1.088 1.29 1.95 0.887 0.474 4.1 0.908 0.249 6.3 0.930 0.172
0.90 1.052 1.17 2 0.886 0.463 4.2 0.909 0.244 6.4 0.931 0.170
0.95 1.023 1.08 2.1 0.886 0.443 4.3 0.910 0.239 6.5 0.9318 0.168
1 1 1 2.2 0.8856 0.425 4.4 0.911 0.235 6.6 0.9325 0.166
1.05 0.960 0.934 2.3 0.886 0.409 4.5 0.913 0.230 6.7 0.933 0.163
1.1 0.965 0.878 2.4 0.887 0.393 4.6 0.914 0.226 6.8 0.934 0.161
1.15 0.952 0.830 2.5 0.887 0.380 4.7 0.915 0.222 6.9 0.935 1.160
1.20 0.941 0.787 2.6 0.888 0.367 4.8 0.916 0.218
1.25 0.931 0.750 2.7 0.889 0.716 4.9 0.971 0.214
115
Annexe C
conclusion
J’ai eu beaucoup de plaisir à écrire ce modeste manuel qui j’espère aidera
les étudiants qui ont le courage de reprendre le chemin des études après bien
souvent une dure journée de labeur. Je leur exprime toute mon admiration et
leur souhaite bon courage.
Richard Loustau
Index
adjacence, 4
algorithme de Dijkstra, 17
algorithme de Floyd, 19
algorithme de Ford, 16
algorithme du simplexe, 51
arcs, 3
arêtes, 4
boucle, 3
capacité du système, 89
chaîne apériodique, 85
chaîne de Markov, 83
chaîne de Markov ergodique, 85
chaîne irréductible, 85
chaînes, 4
chemin critique, 16
chemin élémentaire, 5
chemin hamiltonien, 5
chemin simple, 5
chemins, 4
circuit, 5
classe de transition, 85
classe finale, 85
composantes connexes, 9
composantes fortement connexes, 9
concaténation, 5
contraintes de positivité, 36
coût réduit, 63
cycle, 5
degré, 5
degrés, 5
demi-degré extérieur, 5
demi-degré intérieur, 5
densité de probabilité, 109
discipline de service, 89
domaine réalisable, 40
dual, 58
durée de vie, 97
écart-type, 109
équations d’équilibre, 79
équations de Chapman-Kolmogorov,
84
équation de normalisation, 79
espace des décisions, 40
espace des états, 71
espace probabilisé, 108
espérance d’une v.a. discrète, 109
état absorbant, 85
états communicants, 85
état du système, 90
état périodique, 85
état récurrent, 85
état transitoire, 85
éventualité, 107
événement aléatoire, 107
événement certain, 107
événement contraire, 107
événement élémentaire, 107
événements incompatibles, 107
expérience aléatoire, 107
extrémité finale, 3
extrémité initiale, 3
fermeture transitive, 7
fiabilité d’un système, 97
file d’attente, 89
fonction aléatoire, 71
fonction de répartition, 109
fonction économique, 35
formes canoniques, 36
formule de Bayes, 108
formule des probabilités totales, 108
formules de Little, 90
graphe orienté, 3
graphe partiel, 4
graphe réflexif, 4
graphe symétrique, 4
graphe transitif, 4
1-graphes, 3
INDEX 117
intervalle de stabilité, 64
loi binômiale, 110
loi de Poisson, 110
loi de Weibull, 111
loi exponentielle, 111
loi géométrique, 110
loi uniforme, 110
maintenabilité d’un système, 97
matrice d’adjacence, 5
matrice d’incidence, 6
matrice stochastique, 84
MPM, 25
MTBF, 98
MTTF, 97
méthode des rangs bruts, 99
méthode des rangs moyens, 99
méthode des rangs médians, 99
méthode en 2 phases, 53
méthode en deux phases, 53
notation de Kendall, 89
PERT, 25
pivot, 48
points extrêmes, 40
polyèdre convexe, 40
primal, 58
probabilité, 108
probabilité conditionnelle, 108
probabilités de transition, 83
processus de Markov, 83
processus de naissance et de mort,
77
processus de Poisson, 73
processus stochastique, 71
relation binaire, 3
Roy-Warshall, 8
régime stationnaire, 79
solution de base, 38
solution de base réalisable, 38
solution optimale, 38
solution réalisable, 38
sommets, 3
sous-graphe, 4
structure en série, 101
structure mixte, 102
structure parallèle, 102
suite stochastique, 71
système complet d’événements, 107
système d’attente, 90
système M/M/1, 91
trajectoire, 71
variable aléatoire réelle, 109
variable centrée réduite, 109
variable d’écart, 36
variables artificielles, 53
variables de base, 38
variables de décision, 36
variables en base, 38
variables hors base, 38
variables structurelles, 36
variance d’une v.a. discrète, 109