DEA Astrophysique & M´ethodes associ´ees — 2002/2003

Ecole doctorale d’Ile-de-France
Universit´es Paris 7 et 11 — Observatoire de Paris
M
´
ETHODES NUM
´
ERIQUES
´
Elements d’un premier parcours
Jean-Marc Hur´e
LUTh/Observatoire de Paris-Meudon, et Universit´e Paris 7 Denis Diderot
(Jean-Marc.Hure@obspm.fr)
Didier Pelat
LUTh/Observatoire de Paris-Meudon
(Didier.Pelat@obspm.fr)
9 10 11
-1
0
1
0
+1
+2
-1
-2
J.-M. Hur´e
Maˆıtre de Conf´erences ` a l’Universit´e Paris 7,
LUTh/Observatoire de Paris-Meudon, Section de Meudon,
Place Jules Janssen, F-92195 Meudon
et
Universit´e Paris 7 Denis Diderot, Place Jussieu, F-75251 Paris Cedex 05
e-mail: Jean-Marc.Hure@obspm.fr
t´el: (33) 01 45 07 75 14
fax: (33) 01 45 07 74 69
Didier Pelat
Astronome ` a l’Observatoire de Paris-Meudon
LUTh/Observatoire de Paris-Meudon, Section de Meudon,
Place Jules Janssen, F-92195 Meudon
e-mail: Didier.Pelat@obspm.fr
t´el: (33) 01 45 07 74 37
fax: (33) 01 45 07 74 69
Illustration de couverture: composante verticale du champ ´electrostatique g´e-
n´er´e par un tore axi-symm´etrique de section carr´ee, contenant selon sa sec-
tion une double distribution sinuso¨ıdale de charge. Le champ est calcul´e par
int´egration du noyau de Poisson avec traitement des singularit´es.
M
´
ETHODES NUM
´
ERIQUES
´
Elements d’un premier parcours
Version 2, Novembre 2002
Jean-Marc Hur´e
LUTh/Observatoire de Paris-Meudon, et Universit´e Paris 7 Denis Diderot
(Jean-Marc.Hure@obspm.fr)
Didier Pelat
LUTh/Observatoire de Paris-Meudon
(Didier.Pelat@obspm.fr)
4
Mise en garde
Ce cours est dispens´e depuis l’ann´ee universitaire 2001 aux ´etudiants des
DEA d’Astrophysique de l’Ecole Doctorale d’Ile-de-France dans le cadre de
l’option m´ethodologique intitul´ee “M´ethodes num´eriques”. Il aborde les th`emes
suivants (chapitres 2 ` a 7 inclus): quelques g´en´eralit´es sur le calcul, la d´erivation,
les polynˆ omes, l’interpolation et les ajustements, les quadratures, la recherche
des z´eros de fonctions et de syst`emes non-lin´eaires et les ´equations aux d´eriv´ees
ordinaires. Chaque chapitre contient des exercices et des probl`emes qui per-
mettront d’illustrer ou d’approfondir les notions rencontr´ees. Dans le cadre du
DEA, ce cours est compl´et´e par un enseignement pratique couvrant une soix-
antaine d’heures et durant lequel les ´etudiants sont charg´es de mettre en place
un outil num´erique fiable r´esolvant un probl`eme astrophysique particulier. On
trouvera au chapitre 8 quelques exemples de projets propos´es.
Le contenu de ce manuscript ne pr´etend pas ˆetre exhaustif et couvrir l’ensem-
ble des techniques relevant des m´ethodes num´eriques. Bien au contraire, il reste
tr`es succint et ne donne que quelques “´elements d’un premier parcours”. Il
s’adresse essentiellement aux ´etudiants des deuxi`eme et troisi`eme cycles univer-
sitaires des disciplines scientifiques souhaitant se familiariser avec le vocabulaire
et les m´ethodes de base, et ne n´ecessite aucune connaissance pr´ealable. Pour
ceux qui souhaitent aller plus loin, il existe de nombreux ouvrages sp´ecialis´es
Le calcul num´erique est un domaine de recherche ` a lui seul. Une abondante
litt´erature lui est d´edi´ee (voir le chapitre 2 et les r´ef`erences bibliographiques):
des livres, des revues p´eriodiques et des biblioth`eques de programmes. Comme
dans de nombreux domaines, la pratique joue un rˆ ole essentiel dans la maˆıtrise
du sujet. On ne peut raisonnablement pas esp´erer assimiler les m´ethodes sans
les manipuler sur des exemples concrets et connus.
5
Le calcul num´erique est aussi un art difficile. On peut s’y perdre et oublier
qu’il n’est pour nous qu’un outil. Beaucoup ont tendance ` a vouloir tout r´e-
inventer et perdent beaucoup de temps ` a r´e-´ecrire, souvent mal, les m´ethodes
standards. Si cette d´emarche est l´egitime voire n´ecessaire pour un apprentis-
sage, on ne doit pas en faire une habitude, au risque de devenir Num´ericien;
c’est un choix. Pour le Physicien, il est essentiel de savoir estimer la place
r´eelle du calcul num´erique dans la mod´elisation et de trouver un juste ´equilibre.
Ainsi, il ne faudra pas h´esiter ` a utiliser des outils d´ej` a existants, mis au point
par des professionnels. Afin de bien manipuler les m´ethodes et les routines que
vous pourrez trouver ¸ ca-et-l` a et que vous impl´ementerez dans votre programme
et celles, plus sp´ecifiques, que vous produirez vous-mˆeme, il est fondamental
de connaˆıtre un minimum de concepts. C’est l’objectif de ce cours introductif.
Ceci pourra d’une part vous aider ` a faire des choix judicieux dans la consultation
d’arbres de d´ecision et d’autre part, vous permettre de mieux faire interagir les
m´ethodes entre-elles. En tous cas, vous ne pourrez qu’am´eliorer la qualit´e de
votre programme, donc de votre mod`ele physique et aussi mieux le comprendre.
J.-M. Hur´e et D. Pelat
6
Table des mati`eres
1 Un peu d’histoire . . . 11
2 G´en´eralit´es 15
2.1 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Philosophie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3 Pr´ecision et temps de calcul . . . . . . . . . . . . . . . . . . . . . 16
2.3.1 Pr´ecision . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3.2 Temps de calcul . . . . . . . . . . . . . . . . . . . . . . . 17
2.4 Les erreurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.1 Le sch´ema . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.2 La repr´esentation machine . . . . . . . . . . . . . . . . . . 19
2.4.3 La perte d’information . . . . . . . . . . . . . . . . . . . . 19
2.5 Conditionnement et sensibilit´e . . . . . . . . . . . . . . . . . . . 19
2.5.1 Propagation des erreurs . . . . . . . . . . . . . . . . . . . 19
2.5.2 Nombre de conditionnement . . . . . . . . . . . . . . . . . 20
2.6 Du mod`ele physique au mod`ele num´erique . . . . . . . . . . . . . 21
2.6.1 Adimensionnement des ´equations . . . . . . . . . . . . . . 21
2.6.2 Choix des variables . . . . . . . . . . . . . . . . . . . . . . 21
2.6.3 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.7 Biblioth`eques num´eriques . . . . . . . . . . . . . . . . . . . . . . 23
2.8 Exercices et probl`emes . . . . . . . . . . . . . . . . . . . . . . . . 25
3 D´erivation 27
3.1 Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2 Diff´erences finies . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2.1 D´eveloppement de Taylor . . . . . . . . . . . . . . . . . . 27
3.2.2 Diff´erences excentr´ees . . . . . . . . . . . . . . . . . . . . 28
3.2.3 Diff´erences centr´ees . . . . . . . . . . . . . . . . . . . . . 29
3.2.4 Sch´emas d’ordres ´elev´es . . . . . . . . . . . . . . . . . . . 29
3.2.5 Echantillonage quelconque . . . . . . . . . . . . . . . . . . 30
3.3 M´ethode g´enerale . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4 Pas optimum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5 Extrapolation de Richardson . . . . . . . . . . . . . . . . . . . . 32
3.6 Exercices et probl`emes . . . . . . . . . . . . . . . . . . . . . . . . 32
4 Polynˆ omes, interpolations et ajustements 35
4.1 Formes polynˆ omiales remarquables . . . . . . . . . . . . . . . . . 35
4.1.1 Forme de Taylor . . . . . . . . . . . . . . . . . . . . . . . 35
4.1.2 Forme de Lagrange . . . . . . . . . . . . . . . . . . . . . . 36
4.1.3 Forme de Newton . . . . . . . . . . . . . . . . . . . . . . . 36
7
8 TABLE DES MATI
`
ERES
4.2 Quelques polynˆ omes remarquables . . . . . . . . . . . . . . . . . 36
4.2.1 Polynˆ omes de Chebyshev . . . . . . . . . . . . . . . . . . 36
4.2.2 Polynˆ omes de Legendre . . . . . . . . . . . . . . . . . . . 37
4.2.3 Polynˆ omes de Hermite . . . . . . . . . . . . . . . . . . . . 37
4.3 Evaluation d’un polynˆ ome . . . . . . . . . . . . . . . . . . . . . 37
4.4 Interpolations et extrapolation . . . . . . . . . . . . . . . . . . . 39
4.4.1 Interpolation lin´eaire . . . . . . . . . . . . . . . . . . . . . 39
4.4.2 Approximations polynomiales . . . . . . . . . . . . . . . . 39
4.4.3 Ph´enom`eme de Runge . . . . . . . . . . . . . . . . . . . . 41
4.4.4 M´ethode g´en´erale . . . . . . . . . . . . . . . . . . . . . . . 42
4.5 Principes de l’ajustement . . . . . . . . . . . . . . . . . . . . . . 42
4.6 Splines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.7 Exercices et probl`emes . . . . . . . . . . . . . . . . . . . . . . . . 44
5 Quadratures 47
5.1 Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.2 M´ethode des trap`ezes . . . . . . . . . . . . . . . . . . . . . . . . 48
5.2.1 Pr´ecision . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.2.2 Version compos´ee . . . . . . . . . . . . . . . . . . . . . . . 49
5.2.3 D´ecoupage adaptatif . . . . . . . . . . . . . . . . . . . . . 49
5.2.4 Sch´emas ouvert et semi-ouvert . . . . . . . . . . . . . . . 50
5.3 M´ethodes de Simpson . . . . . . . . . . . . . . . . . . . . . . . . 50
5.4 Formules de Newton-Cotes . . . . . . . . . . . . . . . . . . . . . . 51
5.5 Sch´emas r´ecursifs . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.6 M´ethode g´en´erale . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.7 Noyaux singuliers . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.8 Exercices et probl`emes . . . . . . . . . . . . . . . . . . . . . . . . 54
6 Z´ero d’une fonction. Syst`emes non-lin´eaires 57
6.1 Existence des solutions et convergence . . . . . . . . . . . . . . . 57
6.1.1 Condition d’existence . . . . . . . . . . . . . . . . . . . . 57
6.1.2 Crit`ere de convergence . . . . . . . . . . . . . . . . . . . . 58
6.1.3 Sensibilit´e . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.1.4 Taux de convergence . . . . . . . . . . . . . . . . . . . . . 60
6.2 Probl`emes ` a une dimension . . . . . . . . . . . . . . . . . . . . . 61
6.2.1 M´ethode de bissection . . . . . . . . . . . . . . . . . . . . 61
6.2.2 M´ethode des “fausses positions” . . . . . . . . . . . . . . 62
6.2.3 M´ethode du “point fixe” . . . . . . . . . . . . . . . . . . . 62
6.2.4 M´ethode des gradients . . . . . . . . . . . . . . . . . . . . 63
6.2.5 M´ethode des s´ecantes . . . . . . . . . . . . . . . . . . . . 65
6.2.6 M´ethode de M¨ uller . . . . . . . . . . . . . . . . . . . . . . 65
6.3 Syst`emes non-lin´eaires . . . . . . . . . . . . . . . . . . . . . . . . 66
6.3.1 G´en´eralisation de la m´ethode du point fixe . . . . . . . . 66
6.3.2 M´ethode de Seidel . . . . . . . . . . . . . . . . . . . . . . 67
6.3.3 M´ethode de Newton g´en´eralis´ee . . . . . . . . . . . . . . . 67
6.4 Exercices et probl`emes . . . . . . . . . . . . . . . . . . . . . . . . 67
7 Equations aux d´eriv´ees ordinaires 69
7.1 D´efinitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
7.2 Le “splitting” . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
7.3 Les conditions aux limites . . . . . . . . . . . . . . . . . . . . . . 71
7.3.1 Valeurs initiales et conditions aux contours . . . . . . . . 71
TABLE DES MATI
`
ERES 9
7.3.2 Conditions de Dirichlet et de Neumann . . . . . . . . . . 73
7.4 M´ethodes “mono-pas” . . . . . . . . . . . . . . . . . . . . . . . . 73
7.4.1 M´ethode d’Euler . . . . . . . . . . . . . . . . . . . . . . . 73
7.4.2 M´ethode de Heun . . . . . . . . . . . . . . . . . . . . . . 74
7.4.3 M´ethode des s´eries enti`eres . . . . . . . . . . . . . . . . . 76
7.4.4 M´ethodes de Runge-Kutta . . . . . . . . . . . . . . . . . . 76
7.4.5 M´ethode de Burlish-Stoer . . . . . . . . . . . . . . . . . . 78
7.5 M´ethodes “multi-pas” . . . . . . . . . . . . . . . . . . . . . . . . 80
7.6 M´ethodes de tir . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
7.7 Sch´emas aux diff´erences finies . . . . . . . . . . . . . . . . . . . . 82
7.8 Exercices et probl`emes . . . . . . . . . . . . . . . . . . . . . . . . 83
8 Applications astrophysiques 85
8.1 Structure interne des ´etoiles . . . . . . . . . . . . . . . . . . . . . 85
8.2 Image et spectre d’un disque autour d’un trou noir de Schwarzschild 85
8.3 Instabilit´e thermique d’un disque d’accr´etion de Sakura-Sunyaev 86
8.4 Vent solaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
8.5 Equation de Saha . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
8.6 Dynamique des disques stellaires . . . . . . . . . . . . . . . . . . 88
8.7 Fluide cosmologique et formation des grandes structures . . . . . 89
A GAMS: Project Summary 93
B Quadrature de Gauss-Legendre 95
C Formule de Peano 101
D Formules d’Adams-Bashforth-Moulton 103
10 TABLE DES MATI
`
ERES
Chapitre 1
Un peu d’histoire . . .
D’apr`es les historiens, le calcul num´erique remonte au moins au troisi`eme
mill´enaire avant notre `ere. Il est ` a l’origine favoris´e par le besoin d’effectuer
des mesures dans diff´erents domaines de la vie courante, notamment en agricul-
ture, commerce, architecture, g´eographie et navigation ainsi qu’en astronomie.
Il semble que les Babyloniens (qui peuplaient l’actuelle Syrie/Iraq) sont parmi
les premiers ` a r´ealiser des calculs alg´ebriques et g´eom´etriques alliant complexit´e
et haute pr´ecision. Surtout, ils donnent une importance et un sens au placement
relatif des chiffres constituant un nombre, c’est-` a-dire ` a introduire la notion de
base de d´enombrement, en l’occurrence, la base sexag´esimale que nous avons fini
par adopter dans certains domaines. Ils se distinguent ainsi d’autres civilisa-
tions, mˆeme bien plus r´ecentes, qui d´eveloppent des m´ethodes plus lourdes, en
introduisant une pl´ethore de symboles. Il y a environ 3500 ans, les populations
de la vall´ee de l’Indus (regions de l’Inde et du Pakistan) introduisent les notions
de z´ero et emploient les nombres n´egatifs. Il adaptent ´egalement le syst`eme de
comptage Babylonien au syst`eme d´ecimal qui est le nˆ otre aujourd’hui. Ces pre-
miers outils de calcul sont largement d´evelopp´e par la suite par les Grecs, puis
transmis en Europe par l’interm´ediaire des civilisations mulsumanes peuplant
le bassin m´edit´erann´een.
Le calcul num´erique tel que nous le concevons pratiquement aujourd’hui
connaˆıt son premier veritable essor ` a partir du XVIIeme si`ecle avec les progr`es
fulgurants des Math´ematiques et de la Physique, plus ou moins li´es aux obser-
vations et aux calculs astronomiques. Plusieurs machines de calcul sont en effet
construites, comme la “Pascaline” invent´ee par B. Pascal en 1643, la DENO
(“Difference Engine Number One”; voir la figure 1.2) de C. Babbage en 1834
mais qui fonctionnait mal, ou encore le tabulateur de H. Hollerith sp´ecialement
con¸ cu pour recenser la population am´ericaine, vers 1890. Il s’agit bien-entendu
de machines m´ecaniques imposantes et d’utilisation assez limit´ee. Le manque
de moyens de calcul performants limite en fait l’expansion et la validation de
certaines th´eories du d´ebut du XXeme si`ecle. Ce fut le cas en particulier de la
th´eorie de la Relativit´e G´en´erale due ` a A. Einstein.
La Seconde Guerre Mondiale et les progr`es technologiques qu’elle engendre
va permettre au calcul num´erique d’amorcer un second envol. Les anglais met-
tent au point le premier ordinateur en 1939, Colossus, dont la mission est
de d´ecripter les messages cod´es envoy´es par l’´emetteur Enigma de l’Allemagne
nazie. Cette machine introduit les concepts r´evolutionnaires ´emis par A. Tur-
11
12 CHAPITRE 1. UN PEU D’HISTOIRE . . .
Figure 1.1: Charles Babbage (` a gauche), l’une des grandes figures de l’histoire
de l’ordinateur. Il fut l’inventeur de la DENO (“Difference Engine Number
One”) dont une copie est expos´ee dans un mus´ee de Londres (` a droite).
ing dans les ann´ees 1936 concernant l’automatisation des calculs. Les calcu-
lateurs sont d´esormais enti`erement ´electroniques. Autre machine qui fait date
dans l’histoire, le ENIAC (“Electronic Numerical Integrator And Computer)
construit en 1946. Malheureusement, ce type de machine ne dispose pas de
m´emoire interne et doit ˆetre en permanence reprogramm´ee.
A la fin des ann´ees 1940, un certain J. von Neumann (voir la figure 1.3)
repense l’architecture des ordinateurs et introduit, entre autres, les m´emoires
permettant de sauvegarder les programmes, et les concepts de hardware (ma-
t´eriel) et de software (logiciel). La premi`ere machine de calcul incluant les
concepts de von Neumann (et ceux de Turing) est ainsi produite par la firme
am´ericaine IBM; elle s’appelle Mark I et p`ese 5 tonnes. Les premi`eres appli-
cations concernent tous les domaines scientiques et techniques. Le Fortran
I, un langage de programmation destin´e aux scientifiques, est con¸ cu d`es 1954
. . . mais il lui manque un vrai compilateur.
Vers la fin des ann´ees 1960, l’apparition progressive des transitors et de
leur assemblage massif sur des surfaces de plus en plus r´eduites augmente con-
sid´erablement les performance des machines et permet des simulations num´eri-
ques de r´ealisme croissant. Cet effort de miniaturisation est d’ailleurs impos´e
par la course ` a la conquˆete de l’espace. Apparaissent ainsi en 1970 les fameux
microprocesseurs mis au point par les firmes Intel et Motorola qui ´equipent
la majeure partie des sondes spatiales de l’´epoque. Le calcul num´erique devient
rapidement une science ` a part enti`ere. Les ann´ees 70 marquent aussi le tour-
nant pour les langages de programmation: certains sont d´efinitivement produits
` a des fins scientifiques, alors que d’autres seront pens´es pour la gestion, comme
le Cobol. Au d´ebut des ann´ees 1980, l’ordinateur le plus puissant du monde
s’appelle Cray I (voir la figure 1.3). Sa forme est sp´ecialement choisie pour
optimiser la rapidit´e des calculs. C’est aussi le d´ebut de l’informatique familiale
avec la mise sur le march´e des Personal Computers d’IBM.
13
Figure 1.2: Alan Turing (` a gauche) donnera aux premiers ordinateurs les moyens
de “penser” et de travailler de mani`ere autonome. Sa th´eorie sera l’une des pi`eces
maitresses de Colossus (` a droite), le premier calculateur mis au point par les
anglais ` a l’aube de la Seconde Guerre Mondiale pour d´ecrypter les messages
secrets ´emis par la machine Enigma (en m´edaillon) des Nazis.
Figure 1.3: John L. von Neumann (` a gauche), enfant prodige de l”’informatique”
de l’apr`es-guerre. Le Cray I (` a droite) construit dans les ann´ees 1980 dispose
d’une puissance de calcul de 160 millions d’op´erations ` a la seconde. Sa con-
ception en forme de cylindre devaient assurer une transmission optimale de
l’information.
14 CHAPITRE 1. UN PEU D’HISTOIRE . . .
En une quinzaine d’ann´ees, la rapidit´e des calculateurs a ´et´e multipli´ee par
plus de 10000. La vitesse d’ex´ecution des op´erations ´el´ementaires se compte
maintenant en dizaines de millions de millions d’op´erations ` a la seconde (ou
dizaines de t´era-flops, ` a comparer ` a la centaine de m´ega-flops du Cray I). Les
capacit´es de stockage ont gagn´e 7 ordres de grandeur au moins. Aujourd’hui,
toutes ces performances doublent tous les ans. Pour le monde scientifique, celui
de la Recherche Fondamentale et de l’Industrie, les calculateurs et le d´eve-
loppement de techniques de programmation sp´ecifiques (comme la program-
mation parall`ele) sont devenus des outils incontournables ` a la connaissance et
ouvrent de nouveaux horizons pour la mod´elisation et la compr´ehension des
ph´enom`enes complexes et la mise au point de nouvelles technologies.
Chapitre 2
G´en´eralit´es
2.1 Objectifs
On regroupe sous le terme g´en´erique de “m´ethodes num´eriques”, toutes les tech-
niques de calcul qui permettent de r´esoudre de mani`ere exacte ou, le plus sou-
vent, de mani`ere approch´ee un probl`eme donn´e. Le concept de calcul est assez
vaste et doit ˆetre pris au sens large. Il peut s’agir de d´eterminer l’inconnue d’une
´equation, de calculer la valeur d’une fonction en un point ou sur un intervalle,
d’int´egrer une fonction, d’inverser une matrice, etc. Bien que la mise en ´equation
d’un probl`eme et sa r´esolution passent naturellement par les Math´ematiques,
les probl´ematiques sous-jacentes concernent des disciplines aussi vari´ees que la
Physique, l’Astrophysique, la Biologie, la M´edecine, l’Economie, etc. Il existe
ainsi une grande vari´et´e de probl`emes possibles avec pour chacun d’eux, des
m´ethodes tr`es sp´ecifiques. De fait, le nombre total de m´ethodes num´eriques
dont nous disposons ` a l’heure actuelle est vraisemblablement gigantesque.
Une m´ethode num´erique met en oeuvre une certaine proc´edure, une suite
d’op´erations, g´en´eralement en tr`es grand nombre, que l’on transcrira ensuite
dans un langage de programmation. Bien qu’une m´ethode num´erique puisse
s’effectuer mentalement (du moins avec un crayon et un papier) comme inverser
une matrice 2 2, r´esoudre tan x − 1 = 0, ou calculer

2, elle n´ecessite dans
la majorit´e des cas un ordinateur qui a l’avantage de la rapidit´e (mais pas de
la pr´ecision). Il convient ` a ce niveau de bien diff´erencier la partie m´ethode
num´erique, souvent ind´ependante du calculateur et du langage, et la partie
programmation qui met en oeuvre d’une part l’algorithme et d’autre part une
suite d’instructions ´ecrites dans un langage de programmation. Bien-sˆ ur, une
m´ethode num´erique pourra d´ependre de l’architecture d’un ordinateur et du
langage utilis´e. Toutefois, l’un des soucis majeurs de l’utilisateur et du pro-
grammeur est d’assurer ` a son programme une certaine portabilit´e, c’est-` a-dire
de pouvoir l’ex´ecuter sur des machines diff´erentes sans avoir besoin d’adapations
(trop) sp´ecifiques.
Les m´ethodes num´eriques sont indispensables ` a la r´ealisation de programmes
de calculs ou codes de calcul. En particulier, pour les astrophysiciens qui ne
b´en´eficient pas d’un laboratoire permettant de valider leurs th´eories ` a partir
d’exp´eriences renouvelables ` a loisir et contrˆ olables, ces outils sont le seul moyen
de simuler ou de mod´eliser les ph´enom`enes que nous observons, de les interpr´eter
et de les comprendre. Rappelons que les m´ethodes num´eriques sont en effet
15
16 CHAPITRE 2. G
´
EN
´
ERALIT
´
ES
pr´esentent dans toutes les disciplines de l’Astrophysique moderne: la cosmologie,
l’instrumentation, le traitement de donn´ees, la plan´etologie, la physique solaire,
la physique des galaxies, la physique extragalactique, etc. S’il est vrai qu’il existe
une tr`es grande diversit´e de m´ethodes num´eriques avec lesquelles ont peut, en
pratique, quasiment tout faire, certains probl`emes (par exemple en traitement
du signal, en m´ecanique c´eleste ou en m´ecanique des fluides) ont n´ecessit´e la
mise au point de m´ethodes tr`es sp´ecifiques.
2.2 Philosophie
L’´etat d’esprit dans lequel travaille le “num´ericien” est davantage celui que
l’on connaˆıt en Physique, avec ses multiples approximations (parfois difficile-
ment justifiables) et hypoth`eses simplificatrices, plutˆ ot que celui que l’on doit
d´evelopper en Math´ematiques. Une certaine rigueur est toutefois indispensable.
Ainsi serons-nous le plus souvent amen´es ` a changer assez significativement le
probl`eme initial, ` a le simplifier dans une certaine mesure, ` a le rendre lin´eaire,
plus acad´emique aussi, condition sine qua non au traitement num´eriquement.
Une ´etape majeure sera alors de critiquer les solutions obtenues et de les inter-
preter par rapport au probl`eme initialement pos´e. Une bonne illustration est le
pendule pesant de longueur l dont l’´equation du mouvement dans un champ de
pesanteur g est
l
2
¨
θ −lg sin θ = 0 (2.1)
L’harmonicit´e tant recherch´e n’est pas r´eelle; elle n’est que le pur produit d’une
s´erie d’approximations, notamment celle des ”petits angles” qui permet de poser
sin θ ∼ θ. L’´equation pr´ec´edente devient alors
l
2
¨
θ −lgθ = 0 (2.2)
et l’on con¸ coit facilement que ses solutions soient diff´erentes.
Num´eriquement par contre, il sera possible de d´ecrire assez naturellement son
mouvement an-harmonique quelque soit l’amplitude initiale de son mouvement,
soit par un d´eveloppement limit´e de la fonction sinus ` a l’ordre 2 ou plus, soit par
integration directe de l’´equation diff´erentielle (2.1). Mais dans les deux cas, la
solution obtenue, aussi pr´ecise soit-elle, ne sera qu’approch´ee, soit en raison de
la troncature exerc´ee sur le d´eveloppement de Taylor, soit en raison des erreurs
incontournables faites en int´egrant l’´equation diff´erentielle ci-dessus.
2.3 Pr´ecision et temps de calcul
Deux aspects fondamentaux sous-tendent l’utilisation ou la mise en place de
toute m´ethode num´erique: la pr´ecision souhait´ee (ou disponible) d’une part,
et le temps de calcul d’autre part. Disposer de beaucoup de pr´ecision est con-
fortable voire indispensable lorsque l’on ´etudie certains ph´enom`emes, comme
les syst`emes chaotiques dont les propri´et´es affichent une forte sensibilit´e aux
conditions initiales et ` a la pr´ecision. Mais lorsque l’on est trop “gourmand” sur
cet aspect, le temps de calcul se trouve accru, parfois de mani`ere prohibitive. Il
n’est pas inutile de garder ` a l’esprit la relation d’incertitude de Numerics
∆t (2.3)
o` u ∆t exprime un temps de calcul (par exemple 13 min), la pr´ecision relative
de la m´ethode (par exemple 10
−4
; voir ci-dessous) et est une constante pour
2.3. PR
´
ECISION ET TEMPS DE CALCUL 17
la m´ethode consid´er´ee. Cette relation rappelle l’impossibilit´e d’allier pr´ecision
et rapidit´e.
2.3.1 Pr´ecision
La pr´ecision est limit´ee par les machines. In´evitablement, elle se trouve d´et´erio-
r´ee au fil des calculs. Sans entrez dans le d´etail, il faut savoir qu’un ordinateur
fonctionne en effet avec un nombre limit´e de chiffres significatifs, au maximum
14, 15 voire 16 pour les plus performants, ces chiffres ´etant rang´es en m´emoire
dans des boites virtuelles ou bits, apr`es transcription en base 2. Certains bits
sont r´eserv´es pour affecter un signe (+ ou −) au nombre et d’autres pour
l’exposant. En ce sens, les machines classiques ne pourront g´en´eralement pas dis-
tinguer 3.1415926535897931 de 3.1415926535897932, ` a moins d’un traitement
sp´ecifique de la mantisse ` a la charge de l’utilisateur. Dans la m´emoire, seul les
premiers chiffres d’un nombre seront enregistr´es (voir le tableau 2.1), les autres
seront d´efinitivement perdus. La plupart des langages permettent de choisir le
nombre de d´ecimales au niveau de la proc´edure d´eclarative, comme les anciennes
instructions REAL*4 ou REAL*8 du langage Fortran 77, dont les ´equivalents
sont respectivement REAL(KIND=1) et REAL(KIND=2) en Fortran 90.
bits minimum (positif, non nul) maximum pr´ecision
32 2.938736E-39 1.701412E+38 ∼ 10
−7
48 2.9387358771E-39 1.7014118346E+38 ∼ 10
−12
64 5.562684646268003E-309 8.988465674311580E+308 ∼ 10
−16
Table 2.1: Mimimum et maximum r´eels adressables et pr´ecision relative possible
en fonction du nombre de bits de la machine.
2.3.2 Temps de calcul
Le temps de calcul est limit´e par la capacit´e des ordinateurs, par la dur´ee de vie
du mat´eriel, par des facteurs ext´erieurs (comme les coupures d’´electricit´e), et
par l’utilisation que l’on souhaite classiquement faire des programmes de simu-
lations. La plupart du temps, il s’agit d’une utilisation intensive o` u l’on balaye
l’espace des param`etres d’un mod`ele. Ceci impose de rechercher toujours les
m´ethodes les plus rapides. Il est de plus en plus fr´equent de travailler sur des
probl`emes complexes dont la r´esolution n´ecessite des heures, des jours, parfois
mˆeme des semaines de calculs sans interruption. Le choix s’orientera alors vers
une m´ethode num´erique rapide. Mais la rapidit´e se fera forc´ement au d´etriment
de la pr´ecision (voir Eq.(2.3)). Quand les calculs sont intrins`equement rapides
et que le temps de calcul n’est pas un facteur d´eterminant, on aura tout loisir de
(et peut-ˆetre int´erˆet ` a) choisir une m´ethode plus lente mais plus pr´ecise. Notons
´egalement un fait souvent oubli´e: les acc`es aux p´eriph´eriques sont tr`es couteux
en temps, en particulier les acc`es aux disques durs et les impressions ` a l’´ecran.
Pour une m´ethode num´erique donn´ee, on peut toujours estimer le temps
de calcul en comptant le nombre total ^ d’op´erations qu’effectue la machine.
On peut ensuite ´eventuellement multiplier ce nombre par le temps de calcul τ
e
relatif ` a une op´eration ´el´ementaire, mais cela n’a de valeur qu’` a titre comparatif
18 CHAPITRE 2. G
´
EN
´
ERALIT
´
ES
(car ce temps τ
e
varie d’une machine ` a l’autre et d´epend aussi de la nature des
op´erations). Par exemple, pour calculer la force d’interaction gravitationnelle
subie par une particule de masse m
i
sous l’influence d’une particule de masse
m
j
situ´ee ` a la distance r
ij
= x
ij
u
x
+ y
ij
u
y
, soit

F = −
m
i
m
j
r
3
ij
r
ij
(2.4)
il faut effectuer ^ = 6
1
2
(N−1)N op´erations ´el´ementaires s’il y a N particules
au total, soit un temps de calcul ´egal ` a 3(N−1)Nτ
e
. En effet, le sch´ema associ´e
` a la relation (2.4) pourra ˆetre transcris sous la forme

a ←−m(i)/r(i, j) ∗ m(j)/r(i, j)/r(i, j)
Fx(i, j) ←a ∗ x(i, j)
Fy(i, j) ←a ∗ y(i, j)
et met en jeu 3 multiplications et 3 divisions. On dira alors que l’ordre de la
m´ethode est ∼ (N−1)N, soit ∼ N
2
lorsque N est grand. Nous voyons que sur
une machine parall`ele qui pourra traiter simultan´ement l’interaction de chaque
particule (soit une machine dot´ee de N processeurs ind´ependants), l’ordre est
tr`es inf´erieur: il varie comme (N − 1). C’est donc un gain de temps colossal
pour N grand.
2.4 Les erreurs
Outre les erreurs de programmation (celles que le compilateur d´etectera et que
vous corrigerez, et celles que vous ne trouverez jamais), il existe trois sources
d’erreur qu’il convient d’avoir pr´esent ` a l’esprit: l’erreur de sch´ema, l’erreur de
repr´esentation et l’erreur par perte d’information.
2.4.1 Le sch´ema
L’erreur de sch´ema est g´en´er´ee lorsque l’on remplace une relation “exacte” par
une autre, plus simple ou plus facilement manipulable. C’est par exemple le
cas d’une s´erie de Taylor tronqu´ee (on parle ici plus pr´ecis´ement d’erreur de
troncature), comme
e
x
≈ 1 + x
2
, (2.5)
ou le cas de l’approximation d’une d´eriv´ee par une diff´erence finie (comme nous
le verrons au chapitre suivant) comme
f

(x) ≈
f(x + h) −f(x)
h
(2.6)
ou encore de l’estimation d’une quadrature

b
a
f(x)dx ≈ f(a)(b −a) (2.7)
L’erreur de sch´ema est g´en´eralement l’erreur dominante. Elle est en principe
incontournable car toutes les m´ethodes num´eriques sont bas´ees sur des sch´emas.
Il est important qu’elle soit connue ou appr´eciable. Notez que tous les sch´emas
ne g´en`erent pas les mˆemes erreurs. On choisira donc, quand c’est possible, les
sch´emas les plus pr´ecis.
2.5. CONDITIONNEMENT ET SENSIBILIT
´
E 19
2.4.2 La repr´esentation machine
L’erreur de repr´esentation est li´ee aux modes de repr´esentation, de stockage
et de calcul des ordinateurs. Par exemple, supposons que l’on veuille effectuer
l’op´eration
1
3

2
3

1
3

sur une machine fonctionnant avec 4 chiffres significatifs.
En interne, la machine effectuera d’abord
2
3

1
3
, ce qui pourra donner
0.6667 −0.3333 = 0.3334
Ici,
2
3
a ´et´e remplac´e par 0.6667; c’est une erreur de repr´esentation (erreur
d’arrondi). Reste ` a effectuer
1
3
− 0.3334, d’o` u le r´esultat faux (ou vrai ` a 10
−4
pr`es) : +0.0001. Certaines machines peuvent d’ailleurs fournir 0.6666 pour
2
3

1
6
et finalement donner, par co¨ıncidence, un r´esultat exact.
L’erreur de repr´esentation est g´en´eralement n´egligeable devant les autres,
sauf dans certains cas particuliers o` u, sans pr´ecaution, l’on manipule des nom-
bres tr`es diff´erents ou tr`es proches.
2.4.3 La perte d’information
La perte d’information est une cons´esquence de la repr´esentation machine. Elle
se produit lorsque l’on soustrait deux nombres tr`es proches; le r´esultat est alors
un nombre comportant peu de chiffres significatifs. Soit ` a effectuer
71
500

1
7
,
toujours sur une machine travaillant avec 4 chiffres significatifs en mantisse. En
pratique, la machine donne
0.1420 −0.1429 = −0.0009
contre −
3
3500
· −8.5714 10
−4
. Ce r´esultat, compte-tenu de l’arrondi, est cor-
rect. Toutefois, il ne comporte plus qu’un seul chiffre significatif alors que les
deux nombres initiaux en poss´edaient quatre.
L’erreur par perte d’information peut ˆetre d´evastatrice (par exemple losque
l’on veut calculer num´eriquement une d´eriv´ee). Souvent, on ne la soup¸ conne pas.
Elle survient aussi lorsque l’on effectue beaucoup d’additions et soustractions ` a
la queue leu-leu mettant en jeu des termes de mˆeme amplitude (c’est la cas par
exemple du calcul de s´eries altern´ees).
2.5 Conditionnement et sensibilit´e
2.5.1 Propagation des erreurs
Dans toute m´ethode num´erique, il y a au moins un param`etre permettant de
r´egler (c’est-` a-dire d’imposer) ou de contrˆ oler le bon d´eroulement du processus
et la pr´ecision du r´esultat. Il s’agit g´en´eralement d’un crit`ere faisant appel
` a l’erreur absolue ou ` a l’erreur relative sur une quantit´e y par rapport ` a une
quantit´e de r´ef´erence y

. Ces erreurs sont d´efinies respectivement par
∆(y) = y −y

(2.8)
et par
(y) =
y −y

y

, y

= 0 (2.9)
Un fait est incontournable: les erreurs, quelque soit leur origine, se propagent et
s’amplifient. On peut le comprendre sur un exemple simple. Si une quantit´e x
20 CHAPITRE 2. G
´
EN
´
ERALIT
´
ES
est connue avec une pr´ecision relative (x) <1, alors son image par une fonction
f est aussi entach´ee d’une erreur
f(x + (x)x) ≈ f(x) + (x)xf

(x) (2.10)
et l’erreur relative sur f vaut
(f) =
f(x + (x)x) −f(x)
f(x)
≈ (x)x
f

(x)
f(x)
(2.11)
On voit donc que si f

(x) est important et f(x) faible, ` a la fois ∆(f) et (f)
peuvent ˆetre grands. Notez que l’on peut aussi ´ecrire la relation pr´ec´edente sous
la forme
(f) = (x)η (2.12)
o` u η est le nombre de conditionnement (voir ci-dessous).
Ajoutons qu’il faudrait en toute rigueur ˆetre capable de mettre une barre
d’erreur sur les r´esultats issus d’une m´ethode ou plus g´en´eralement d’une simu-
lation, en tenant compte de toutes les sources d’erreur possibles. Il est navrant
de constater que la notion de barre d’erreur ne semble concerner que les physi-
ciens exp´erimentateurs. C’est un tort, car une simulation num´erique est une
exp´erience comme une autre. . .
2.5.2 Nombre de conditionnement
Une m´ethode num´erique travaille g´en´eralement avec un certain nombre de pa-
ram`etres, les param`etres d’entr´ee, et renvoie des r´esultats, que l’on peut as-
similer ` a des param`etres de sortie. Un objectif (souvent difficile ` a atteindre)
que recherchera le Physicien est de produire des r´esultats qui ne d´ependent
pas (ou peu) de la m´ethode choisie. L’aspect qui guidera son choix sur une
m´ethode plutˆ ot qu’un autre est la stabilit´e, c’est-` a-dire une certaine garantie
que la proc´edure n’aura pas la facheuse propri´et´e d’amplifier et/ou de g´en´erer
sans limites les erreurs.
La sensibilt´e (ou la stabilit´e) peut ˆetre quantif´ee grˆ ace au nombre de con-
ditionnement (ou nombre de condition). Prenons le cas o` u d’une m´ethode qui,
pour une quantit´e x donn´ee fournit une quantit´e y. On d´efinit ce nombre pour
deux couples (x, y) et (x

, y

) par
η =
y

−y
y
x

−x
x
≡ η(x) (2.13)
Ce nombre rend compte du pouvoir amplificateur d’une m´ethode. Ainsi une
m´ethode num´erique est tr`es sensible (ou instable) si η 1, peu sensible (stable)
si η 1 et est insensible si η <1.
Notez que si x et x

son tr`es proches, alors
η ∼
xf

(x)
f
(2.14)
La sensibilt´e peut donc ˆetre importante lorsque f → 0 et/ou f

→ ∞ et/ou
x →∞.
2.6. DU MOD
`
ELE PHYSIQUE AU MOD
`
ELE NUM
´
ERIQUE 21
x
y
x’
Méthode
numérique
Figure 2.1: La sensibilt´e d’une m´ethode se mesure avec le nombre de condition-
nement.
2.6 Du mod`ele physique au mod`ele num´erique
Lorsque l’on met un syst`eme physique ou un mod`ele en ´equations et que l’on
aborde l’´etape num´erique, plusieurs questions simples mais indispensables doi-
vent ˆetre pos´ees . . . et r´esolues. Parmi ces questions/r´eponses, qui peuvent plus
ou moins conditionner le choix d’une m´ethode particuli`ere, on trouve: mon
voisin de palier aurait-il d´ej` a travaill´e sur un probl`eme similaire ? les incon-
nues de probl`eme physique sont-elles bien identifi´ees ? quel est le domaine de
variation des variables (temps, espace, . . . ) ? les variables physiques sont-elles
aussi les bonnes variables num´eriques ? quelle est pr´ecision souhait´ee sur la
solution cherch´ee ? quelle est l’´echelle de temps d’´ex´ecution de mon programme
? la pr´ecision est-elle d´eterminante ? la temps de calcul est-il un facteur cri-
tique ? etc. Deux aspects g´en´eralement absents des manuels (ou implicitement
´evoqu´es) mais qui constituent une ´etape-cl´e dans le passage du mod`ele physique
au mod`ele num´erique sont l’adimensionnement des ´equations et le choix des
variables num´eriques.
2.6.1 Adimensionnement des ´equations
L’adimensionnement des ´equations est une ´etape qui permet de r´eduire la dy-
namique des variables num´eriques. Il est en effet pr´ef´erable de travailler sur
un domaine num´erique raisonnablement restreint et de manipuler des nom-
bre de l’ordre de l’unit´e. Toutefois, une dynamique trop faible peut engen-
drer une perte d’information. Cette proc´edure vise donc ` a transformer les
´equations du probl`eme en des ´equations souvent plus “lisibles” d’un point de vue
math´ematique (et donc num´erique) o` u les nouvelles variables (les variables adi-
mensionn´ees) apparaˆıssent alors comme des corrections. Comme sous-produit
de l’adimensionnement, on obtiendra naturellement des ´equations les ´echelles
caract´eristiques du probl`eme (par exemple une ou des ´echelles de longueur, des
´echelles de vitesses, des ´echelles de temps, etc.).
2.6.2 Choix des variables
Concernant le choix des variables num´eriques maintenant, il faut rappeler que,
dans beaucoup de probl`emes, les variables poss`edent des dynamiques compl`ement
diff´erentes. Mˆeme adimensionn´ees, des variables peuvent beaucoup varier. Ces
variables ob´eissent forc´ement ` a une certaine loi en fonction des param`etres ou
d’autres variables et il peut ˆetre astucieux d’inclure ces lois dans les variables
num´eriques. Cela rendra la partie num´erique beaucoup stable.
22 CHAPITRE 2. G
´
EN
´
ERALIT
´
ES
10
4
10
5
10
6
10
7
R−R
O
10
−16
10
−14
10
−12
10
−10
10
−8
10
−6
10
−4
10
−2
∆R=10
4
∆R=10
3
∆x=0.1
ρ(R)
ε(ρ)
Figure 2.2: Illustration des effets b´en´efiques d’adimensionnement et de choix
des variables num´eriques. Solution analytique ρ(R) de l’´equation (2.16) (gras)
et erreurs relatives sur la solution en int´egrant la relation (2.16) par la m´ethode
d’Euler, en variables (R, ρ) pour deux pas d’int´egrations diff´erents (pointill´es)
et par la mˆeme m´ethode mais en variables (x, f). Dans ce dernier cas, l’erreur
(proche de la pr´ecision machine) est essentiellement due ` a des erreurs de
repr´esentation et ` a leur propagation.
2.6.3 Exemple
Prenons un exemple concret qui r´esumera l’ensemble des notions evoqu´ees ci-
dessus. Considerons l’´equation qui r´egit l’´equilibre hydrostatique ` a une dimen-
sion d’une atmosph`ere statique et sans masse entourant un corps solide de rayon
R

. En prenant en compte le changement de gravit´e avec l’altitude R, cette
´equation s’´ecrit
γc
2
s
ρ

dR
= −g

R
2

R
2
(2.15)
et supposons que l’on connaisse la densit´e ρ ` a la base de l’atmosph`ere R = R

,
soit ρ(R

). On peut ´evidemment choisir ρ et R comme variables num´eriques,
mais ce choix n’est pas tr`es judicieux. On doit d’abord adimensionner l’´equation
(2.16) en posant par exemple

r =
R
R

˜ ρ =
ρ
ρ(R

)
d’o` u
γc
2
s
˜ ρ
d˜ ρ
dr
= −g

1
r
2
(2.16)
2.7. BIBLIOTH
`
EQUES NUM
´
ERIQUES 23
C’est un bon d´ebut. Mais cela ne change pas le fait que ρ varie exponentiellement
avec l’inverse de l’altitude et qu’il reste des termes de grande amplitude c
2
s
et g

,
sans oublier r et surtour ˜ ρ qui peut varier de plusieurs ordres de grandeurs sur le
domaine d’int´egration choise. Afin de r´eduire au maximum les risques d’erreurs
num´eriques, il faut r´eduire la dynamique de ces variables et de l’´equation par un
choix judicieux de variables avec lesquelles le programme travaillera finalement.
Pour cela, on peut poser

f = ln ρ
x =
L
r
o` u Lγc
2
s
R
2

= GM

(o` u g

= GM

/R
2

). L’´equation (2.16) devient alors
df
dx
= 1 (2.17)
Cette forme pr´esente deux avantages: d’une part, elle est d’une extrˆeme sim-
plicit´e et d’autre part, elle met en ´evidence l’existence d’une ´echelle caract´eristique
de la densit´e, la longueur L. La figure 2.2 montre l’erreur produite sur la solu-
tion exacte ρ(R) en variables (R, ρ) et en variables (x, f); le r´esultat est plutˆ ot
convainquant.
Figure 2.3: Page d’accueil du site Internet du GAMS, permettant l’acc`es ` a un
large catalogue de routines en majorit´e disponibles en ligne.
2.7 Biblioth`eques num´eriques
Grˆ ace aux capacit´es de stockage dont nous disposons ` a l’heure actuelle, il a ´et´e
possible de construire de v´eritables biblioth`eques virtuelles r´eunissant un grand
nombre de programmes ou routines de base que l’on peut maintenant facilement
consulter via Internet. Ces routines sont g´en´eralement ´ecrites en Fortran 77,
Fortran 90 et C. Dans la majorit´e des cas, elles sont ´ecrites et maintenues par
24 CHAPITRE 2. G
´
EN
´
ERALIT
´
ES
classe contenu
A Arithmetic, error analysis
B Number theory
C Elementary and special functions (search also class L5)
D Linear Algebra
E Interpolation
F Solution of nonlinear equations
G Optimization (search also classes K, L8)
H Differentiation, integration
I Differential and integral equations
J Integral transforms
K Approximation (search also class L8)
L Statistics, probability
M Simulation, stochastic modeling (search also classes L6 and L10)
N Data handling (search also class L2)
O Symbolic computation
P Computational geometry (search also classes G and Q)
Q Graphics (search also class L3)
R Service routines
S Software development tools
Z Other
Table 2.2: Les 20 entr´ees principales de l’arbre de d´ecision du “Guide to Avail-
able Mathematical Software (GAMS) project”.
des num´ericiens et math´ematiciens. L’utilisation de ces routines est ` a la respon-
sabilit´e de l’utilisateur. Il sera n´ecessaire d’ˆetre vigilant et de garder un esprit
critique quant aux r´esultats que vous obtiendrez avec ces routines. Toutefois,
leur utilisation intensive par l’ensemble de la communaut´e scientifique offre une
r´eelle garantie de fiabilit´e. En bref, mefiez vous plutˆ ot des routines que vous
´ecrirez vous-mˆeme et qui n’aurons ´et´e test´ees que, au mieux, par vous mˆeme !
Un site Internet donnant acc`es ` a ces routines est le serveur GAMS (“Guide
to Available Mathematical Software”) du NIST (“National Institue for Stan-
dard Technology”) que l’on peut consulter ` a l’adresse http://gams.nist.gov/.
Le GAMS est un projet de service public dirig´e par R.F. Boisvert (on trou-
vera en appendice un extrait des motivations du projet). Il r´epertorie quelques
8800 modules de calcul r´epartis ` a travers 111 biblioth`eques ou packages. Cer-
taines biblioth`eques de programmes sont malheureusement payantes (c’est-` a-
dire qu’il vous faudra acheter les routines pr´ecompil´ees, souvent contre quelques
centaines d’euros). D’autres (une majorit´e) appartiennent au domaine pub-
lic et peuvent ˆetre t´el´echarg´ees en quelques secondes, avec un guide succint
d’impl´ementation. L’une des force de ce serveur est qu’il offre en ligne, grˆ ace ` a
son arbre de d´ecision, un moyen rapide de s´electionner la ou les routines que l’on
cherche. Les 20 entr´ees principales de cet arbre sont donn´ees dans le tableau 2.2.
L’utilisation de ces routines num´eriques n´ecessite un minimum d’investissement
et de pr´ecaution, c’est pourquoi on prendra toujours soin d’effectuer un certain
nombre de tests pr´ealables, sur des exemples connus, avant de se lancer dans
l’inconnu . . .
Il existe aussi les (tr`es nombreux) sites associ´es aux laboratoires de recherche
2.8. EXERCICES ET PROBL
`
EMES 25
en Math´ematiques Appliqu´ees, Analyse Num´erique, Physique, etc. qui souvent
rendent publiques leurs programmes.
2.8 Exercices et probl`emes
Calculez
¸
N
i=1
i
3
et
¸
1
i=N
i
3
pour N = 1000 et 10
6
. Comparez.
Calculez
¸
N
i=1
1
i(i+1)
pour N = 99, 999 et 9999 de 1 ` a N, puis ` a rebours.
Dans les deux cas, comparez ` a la valeur exacte.
D´eveloppez e
x
en s´erie enti`eres ` a l’ordre N et calculez la s´erie. Comparez
` a la valeur exacte.
Comment calculez pr´ecis´ement, sur une machine dot´ee de 4 chiffres signi-
ficatifs, les deux racines de l’´equation x
2
+ 100x + 1 = 0 ?
Quel est le nombre de conditionnement de la m´ethode qui consiste ` a
remplacer sinx par x −
x
3
3!
, au voisinage de 0 ? de
π
2
. Mˆeme question avec le
d´eveloppement de Taylor de la fonction tan x.
26 CHAPITRE 2. G
´
EN
´
ERALIT
´
ES
Chapitre 3
D´erivation
3.1 Rappels
Calculer en un point la d´eriv´ee f

d’une fonction f de la variable x dont
on connaˆıt une expression analytique ne pose aucune difficult´e particuli`ere si
l’on admet quelques r`egles math´ematiques simples. On peut mˆeme envisager
l’utilisation d’un logiciel ou de routines de calcul symbolique ou formel. Plus
d´elicat est l’estimation de la d´eriv´ee d’une fonction non-analytique, par exemple
une fonction d´efinie par un ensemble de N points de mesure ¦(x
i
, y
i
= f(x
i
))¦
N
,
qu’il s’agisse de la d´eriv´ee en l’un des points x
i
ou bien de la d´eriv´ee quelque
part entre deux points de l’´echantillon.
Rappelons qu’une d´eriv´ee est une information locale, d´efinie par passage ` a
la limite du taux d’accroissement de f en x
0
, soit
f

(x
0
) = lim
h→0
f(x
0
+ h) −f(x
0
)
h
(3.1)
Une estimation pr´ecise de cette quantit´e est g´en´eralement assez d´elicate et
difficle ` a partir d’informations de nature discr`ete. Cela n´ecessite un ´echantil-
lonage extrˆemement pouss´e de la fonction, comme cela est illustr´e ` a la figure
3.1. Un tel ´echantillonage n’est pas toujours disponible.
3.2 Diff´erences finies
3.2.1 D´eveloppement de Taylor
Le d´eveloppement de Taylor est un outil fondamental de l’analyse et du calcul
num´erique. Pour une fonction f, il s’´ecrit au voisinage de x
0
f(x) = f(x
0
) +

¸
1
a
i
(x −x
0
)
i
(3.2)
= a
0
+ a
1
(x −x
0
) + a
2
(x −x
0
)
2
+ + a
N
(x −x
0
)
N
+ . . . (3.3)
o` u les coefficients a
k
de la s´erie sont donn´es par
a
k
=
f
(k)
(x
0
)
k!
, k = 0, ∞ (3.4)
27
28 CHAPITRE 3. D
´
ERIVATION
x
y
mauvais echantillonage
bon echantillonage
derivee ?
Figure 3.1: Dans le calcul num´erique des d´eriv´ees, l’´echantillonage de la fonction
joue un rˆ ole majeur.
et f
(k)
d´esigne la d´eriv´ee d’ordre k de f. Lorsque la s´erie est tronqu´ee ` a l’ordre
N inclus, l’ordre de grandeur de l’erreur faite sur le d´eveloppement est donn´ee
par le terme
f
(N+1)
(x0)
(N+1)!
(x −x
0
)
N+1
et l’on ´ecrit alors
f(x) = a
0
+ a
1
(x −x
0
) + + a
N
(x −x
0
)
N
+O

(x −x
0
)
N+1

(3.5)
3.2.2 Diff´erences excentr´ees
En utilisant le r´esultat ci-dessus, on peut essayer de transcrire l’expression (3.1).
A l’ordre 1 inclus et en posant x − x
0
= h, le taux d’accroissement au point
consid´er´e s’´ecrit
f(x
0
+ h) − f(x
0
)
h

f
(1)
(x
0
)
1!
+

¸
2
a
i
h
i−1
(3.6)
Tronqu´ee ` a l’ordre 1, cette relation donne
f(x
0
+ h) −f(x
0
)
h
≈ f

(x
0
) +O(h) (3.7)
soit une repr´esentation de la d´eriv´ee premi`ere de la fonction f, pr´ecise ` a
l’ordre h. Il y a donc confusion (volontaire) entre la d´eriv´ee de la fonction et
son taux d’accroissement. La relation (3.7) est une diff´erence finie ` a 2 points,
dite en avant ou FDF en anglais (pour “forward difference formula”), car elle
fait appel ` a deux ´evaluations de la fonction, l’une au point consid´er´e et l’autre
un peu plus loin, en x = x
0
+ h. On peut construire une diff´erence finie ` a 2
points en arri`ere ou BDF en anglais (pour “backward difference formula”), en
changeant h en −h dans les relations pr´ec´edentes, soit
f(x
0
−h) −f(x
0
)
h

f
(1)
(x
0
)
1!
+

¸
2
a
i
(−h)
i−1
(3.8)
≈ f

(x
0
) +O(h) (3.9)
Notez que l’ordre est le mˆeme, et que ces relations donnent des demi-d´eriv´ees.
De fait, une mˆeme formule ne permet pas de calculer la d´eriv´ee pour le premier
point de l’´echantillon et pour le dernier point. Il y a un effet de bord.
3.2. DIFF
´
ERENCES FINIES 29
D’un point de vue num´erique, on ´ecrira plutˆ ot ces sch´emas
f

i
=
f
i±1
−f
i
±h
(3.10)
pour un point x
i
quelconque de l’´echantillon.
3.2.3 Diff´erences centr´ees
En combinant les sch´emas excentr´es avant et arri`ere ci-dessus, on parvient facile-
ment ` a ´eliminer le terme d’ordre h. Reste alors une relation donnant la d´eriv´ee
premi`ere ` a l’ordre sup´erieur, soit
f

(x
0
) =
f(x
0
+ h) −f(x
0
−h)
2h
+O(h
2
) (3.11)
que l’on ´ecrira au point x
i
f

i
=
f
i+1
−f
i−1
2h
(3.12)
Ce sch´ema est appel´e diff´erence finie centr´e ` a trois points. Il met en jeu
les 2 points imm´ediatement ` a gauche et ` a droite du point o` u l’on calcule la
d´eriv´ee (ainsi que le point en question mais avec un poids nul). Une conbinai-
son diff´erente des deux sch´emas excentr´es pr´ec´edents donne acc`es ` a un sch´ema
d’ordre h
2
pour la d´eriv´ee seconde de f, soit
f

(x
0
) =
f(x
0
+ h) −2f(x
0
) + f(x
0
−h)
h
2
+O(h
2
) (3.13)
que l’on ´ecrira
f

i
=
f
i+1
−2f
i
+ f
i−1
h
2
(3.14)
Ces deux sch´emas sont tr`es courants dans les probl`emes aux d´eriv´ees ordinaires
et aux d´eriv´ees partielles. Il est important de remarquer qu’ils imposent un
´echantillonnage r´egulier des points d´efinissant f.
3.2.4 Sch´emas d’ordres ´elev´es
La relation (3.11) introduit deux effets de bords, l’un ` a gauche pour et l’autre ` a
droite. On peut bien-sˆ ur utiliser les diff´erences en avant et en arri`ere donn´ees par
la relation (3.10) mais elles sont d’ordre inf´erieur. Pour que l’ordre soit le mˆeme
partout ` a l’int´erieur de l’intervalle comme sur les bords, on peut construire des
sch´emas excentr´es d’ordre h
2
. Ils sont donn´es au point x
i
par
f

i
= ±
−3f
i
+ 4f
i±1
−f
i±2
2h
(3.15)
o` u le signe + vaut pour la diff´erence en avant (pour i = 1) et le signe − pour
la diff´erence en arri`ere (en i = N). Des sch´emas d’ordres plus ´elev´es existent,
avec des effets de bords encore plus ´etendus, comme cette formule
f

i
=
−f
i+2
+ 8f
i−1
−8f
i−1
+ f
i−2
12h
(3.16)
pr´ecise ` a l’ordre 4.
30 CHAPITRE 3. D
´
ERIVATION
x
x x
1 2
x
3
y
y
y
1
2
3
f(x)
approximation y
de Lagrange: y=P (x)
2
Figure 3.2: L’approximation polynˆ omiale permet de calculer les d´eriv´ees suc-
cessive d’une fonction en tout point d’un intervalle.
3.2.5 Echantillonage quelconque
On peut bien-sˆ ur ´etendre ces sch´emas au cas d’une fonction irr´eguli`erement
´echantillon´ee. Par exemple, pour trois points cons´ecutifs x
i−1
, x
i
et x
i+1
, tels
que h = x
i
− x
i−1
et h

= x
i+1
− x
i
avec h = h

, on montre que les d´eriv´ees
premi`ere et seconde peuvent s’exprimer par les sch´emas
f

i
=
hf
i+1
+ (h −h

)f
i
−h

f
i−1
2hh

(3.17)
et
f

i
=
(h + h

)(hf
i+1
+ h

f
i−1
) + (h −h

)
2
f
i
2h
2
h
2
(3.18)
respectivement.
3.3 M´ethode g´enerale
L’une des difficult´es li´ee ` a l’utilisation des sch´emas ci-dessus est que l’on ne
peut pas calculer la d´eriv´ee en dehors des points de l’´echantillon. Un m´ethode
plus g´en´erale s’impose. Classiquement, on remplace, au moins localement, la
fonction f par une fonction analytique simple que l’on d´erivera par la suite.
Il s’agit le plus souvent d’un polynˆ ome P
N
(x) de degr´e N. Pour construire ce
polynˆ ome, il faudra N+1 points, au moins (dans certains cas, on pourra pr´ef´erer
r´ealiser un ajustement). On peut partir des polynˆ omes de Lagrange et de New-
ton, particuli`erement bien adapt´es ` a l’interpolation, et on prendra garde de ne
pas utiliser des polynˆ omes de d´egr´es trop ´el´ev´es au risque de voir apparaˆıtre le
ph´enom`ene de Runge (des “oscillations; voir le chapitre 4). L’estimation la plus
simple de la d´eriv´ee sera obtenue en assimilant la fonction ` a une droite, soit
f(x) ≈ P
1
(x), construite ` a partir de 2 points de l’´echantillon, ce qui redonne les
sch´emas excentr´es d’ordre h ´etablis plus haut.
L’utilisation des approximants (polynomiaux) permet ´egalement le calcul
des d´eriv´ees seconde, troisi`eme, etc. de f de mani`ere compl`etement analytique.
C’est tr`es pratique, bien qu’il n’y ait pas de garantie de pr´ecision sur des d´eriv´ees
d’ordre ´elev´e.
3.4. PAS OPTIMUM 31
i+1
pas h=x -x
i
precision
h
opt
Figure 3.3: La pr´ecision sur la d´eriv´ee num´erique d’une fonction d´epend forte-
ment du pas. En g´en´eral, il existe un pas optimum h
opt
qui correspond ` a la
pr´ecision la plus grande possible copmpte-tenu des erreurs de troncature des
sch´emas et des erreurs d’arrondis.
Enfin, mentionnons qu’il existe des m´ethodes qui emploient non seulement
des informations sur la fonction mais aussi sur sa ou ses d´eriv´ees en x
i
, comme les
m´ethodes de Bernouilli, de Bessel, de Aitken ou de Everett. Ces m´ethodes sont
aussi utilis´ees dans les interpolations et les quadratures. Ici, elles permettraient
d’estimer la d´eriv´ee en x = x
i
avec une pr´ecision bien sup´erieure ` a celle obtenue
par les seules diff´erences finies sur f. Dans l’objectif d’utiliser ces m´ethodes que
nous n’exposerons pas ici, il donc est recommander de g´en´erer une table plus
compl`ete, du type ¦(x
i
, f(x
i
), f

(x
i
), . . . )¦
N
.
3.4 Pas optimum
La pr´ecision du calcul de d´eriv´ee se trouve limit´ee par deux effets cumulatifs:
l’un est li´e au sch´ema utilis´e et l’autre vient des erreurs de repr´esentation de
machines. De ce fait, et contrairement ` a ce que l’on pourrait penser, faire
tendre le pas h vers z´ero ne donne pas une pr´ecision infinie. En d’autres termes,
il existe un choix optimum h
opt
pour h qui correspond ` a une pr´ecision-seuil qu’il
est impossible de franchir. Cet effet est illustr´e ` a la figure 3.3. Par exemple,
pour le sch´ema (3.11), l’erreur de troncature varie comme h
2
, alors que l’erreur
de repr´esentation varie comme 1/h. On peut dans ce cas montrer que le pas
optimum est approximativement donn´e par
h
opt

E
M

1/3
(3.19)
o` u E correspond aux erreurs d’arrondis dans le calcul de f (c’est souvent un
peu plus que la pr´ecision machine) et o` u M correspond ` a l’erreur de troncature
(c’est en fait le majorant de la d´eriv´ee troisi`eme sur l’intervalle). Pour les fonc-
tions simples, h
opt
pourra ˆetre tr`es petit et approcher la pr´ecision machine. Un
exemple est donn´e ` a la figure 3.4.
32 CHAPITRE 3. D
´
ERIVATION
10
−16
10
−14
10
−12
10
−10
10
−8
10
−6
10
−4
10
−2
h
10
−13
10
−11
10
−9
10
−7
10
−5
10
−3
10
−1
10
1
10
3

y

(
x
)
=
|
y

(
x
)

e
x
|
x=10
x=0
Figure 3.4: Exemple illustrant l’existence d’un pas optimum h
opt
pour le calcul
de la d´eriv´ee de la fonction e
x
en x = 0 et x = 10. Ici, h
opt
∼ 10
−9
.
3.5 Extrapolation de Richardson
Une m´ethode puissante pour accroˆıtre l’ordre d’un sch´ema de d´erivation est
l’extrapolation de Richardson. Par cette m´ethode, l’am´elioration de la pr´ecision
est obtenue en consid´erant, quand c’est possible, la d´eriv´ee pour diff´erents pas
h
0
≡ h, h
1

h
0
2
, h
2

h
0
2
2
, . . . , h
n

h
0
2
n
et en combinant les d´eriv´ees obtenues pour chacun de ces pas. Ainsi, si f

[h
k
]
d´esigne la d´eriv´ee en un point obtenue pour le pas h
k
=
h0
2
k
, alors une meilleure
approximation est donn´ee par
f


2
k
f

[h
k+1
] −f

[h
k
]
2
k
−1
(3.20)
En pratique, on gagne au moins un ordre, comme le montre l’exemple de la
figure 3.5.
3.6 Exercices et probl`emes
Trouvez les sch´emas de diff´erences finies centr´ees, en avant et en arri`ere
pour les d´eriv´ees seconde et troisi`eme.
Retrouvez les relations (3.17) et (3.18). Quel est leur ordre ?
Retrouvez la relation (3.16) en utilisant uniquement le sch´ema de d´erivation
centr´ee.
Etablissez le sch´ema (3.11) ` a l’aide de l’approximation polynomiale de
Lagrange.
3.6. EXERCICES ET PROBL
`
EMES 33
0 10 20 30
k
10
−15
10
−13
10
−11
10
−9
10
−7
10
−5
10
−3
10
−1

y

(
0
)
=
|
y

(
0
)

1
|
difference avant (FDF)
difference centree
extrapolation de Richardson (diff. centree)
Figure 3.5: Calcul de la d´eriv´ee de e
x
en x = 0 pour diff´erents pas h
k
= 2
−k
.
Gen´erez un ensemble de N points ¦(x
i
, f
i

N
pour une fonction f connue
et calculez la d´eriv´ee en chaque point x
i
de l’´echantillon pour diff´erentes largeurs
d’intervalle et comparez ` a la valeur vraie. Quel intervalle conduit ` a la meilleure
estimation ?
Tracez l’erreur commise sur la d´eriv´ee d’une fonction connue, par exemple
f(x) = sin x, en fonction de la largeur h de l’intervalle. D´eduisez la largeur la
plus pertinente. Comparez les r´esultats avec les d´eriv´ees estim´ees par un ensem-
ble de p points ¦(x
i
, f(x
i
))¦
p
. Reprennez ces questions avec un sch´ema d’ordre
plus ´elev´e.
Quelle est l’ordre de grandeur du pas optimum permettant de calculer
au mieux la d´eriv´ee premi`ere par le sch´ema centr´e ` a 5 points ? et la d´eriv´ee
seconde par le sh´ema centr´e ` a 3 points ?
Dans quelle(s) condition(s) les sch´emas centr´es ` a 3 et ` a 5 points donnent-
ils des r´esultats similaires ?
D´emontrez la relation (3.20)
34 CHAPITRE 3. D
´
ERIVATION
Chapitre 4
Polynˆ omes, interpolations
et ajustements
Les polynˆ omes constituent une famille de fonctions tout ` a fait remarquable
en Math´ematiques. Ils sont aussi un outil essentiel du calcul et de l’analyse
num´erique, notamment dans l’´evaluation ou l’approximation des fonctions, dans
les probl`emes d’interpolation et d’extrapolation, dans la r´esolution d’´equations
diff´erentielles, etc. Rappelons qu’un polynˆ ome de degr´e N, not´e P
N
, est de la
forme
P
N
(x) = a
0
+ a
1
x + a
2
x
2
+ a
3
x
3
+ + a
N−1
x
N−1
+ a
N
x
N
(4.1)
o` u a
N
= 0. Il a au plus N racines distinctes r
k
, r´eelles ou imaginaires, telles
que P
N
(r
k
) = 0. Ses d´eriv´ees successives sont aussi des polynˆ omes, avec
P

N
(x) = a
1
x + 2a
2
x + 3a
3
x
2
+ + (N −1)a
N−1
x
N−2
+ Na
N
x
N−1
(4.2)
P

N
(x) = a
1
+ 2a
2
+ 6a
3
x + . . .
+ (N −1)(N −2)a
N−1
x
N−3
+ N(N −1)a
N
x
N−2
(4.3)
. . .
P
(N)
N
(x) = a
N
N! (4.4)
et
P
(N+j)
N
(x) = 0, j ≥ 1, pour tout x. (4.5)
4.1 Formes polynˆ omiales remarquables
On peut ´ecrire un polynˆ ome de plusieurs fa¸ cons, selon l’utilisation que l’on en
fait. Parmi les formes les plus int´eressantes, on trouve les formes de Taylor, de
Lagrange et de Newton.
4.1.1 Forme de Taylor
Elle est construite ` a partir de la forme (4.1), soit
c
N
(x) = P
N
(x −x
0
)
= a
0
+ a
1
(x − x
0
) + a
2
(x −x
0
)
2
+ + a
N
(x −x
0
)
N
(4.6)
35
36 CHAPITRE 4. POLYN
ˆ
OMES, INTERPOLATIONS ET AJUSTEMENTS
Pour toute fonction f(x), on peut en principe contruire le Polynˆ ome de Taylor
associ´e c
N
(x) tel que f(x) ≈ P
N
(x). Il suffit de connaˆıtre les d´eriv´ees de f
jusqu’` a l’ordre N, soient f

(x), f

(x), . . . , f
(N−1)
et f
(N)
. Les coefficients a
k
de la s´erie sont alors donn´es par
a
k
=
f
(k)
(x
0
)
k!
, k = 0, N (4.7)
et l’erreur faite sur l’approximation est de l’ordre de
f
(N+1)
(x0)
(N+1)!
(x −x
0
)
N+1
.
4.1.2 Forme de Lagrange
Elle s’´ecrit
L
N
(x) =
N
¸
k=0
y
k
L
N,k
(x) (4.8)
o` u L
N,k
(x) sont les coefficients de Lagrange d´efinis par
L
N,k
(x) =
(x −x
0
) . . . (x −x
k−1
)(x −x
k+1
) . . . (x −x
N
)
(x
k
−x
0
) . . . (x
k
−x
k−1
)(x
k
−x
k+1
) . . . (x
k
−x
N
)
(4.9)
et y
k
= P
N
(x
k
). Notez que ces coefficients sont en fait des polynˆ omes.
4.1.3 Forme de Newton
Elle s’´ecrit
^
N
(x) = a
0
+ a
1
(x −x
0
) + a
2
(x −x
0
)(x −x
1
) + . . .
+ a
N
(x −x
0
)(x −x
1
) . . . (x −x
N−1
) (4.10)
o` u les x
k
sont les centres. En particulier, on voit que
^
N
(x) = ^
N−1
(x) + a
N
(x −x
0
)(x −x
1
) . . . (x −x
N−1
) (4.11)
4.2 Quelques polynˆ omes remarquables
Les polynˆ omes de Legendre, de Chebyshev et de Hermite dont nous donnons ci-
dessous une forme g´en´eratrice forment une famille de polynˆ omes orthogonaux.
Ils jouissent d’un certain nombre de propri´et´es interessantes que l’on retrouvera
dans des ouvrages sp´ecialis´es.
4.2.1 Polynˆ omes de Chebyshev
Ils sont d´efinis par la relation de r´ecurrence
T
k
(x) = 2xT
k−1
(x) −T
k−2
(x) (4.12)
avec T
0
(x) = 1 et T
1
(x) = x. En particulier, les polynˆ omes sont pairs pour k pair
et impairs pour k impair. Sur l’intervalle [−1, 1] sur lequel ils sont essentielle-
ment utilis´es (voir la figure 4.1), ils sont de norme finie avec [T
k
(x)[ ≤ 1. Les
k racines de T
k
(encore appel´ees noeuds) sont donn´es par r
j
= cos
π
2N
(2j + 1),
j = 0, k −1.
4.3. EVALUATION D’UN POLYN
ˆ
OME 37
−1.0 −0.5 0.0 0.5 1.0
x
−1.0
−0.5
0.0
0.5
1.0
T
k
(
x
)
k=1
k=2
k=10
k=50
Figure 4.1: Polynˆ ome de Chebyshev de premi`ere esp`ece T
k
(x) sur [−1, 1] pour
k = 1, 2, 10 et 50.
−1.0 −0.5 0.0 0.5 1.0
x
−1.0
−0.5
0.0
0.5
1.0
P
k
(
x
)
k=2
k=3
k=10
k=50
Figure 4.2: Polynˆ ome de Legendre {
k
(x) sur [−1, 1] pour k = 2, 3, 10 et 50.
4.2.2 Polynˆ omes de Legendre
Ils sont d´efinis par la relation de r´ecurrence
(k + 1){
k+1
(x) = (2k + 1)x{
k
(x) −k{
k−1
(x) (4.13)
avec {
0
(x) = 1 et {
1
(x) = x. Leur parit´e est celle k. Sur l’intervalle [−1, 1]
(voir la figure 4.2), ils satisfont [{
k
(x)[ ≤ 1.
4.2.3 Polynˆ omes de Hermite
Ils sont d´efinis par la relation de r´ecurrence
H
k+1
(x) = 2xH
k
(x) −2kH
k−1
(x) (4.14)
avec H
0
(x) = 1 et H
1
(x) = 2x (voir la figure 4.3). Il ont la mˆeme parit´e que k.
4.3 Evaluation d’un polynˆ ome
Calculer la valeur P
N
(x) d’un polynˆ ome en un point x n’est pas aussi imm´ediat
qu’on pourrait le penser, en particulier lorsque les coefficients a
k
sont tr`es
38 CHAPITRE 4. POLYN
ˆ
OMES, INTERPOLATIONS ET AJUSTEMENTS
−2 −1 0 1 2
x
−20
−10
0
10
20
H
k
(
x
)
k=2
k=3
k=4
k=10
−2 −1 0 1 2
x
−200000
−100000
0
100000
200000
H
1
0
(
x
)

e
t

H
1
1
(
x
)
Figure 4.3: Polynˆ ome de Hermite H
k
(x) sur [−2, 2] pour k = 2, 3, 4, 10 et 11.
diff´erents les uns des autres, ou quand l’ordre du polynˆ ome est ´elev´e (dis-
ons N 5). Comme pour l’´evaluation de n’importe qu’elle fonction simple,
on s’attend na¨ıvement ` a ce P
N
(x) soit connu ` a la pr´ecision de la machine;
mais les erreurs num´eriques (repr´esentation et annulation soustractive) peu-
vent ˆetre importantes sans pr´ecautions particuli`eres, notamment ` a cause de
l’op´eration d’´el´evation ` a la puissance. Plutˆ ot que d’appliquer stricto sensu le
sch´ema sugg´er´e par la relation (4.1), c’est-` a-dire
Y ←a
0
+ a
1
∗ x + a
2
∗ x ∗ ∗2 + + a
N
∗ x ∗ ∗N, (4.15)
il est pr´ef´erable de faire appel, si possible, ` a la forme imbriqu´ee, ou encore forme
de Horner o` u P
N
(x) est r´e-´ecrit de la fa¸ con suivante
P
N
(x) = a
0
+ x(a
1
+ x(a
2
+ x(a
3
+ + x(a
N−1
+ a
N
x))))) (4.16)
Sous cette nouvelle forme, l’algorithme devient r´ecursif avec

Y ←x
Y ←a
N−k
+ a
N−k+1
Y, k = 1, N,
et il donc tr`es facile ` a programmer. A la fin du cycle, la valeur du polynˆ ome est
contenue dans la variable interm´ediaire Y. Alors que le sch´ema (4.15) compte
environ
N
2
2
op´erations (essentiellement des multiplications), celui-ci n’en compte
plus que 2N environ (multiplications et additions). Il est donc plus rapide, mais
surtout, il diminue les risques d’erreurs.
On voit que les formes de Taylor et de Newton sont particuli`erement bien
adapt´ees au calcul num´erique de ce type. Pour les polynˆ omes qui peuvent ˆetre
directement d´efinis par une relation de r´ecurrence, comme les polynˆ omes de Leg-
endre, de Chebyshev, de Hermite ou autre, la m´ethode de Horner ne presente
pas d’int´erˆet, car on utilisera ´evidemment le sch´ema r´ecursif associ´e.
4.4. INTERPOLATIONS ET EXTRAPOLATION 39
0 10 20 30 40 50
ordre k du polynome de Legendre
−15
−10
−5
0
l
o
g
1
0
[
1

P
k
(
1
)
]
Figure 4.4: Exemple d’erreur commise sur le calcul de {
2k
(1) lorsque l’on utilise
un d´eveloppement en s´erie des polynˆ ome de Legendre plutˆ ot que la relation de
r´ecurrence (qui donne P
2k
(1) = 1 ` a la pr´ecision de la machine, pour tout k).
4.4 Interpolations et extrapolation
On d´esigne par interpolation, l’op´eration qui consite ` a estimer la valeur d’une
fonction f en un point d’abscisse x = c de l’intervalle [x
1
, x
N
], sachant que f est
uniquement connue sous forme tabul´ee ¦(x
i
, f
i

N
. Lorsque c < x
1
ou c > x
N
,
on parle d’extrapolation.
4.4.1 Interpolation lin´eaire
L’interpolation la plus simple est l’interpolation lin´eaire qui s’´ecrit ` a une dimen-
sion
f(c) = pf
j
+ (1 −p)f
j+1
, 1 ≤ j ≤ N −1 (4.17)
o` u [x
j
, x
j+1
] est le sous-intervalle contenant c et
p =
x
j+1
−x
x
j+1
−x
j
(4.18)
Cette m´ethode est imparable. Non seulement elle est rapide et ne pr´e-suppose
pas un espacement r´egulier des points, mais elle assure que f(c) est toujours
situ´e dans le rectangle d´efini par les points diam´etralement oppos´es (x
j
, f
j
) et
(x
j+1
, f
j+1
). Son inconv´enient majeur, surtout si l’´echantillonnage est “diffus”,
est illustr´e ` a la figure 4.5: elle produit une fonction d’apparence non liss´ee,
plutˆ ot en ligne bris´ee. Ceci peut ˆetre tr`es g´enant (en particulier, la d´eriv´ee
premi`ere est discontinue).
4.4.2 Approximations polynomiales
On rem´edie au probl`eme ci-dessus grˆ ace ` a un polynˆ ome d’ordre N > 1. Comme
la fonction est tabul´ee en N points, il existe toujours un polynˆ ome de degr´e
40 CHAPITRE 4. POLYN
ˆ
OMES, INTERPOLATIONS ET AJUSTEMENTS
x
y
interpolation lineaire
Figure 4.5: L’interpolation lin´eaire produit toujours une fonction en ligne bris´ee
(sauf lorsque les points sont exactement align´es!).
N − 1 qui passe par ces N points. En pratique, on cherche N coefficients a
k
,
tels que P
N−1
(x
i
) = f(x
i
), puis l’on estime f(c) via P
N−1
. On obtient alors un
syst`eme lin´eaire de N ´equations o` u les N inconnus sont les coefficients a
k
de la
d´ecomposition que l’on peut en principe r´esoudre par les m´ethodes standards.
Il s’agira d’inverser la matrice de Vandermonde V associ´ee
V =

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
1 x
1
x
2
1
. . . x
N−1
1
1 x
2
x
2
2
. . . x
N−1
2
1 x
2
x
2
3
. . . x
N−1
3
. . . . . . . . . . . . . . .
1 x
N
x
2
N
. . . x
N−1
N
¸

(4.19)
Une m´ethode beaucoup plus rapide, car plus directe consiste ` a utiliser les
polynˆ omes de Lagrange (voir la figure 4.6) dont la construction est tr`es ing´eni-
euse. Nous voyons en effet que pour x = x
k
, tous les coefficients de Lagrange
sont nuls sauf L
N,k
(x
k
) qui vaut 1. Autrement dit, en imposant L
N
(x) = f(x)
en tous les points de collocation, le probl`eme de l’interpolation se r´esumera au
calcul de ces coefficients donn´es par la formule (4.8) et ` a l’application de la re-
lation (4.9) avec x = c. On r´ealise alors une approximation de Lagrange. Notez
que lorsque les points sont r´eguli`erement espac´es, le calcul des coefficients de
Lagrange se simplifie: leur d´enominateur vaut ±h
N−1
, o` u h est l’espacement
entre les points. Cette m´ethode est donc tr`es efficace, ` a condition que les ab-
scisses soient fixes.
Autre m´ethode efficace, celle qui consiste ` a construire les polynˆ omes de
Newton. Comme le montre la relation (4.10), ^
N−1
(x
0
) = a
0
= f(x
0
). Par
4.4. INTERPOLATIONS ET EXTRAPOLATION 41
x
x x
1 2
x
3
y
y
y
1
2
3
f(x)
approximation y
de Lagrange: y=P (x)
2
Figure 4.6: L’approximation de Lagrange consiste ` a faire passer un polynˆ ome
de degr´e N −1 par N points tabul´es (x
i
, f(x
i
))
N
.
cons´equent
NN−1(x0)−a0
x−x0
est un polynˆ ome de Newton. Il s’´ecrit
^
N−1
(x
0
) −a
0
x −x
0
= a
1
+ a
2
(x −x
1
) + + a
N
(x −x
1
) . . . (x −x
N−1
)
≡ ^
(I)
N−2
(x) (4.20)
En particulier, en x = x
1
, il fournit a
1
= f(x
1
). A son tour,
N
(I)
N−2
(x1)−a1
x−x1
est
un polynˆ ome de Newton qui permet de calculer a
2
, etc. En poursuivant ce
proc´ed´e que l’on appelle processus des diff´erences divis´ees, on trouve tous les
coefficients du polynˆ ome de Newton, donc le polynˆ ome interpolant. On aura
donc f(c) = ^
N−1
(c). On r´ealise alors une approximation de Newton.
4.4.3 Ph´enom`eme de Runge
Si l’on peut toujours faire passer un polynˆ ome par un ensemble de N points,
la fonction interpolante n’a pas le rˆ ole de lissage que l’on pourrait lui prˆeter
intuitivement ou que l’on souhaiterait. Comme l’indique la figure 4.8, le r´esultat
peut donner des oscillations, ou ph´enom`ene de Runge, en particulier lorsque N
est grand. Autrement dit, si l’erreur d’interpolation est nulle sur les points de
collocation par construction, elle peut ˆetre grande entre eux. L’ordre n’est pas
seul en cause: le ph´enom`ene peut disparaˆıtre avec un espacement irr´egulier.
Mentionnons ` a ce propos que l’interpolation est un processus qui g´en`ere
de l’information l` a o` u elle n’est en principe pas disponible. Il faudra donc
garder ` a l’esprit que toute op´eration qui pourra ˆetre effectu´ee ` a partir d’une
valeur ou d’une fonction interpol´ee (par exemple les op´erations de d´erivation)
sera entach´ee d’une erreur pouvant ˆetre tr`es importante. De ce point de vue,
l’extrapolation, dont nous n’avons pas parl´e, doit ˆetre manipul´ee avec une
extrˆeme prudence, surtout si le point c est loin de l’intervalle de tabulation.
On peut trouver ` a peu pr`es n’importe quoi.
42 CHAPITRE 4. POLYN
ˆ
OMES, INTERPOLATIONS ET AJUSTEMENTS
x
x x
1
x
y
y
1
y
f(x)
5 9
9
approximation
Figure 4.7: Oscillations apparaissant quand on tente de faire passer un polynˆ ome
de degr´e ´elev´e par un ensemble de points.
4.4.4 M´ethode g´en´erale
Enfin, les polynˆ omes comme base de fonctions interpolantes n’est ´evidemment
pas le seul choix possible; on peut en pratique utiliser d’autres types de fonctions
˜
f
k
(x) (voir '4.6). Le principe reste le mˆeme. On cherchera a repr´esenter la
fonction tabul´ee par une fonction analytique du type
f(x) ≈
¸
k
a
k
˜
f
k
(x) = 1(x) (4.21)
o` u l’on imposera f
i
= 1
i
pour touts les points tabul´es. L’´ecriture des N con-
traintes fournira les coefficients a
k
.
Signalons qu’il existe des m´ethodes qui utilisent des informations sur la ou les
d´eriv´ees successives de la fonction ` a interpoler (comme les formules de Bessel et
de Everett). Rares toutefois sont les cas o` u l’on dispose de ce type d’information.
Autrement dit, si des donn´ees doivent ˆetre r´e-utilis´ees et extrapol´ees, il peut ˆetre
judicieux de g´enerer en mˆeme temps que f, sa d´eriv´ee premi`ere (au moins) et
d’appliquer ces m´ethodes sp´ecifiques.
4.5 Principes de l’ajustement
Dans le processus d’interpolation, on utilise tous les points de mesure pour con-
struire un polynˆ ome P
N
ou une fonction interpolante 1(x). Comme nous l’avons
mentionn´e, cette op´eration peut s’av´erer num´eriquement risqu´ee pour N grand.
Elle peut ´egalement ˆetre d´enu´ee de sens physique, par exemple si les points
tabul´ees d´ecrivent une loi lin´eaire tout en affichant une certaine dispersion. Il
est fr´equent de rencontrer ce type de situation lorsque les points sont issus d’une
exp´erience o` u chaque mesure est entach´ee d’une erreur. On peut alors souhaiter
extraire une corr´elation simple entre deux variables x et y d’un ´echantillon sans
pour autant vouloir une fonction interpolante qui passe par tous les points. On
cherche alors ` a r´ealiser un ajustement (ou “curve fitting” en anglais). Cet ajuste-
ment peut mettre en jeu une fonction tout-` a-fait quelconque. Le plus souvent,
on travaille avec un polynˆ ome P
k
de degr´e k tel que k + 1 < N, N ´etant le
nombre de points de collocation. La question qui se pose alors est la suivante:
4.6. SPLINES 43
x
y
f(x)=ax+b
regression lineaire
Figure 4.8: Dans les probl`emes d’ajustement, on cherche ` a minimiser la distance
entre les points de collocation et la fonction d’ajustement f.
comment, une fois la fonction s´electionn´ee, trouver ses param`etres de mani`ere
` a r´ealiser le meilleur ajustement ? Le proc´ed´e est quasiment toujours le mˆeme.
On commence par calculer, pour chaque point de l’´echantillon, la distance d
i
` a
la courbe de la fonction, ce qui se solde par l’´ecriture de N ´equations. Puis, l’on
impose que la distance totale
¸
i
[d
i
[ soit la plus petite possible.
Par exemple, pour trouver la droite moyenne d’´equation y = ax + b (a
et b ´etant les param`etres de la fonction ` a d´eterminer) passant au mieux un
´echantillon contenant N points (x
i
, y
i
), on peut montrer qu’il faut en fait r´esoudre
les deux ´equations suivantes

a
N
¸
i
x
2
i
+ bN'x` −
N
¸
i
x
i
y
i
= 0
a'x` −b −'y` = 0
o` u 'x` est la moyenne des ¦x
i
¦, et 'y` celle des ¦y
i
¦. La solution de ce syst`eme
(les coefficients a et b) est g´en´eralement triviale ` a calculer. Toutes les calculatri-
ces scientifiques sont ´equip´ees d’un petit programme de ce type que l’on invoque
en appuyant sur la touche r´egression lin´eaire.
4.6 Splines
R´ecapitulons: l’approximation polynomiale devient critique lorsque le nombre
de points de mesure est grand et l’ajustement par un polynˆ ome de bas degr´e
peut ˆetre insatisfaisant. Une premi`ere alternative est donn´e par l’interpolation
lin´eaire mais elle conduit ` a une fonction interpol´ee en ligne bris´ee. Comment
faire alors pour arrondir les angles ? La r´eponse est propos´ee par la construction
d’une fonction spline cubique S(x): c’est une fonction d´efinie par morceaux,
comme l’interpolant lin´eaire, mais elle poss`ede les caract´eristiques suivantes
• sur chaque intevalle [x
i
, x
i+1
], la fonction S(x) est un polynˆ ome du troisi`eme
degr´e. On le note P
3;i,i+1
(x)
• la fonction S(x) passe par tous les points de l’´echantillon, quelque soit leur
nombre. C’est-` a-dire que P
3;i,i+1
(x
i+1
) = P
3;i+1,i+2
(x
i+1
).
44 CHAPITRE 4. POLYN
ˆ
OMES, INTERPOLATIONS ET AJUSTEMENTS
y
x
x x x
y
y
1
y
5 9
9
Spline cubique
approximation
polynomiale
regression
lineaire
1
Figure 4.9: Regression, approximation polynomiale et spline cubique.
• S

(x) est continue sur chaque noeuds, soit P

3;i,i+1
(x
i+1
) = P

3;i+1,i+2
(x
i+1
)
• S

(x) est continue sur chaque noeuds, soit P

3;i,i+1
(x
i+1
) = P

3;i+1,i+2
(x
i+1
)
L’ensemble de ces contraintes d´efinit un certain nombre de relations entre les
N − 1 polynˆ omes P
3;i,i+1
(x) qui permettent en principe de les caract´eriser
compl`etement, c’est-` a-dire de trouver les 4(N − 1) coefficients. Le r´esultat est
g´en´eralement assez spectaculaire: le spline passe par tous les points tabul´es et
pr´esente les caract´eristiques (au moins visuelles) d’une fonction de lissage sans
produire d’oscillations pour N ´elev´e. C’est probablement l’une des meilleures
m´ethodes qui existe (voir la figure 4.9).
4.7 Exercices et probl`emes
Ecrivez un algorithme de calcul d’un polynˆ ome de Lagrange mettant en
oeuvre un sch´ema r´ecursif de type Horner.
Ecrivez les polynˆ omes de Legendre sous la forme de Horner.
Calculer les valeurs du polynˆ ome de Legendre {
10
(x) sur [−1, 1] de trois
mani`eres diff´erentes: (i) sous la forme d´evelopp´ee du type (4.1), (ii) en utilisant
la relation de r´ecurrence (4.13) et (iii) ` a partir de la forme de Horner (4.16).
Comparer le nombre d’op´eration et la pr´ecision obtenue.
Retrouver la relation (4.17).
Retrouvez par l’approximation de Lagrange, l’´equation de la parabole qui
passe par les points (−1, 1), (0, 0) et (1, 1).
Comparez, en terme de nombdre d’op´erations ´el´ementaires, l’approximation
de Lagrange et la m´ethode des diff´erences divis´ees de Newton.
4.7. EXERCICES ET PROBL
`
EMES 45
Etablissez la formule d’interpolation lin´eaire ` a 2 dimensions.
Retrouvez les 2 ´equations ci-dessus. Comment se transforment-elles si la
regression est quadratique en x ? en y ? si elle est en loi de puissance ?
Dressez le bilan des contraintes sur les coefficients de S(x) et montrer que
le syst`eme est, en fait, ind´etermin´e.
46 CHAPITRE 4. POLYN
ˆ
OMES, INTERPOLATIONS ET AJUSTEMENTS
Chapitre 5
Quadratures
5.1 Rappels
Rappelons que l’int´egrale d´efinie I d’une fonction f de la variable x sur un inter-
valle [a, b] repr´esente l’aire, compt´ee alg´ebriquement, comprise entre la courbe
repr´esentative de la fonction, l’axe des abscisses et les droites d’´equations x = a
et x = b (voir la figure 5.1), soit la quantit´e
I =

b
a
f(x)dx = F(b) −F(a) =

b
a
dF
dx
dx (5.1)
C’est une int´egrale d´efinie dont le r´esultat est un scalaire. On pourra donc
facilement former une nouvelle fonction F de la variable b, primitive de f (ou
encore int´egrale ind´efinie), telle que
F(b) =

b
a
f(x)dx + F(a) (5.2)
Le recouvrement des techniques pr´esent´ees ici avec celles d´edi´ees ` a la r´esolution
des ´equations diff´erentielles ordinaires (voir le chapitre 7) est imm´ediat puisque
F est solution de l’´equation
dF
dx
= f(x) (5.3)
A
B
y
D x
a b
C
f(x)
Figure 5.1: Int´egrale d´efinie d’une fonction f (surface hachur´ee). Dans la
m´ethode d’integration des trap`ezes, on assimile cette fonction ` a une fonction
lin´eaire et l’int´egrale est donn´e par l’aire du trap`eze ABCD (surface gris´ee).
47
48 CHAPITRE 5. QUADRATURES
o` u la primitive prend la valeur F(a) en x = a. En pratique, l’approximation de
I s’effectue le plus souvent ` a l’aide de combinaisons lin´eaires des valeurs de f,
et ´eventuellement de ses d´eriv´ees, calcul´ees dans l’intervalle [a, b].
Il est important d’ajouter que l’int´egrale o` u la primitive d’une fonction an-
alytique peut ne pas ˆetre analytique, contrairement au calcul des d´eriv´ees. Les
m´ethodes pr´esent´ees ici concernent de telles situations, incluant les cas tr`es
fr´equents o` u la fonction est d´efinie par un ensemble de points ¦(x
i
, y
i
= f(x
i
))¦,
par exemple issus de mesures exp´erimentales.
5.2 M´ethode des trap`ezes
La m´ethode la plus directe est la m´ethode des trap`ezes qui se r´esume au sch´ema
suivant
I ≈
b −a
2
(f(a) + f(b)) , (5.4)
explicit´e ici ` a un seul et unique trap`eze dont les ar`etes sont les quatre points
A(a, 0), B(a, f(a)), C(b, f(b)) et D(b, 0). Comme le montre la figure 5.1, cela
revient ` a assimiler la fonction ` a une droite. De ce fait, la m´ethode des trap`ezes
ne donne un r´esultat exact que lorsque la fonction est une fonction lin´eaire.
On peut ais´ement se convaincre (au moins graphiquement) que l’approximation
(5.4) sera d’autant meilleure que la fonction f aura un gradient essentiellement
constant sur l’intervalle [a, b]. Tout d´epend de la pr´ecision souhait´ee.
La relation approch´ee (5.4) peut-ˆetre interpr´et´ee l´eg`erement diff´eremment.
En supposant que f est constante sur l’intervalle, on a

b
a
f(x)dx = f(x)

b
a
dx = f(c)(b −a), (5.5)
o` u c est ` a d´eterminer. On retrouve le r´esultat pr´ec´edent en choisissant c tel que
f(c) =
1
2
(f(a) + f(b)) (c’est la valeur moyenne de f pour l’´echantillon ` a deux
points).
Notez qu’il n’y a aucune raison des privil´egier les bords. En d’autres termes,
on peut tr`es bien consid´erer le sch´ema suivant

b
a
f(x)dx = f(m)(b −a), (5.6)
o` u m est le milieu de l’intervalle, soit m = a +
b−a
2
. C’est la m´ethodes des
rectangles.
5.2.1 Pr´ecision
La m´ethode des trap`ezes n´ecessite deux ´evaluations de la fonction, aux points
x
1
= a et x
N
= b. C’est un sch´ema ` a 2 points. Il est d’ordre h
3
(avec h = b−a),
ce qui signifie que l’erreur commise sur I est proportionnelle ` a h
3
. On peut
s’en convaincre en consid´erant b infiniment proche de a, de tel sorte qu’un
d´eveloppement de Taylor autour de a donne
f(x) = f(a) + (x −a)f

(a) +O((x −a)
2
) (5.7)
5.2. M
´
ETHODE DES TRAP
`
EZES 49
A
B
y
D x
a b
C
f(x)
A
B
y
D x
a b
f(x)
C
Figure 5.2: Pour les fonctions qui pr´esentent de fortes variations sur l’intervalle
d’int´egration ou si l’intervalle est trop grand, la m´ethode des trap`ezes peut
donner “n’importe quoi”, a moins qu’elle ne soit utilis´ee sur des sous-intervalles
r´eguliers (m´ethode compos´ee) ou irr´eguliers o` u l’on concentre le d´ecoupage dans
les zones de forts gradients (m´ethode compos´ee adaptative).
pour x ∈ [a, b]. En reportant cette expression dans la relation (5.5), on trouve

b
a
f(x)dx =
b −a
2
(f(a) + f(b)) +

b
a
O

(x −a)
2

dx (5.8)

b −a
2
(f(a) + f(b)) + O(h
3
) (5.9)
Notez qu’il y a une diff´erence essentielle entre d´erivation et d’int´egration: pour
un sch´ema ` a deux points, la premi`ere est d’ordre h alors que la seconde est
d’ordre h
3
.
5.2.2 Version compos´ee
On peut augmenter l’ordre de la m´ethode, c’est-` a-dire r´eduire l’erreur, grˆ ace
` a la m´ethode des trap`ezes compos´ee qui consiste ` a d´ecouper l’intervalle [a, b]
en 2, 3, . . . ou N − 1 sous-intervalles de largeur constante h = x
i+1
− x
i
, avec
i ∈ [1, N −1]. Dans ces conditions, on montre facilement que
I ≈
h
2
(f(a) + f(b)) + h
N−1
¸
i=2
f
i
(5.10)
o` u f
i
≡ f(x
i
). Formellement, l’ordre n’a pas chang´e: c’est toujours h
3
, mais
h est plus petit. On voit donc que si N 1, alors h <b −a et la pr´ecision est
meilleure. Une autre fa¸ con de s’en convaincre est de remarquer que h =
b−a
N−1
,
c’est-` a-dire que pour un intervalle donn´e, la pr´ecision varie approximativement
comme N
−3
. Notez que ce gain n’est pas sans efforts: il faudra ` a pr´esent N +1
´evaluations de la fonction, ce qui se solde par un temps de calcul plus grand.
5.2.3 D´ecoupage adaptatif
On peut proc´eder ` a un d´ecoupage adaptatif de l’intervalle en sous-intervalles
de largeurs in´egales, par exemple dans les zones o` u la fonction pr´esente de
forts gradients. C’est un peu plus difficile ` a g´erer car il faut savoir rep´erer
num´eriquement de telles zones. On peut ` a cet effet, faire appel ` a la d´eriv´ee
seconde de f.
50 CHAPITRE 5. QUADRATURES
A x
a
C
B
f(x)
b
D
y
Figure 5.3: Quand une fonction est singuli`ere, on peut, en premi`ere approxima-
tion, utiliser une formule ouverte ou semi-ouverte.
5.2.4 Sch´emas ouvert et semi-ouvert
Rien n’oblige ` a utiliser tous les points de l’´echantillon. On peut en effet ´ecarter
un ou plusieurs point(s) particuli`erement gˆenant(s). Par exemple, si f diverge
en b (voir la figure 5.3), on pourra remplacer le sch´ema (5.4) par
I ≈ hf(a) (5.11)
C’est ce que l’on appelle un sch’ema semi-ouvert. Dans un sch´ema ouvert,
deux points sont laiss´es de cot´e. Bien-sˆ ur, dans ce genre de traitement, il ne
faut pas s’attendre ` a un r´esultat pr´ecis. Il existe des techniques permettant de
traiter correctement les singularit´es.
5.3 M´ethodes de Simpson
La m´ethode des trap`ezes est simple et efficace, mais elle n´ecessite souvent un
´echantillonnage tr`es dense. On peut avoir recours utilise ` a des sch´emas plus
pr´ecis, comme par exemple au premier sch´ema de Simpson
I ≈
h
3
(f(a) + 4f
2
+ f(b)) , (5.12)
o` u f
2
≡ f(x
2
), h = x
3
− x
2
= x
2
− x
1
, a ≡ x
1
et b ≡ x
3
. C’est un
sch´ema ` a 3 points. Il est d’ordre h
5
et suppose un ´echantillonnage r´egulier.
On pourrait montrer qu’il correspond en fait ` a l’approximation de la fonction
par un polynˆ ome de degr´e 2, passant par les points d’abscisses x
1
, x
2
et x
3
.
Le sch´ema de Simpson est, de fait, rigoureusement exact pour une fonction du
type: y(x) = αx
2
+ βx + γ.
Comme pour la m´ethode des trap`ezes, on peut proc´eder ` a un d´ecoupage de
l’intervalle d’int´egration en N −1 sous-intervalles ´egaux et appliquer le sch´ema
´el´ementaire ci-dessus sur chaque sous-intervalle. On r´ealise alors un sch´ema de
Simpson compos´e. Le d´ecoupage peut ´egalement ˆetre adaptatif.
Il existe une seconde r`egle de Simpson, d’ordre h
5
´egalement. Le sch´ema est
I =
3h
8
(f
1
+ 3f
2
+ 3f
3
+ f
4
) , (5.13)
5.4. FORMULES DE NEWTON-COTES 51
C’est donc un sch´ema ` a 4 points. Il est obtenu par un polynˆ ome interpolant de
degr´e 3.
5.4 Formules de Newton-Cotes
On peut construire des sch´emas encore plus pr´ecis grˆ ace ` a l’interpolation poly-
nˆ omiale. La r`egle g´en´erale est la suivante: un sch´ema ` a k+1 points r´eguli`erement
espac´es doit donner un r´esultat exact pour tout polynˆ ome P
k
(x) de degr´e ≤
k. Les sch´emas associ´es font partie de ce que l’on appelle classiquement les
quadratures de Newton-Cotes. La m´ethode des trap`ezes correspond ` a k = 1,
celles de Simpson ` a k = 2 et 3. Le sch´ema de Boole
I =
2h
45
(7f
1
+ 32f
2
+ 12f
3
+ 32f
4
+ 7f4) , (5.14)
est obtenu avec k = 4, etc. Plus le degr´e du polynˆ ome est ´elev´e, plus l’ordre du
sch´ema est ´elev´e et donc, plus la pr´ecision est grande. La seule limitation est le
nombre p de points disponibles dans l’´echantillon: il doit satisfaire k ≤ p − 1.
On ´evitera toutefois de construire des sch´emas mettant en jeu des polynˆ omes
de degr´es tr`es ´elev´es.
5.5 Sch´emas r´ecursifs
Pour les formules de Newton-Cotes, on peut mettre en place des m´ethodes
r´ecursives qui permettent d’une part de limiter le nombre d’´evaluation de la
fonction et d’autre part de contrˆ oler la pr´ecision de l’int´egration. Prenons par
exemple la m´ethode des trap`ezes et notons I[h] l’approximation de l’int´egrale de
f obtenue en d´ecoupant [a, b] en J = N −1 sous-intervalles de largeur h =
b−a
J
.
Pour calculer I[h], il aura ´et´e n´ecessaire d’´evaluer la fonction en J + 1 points
x
1
, . . . , x
N
. On peut alors montrer que si l’on d´ecoupe chaque intervalle en 2
faisant apparaˆıtre J nouveaux points f
new
j
(il y en a maintenant 2J au total),
une meilleure approximation de I est donn´ee par
I
¸
h
2

=
1
2
I[h] +
h
2
J
¸
j=1
f
new
j
(5.15)
On gagne ainsi un facteur 8 en pr´ecision (soit presque un chiffre significatif). On
peut bien-sˆ ur appliquer cette technique aux r`egles de Simpson et autres, puis
les combiner, toujours dans l’objectif d’accroˆıtre la pr´ecision du calcul. C’est le
principe de construction des tables de Romberg.
5.6 M´ethode g´en´erale
Une formulation plus g´en´erale du probl`eme des quadratures repose sur l’existence
de N poids w
i
tels que l’int´egrale

b
a
g(x)f(x)dx =
N
¸
i=1
w
i
f
i
(5.16)
o` u g est une fonction quelconque, doit ˆetre exacte pour un certain ensemble
de fonctions. La plupart du temps, cet ensemble de fonction est l’espace vectoriel
52 CHAPITRE 5. QUADRATURES
Quadrature conditions
Gauss-Legendre g(x) = 1 ou a = −b = −1
Gauss-Laguerre g(x) = e
−x
ou g(x) = x
p
e
−x
Gauss logarithmique g(x) = ln x, a = 0 = b −1
avec a = 0 et b = ∞
Newton-Cotes g(x) = 1, avec a = −b = −1
Tchebysheff g(x) = 1 et w
i
= C
te
avec a = −b = −1
Tchebysheff-Radau g(x) = x ou
x

1−x
2
,
avec a = −b = −1
Radau g(x) = 1, a = −b = −1)
Filon g(x) = sin kx
“Monte-carlo”
Table 5.1: Quelques quadratures standards.
-1 +1 0 x x
1 2
x
y
f(x)
A
B
C
D
Figure 5.4: Dans l’int´egration de Gauss-Legendre ` a 2 points, on cherche les
noeuds x
1
et x
2
tels que la surface du trap`eze ABCD coincide au mieux avec
l’int´egrale de la fonction. La m´ethode est exacte pour une polynˆ ome de degr´e
au plus 3.
P
k
des polynˆ omes de degr´e k. Il est facile de voir que les formules de Newton-
Cotes sont bien du type de (5.16), avec
• w
i
= ¦
1
2
, 1, 1, . . . , 1,
1
2
¦ pour la m´ethode des trap`ezes,
• w
i
= ¦
1
3
,
4
3
,
2
3
,
4
3
, . . . ,
1
3
¦ pour la premi`ere m´ethode de Simpson,
• w
i
= ¦
3
8
,
9
8
,
9
8
,
3
4
, . . . ,
9
8
,
3
8
¦ pour la seconde m´ethode de Simpson,
• w
i
= ¦
14
45
,
64
45
,
24
45
,
64
45
,
28
45
, . . . ,
64
45
,
14
45
¦ pour la m´ethode de Boole,
avec g(x) = 1 dans tous deux cas. Comme nous l’avons vu, ces m´ethodes sont
exactes pour les polynˆ omes P
k
de degr´e k = N − 1 pourvu que les x
i
soient
dispos´es r´eguli`erement.
D’autres m´ethodes travailllent avec un espacement irr´egulier: les points de
collocation x
i
et les poids sont impos´es quelque soit la fonction f. Le tableau 5.1
5.7. NOYAUX SINGULIERS 53
regroupe quelques quadratures de ce type. Parmi les plus classiques, on trouve
la quadrature de Gauss-Legendre. Dans cette m´ethode, a = −b = −1, g(x) = 1
et les abscisses x
i
, encore appel´ees noeuds, sont les racines des polynˆ omes de
Legendre. Dans le cas N = 2, les noeuds et les poids sont
x
1
= −

3
3
= −x
2
et w
1
= w
2
= 1 (5.17)
et la m´ethode est exacte pour tout polynˆ ome de degr´e k ≤ 3. La figure 5.4
montre la construction graphique associ´ee ` a la quadrature de Gauss-Legendre ` a 2
points. On peut ´etendre la m´ethode ` a un intervalle [a, b] quelconque moyennant
un changement de variable. On op`ere alors une translation de Gauss-Legendre.
5.7 Noyaux singuliers
Il est fr´equent de rencontrer des int´egrales dont les int´egrandes (ou noyaux)
pr´esentent une ou plusieurs singularit´es sur un intervalle donn´e. Nous avons d´ej` a
signal´e que des sch´emas ouverts ou semi-ouverts peuvent ˆetre utilis´es dans ce
cas, mais ils sont tr`es impr´ecis. Le traitement correct d’une singularit´e n´ecessite
que l’on connaisse sa forme (explicite ou implicite), sa nature et sa localisation.
Par exemple, les int´egrales

2a
a
ln(x −a)dx, x ≥ a (5.18)
et

2a
a
dx
x −a
, x ≥ a (5.19)
poss`edent un noyau singulier localis´e en x = a. Dans les deux cas, la sin-
gularit´e est explicite; la premi`ere est de nature logarithmique et la seconde
de nature hyperbolique. Ici, la quadrature peut ˆetre calcul´ee analytiquement.
Num´eriquement, on pourrait utiliser des m´ethodes avec pas h adaptatif o` u l’on
sera in´evitablement tent´e par un sch´ema semi-ouvert pour calculer
lim
h→0

a+h
a
. . . dx (5.20)
ou bien les m´ethodes de Gauss (voir le tableau 5.1).
Un exemple d’int´egrale ` a singulari´e implicite et locali´ee (un cas fr´equemment
rencontr´e) est
I(a) =

1
a
x/(x)dx (5.21)
o` u /(x) est l’int´egrale elliptique compl`ete de premi`ere esp`ece. Rappelons que
/(x) est une fonction sp´eciale d´efinie par
/(x) =

π/2
0

1 −x
2
sin φ
(5.22)
et qui intervient souvent dans les probl`emes ` a sym´etrie cylindrique. On sait que
lim
x→1
/(x) = ln 4 −
1
2
ln

1 −x
2

(5.23)
54 CHAPITRE 5. QUADRATURES
0 0.5 1
x
1
2
3
K(x)
K
reg
(x)
~ ln 4-ln (1-x
2
)
1/2
π/2
ln 4
xK(x)
Figure 5.5: Int´egrale elliptique compl`ete de premi`ere esp`ece /(x) poss´edant une
divergence logarthmique pour x →1, et la fonction r´eguli`ere /
reg
(x).
rendant la singulari´e de nature logarithmique (voir la figure 5.5). Num´eriquement,
on pourra proc´eder de la fa¸ con suivante. La nature de la singularit´e ´etant con-
nue, on commence par former le noyau r´egulier /
reg
(x) par soustraction de la
singularit´e, en posant
/
reg
(x) = /(x) + ln(1 −x
2
) (5.24)
et la relation (5.21) devient
I(a) =

1
a
x

/
reg
(x) + ln(1 −x
2
)

dx (5.25)
La suite est relativement naturelle et directe. On s´epare l’int´egration en
deux, pour obtenir successivement
I(a) =

1
a
x/
reg
(x)dx +

1
a
xln(1 −x
2
)dx
=

1
a
x/
reg
(x)dx −
1
2

0
1−a
2
ln udu, u = 1 −x
2
=

1
a
x/
reg
(x)dx −
1
2
[u(ln u −1)]
0
1−a
2
=

1
a
x/
reg
(x)dx +
1 −a
2
2

ln(1 −a
2
) −1

(5.26)
o` u la partie

1
a
x/
reg
(x)dx poss`ede par construction un noyau parfaitement
r´egulier et pourra ˆetre calcul´ee avce pr´ecision grˆ ace aux m´ethodes standards. Il
est imp´eratif ici que la fonction /
reg
(x) soit calcul´ee avec la plus haute pr´ecision
(par exemple via des biblioth`eques num´eriques).
5.8 Exercices et probl`emes
D´emontrez la relation (5.10).
5.8. EXERCICES ET PROBL
`
EMES 55
D´emontrez la relation (5.12). Pouvez-vous trouver un exemple simple o` u
la m´ethode de Simpson est moins pr´ecise que celle du trap`eze ?
Ecrivez la version composite de la r`egle de Simpson pour une fonction
d´efinie en N points. Comparez sa pr´ecision par rapport ` a la formule ne mettant
en jeu que 3 points de l’intervalle [a, b].
Trouvez le sch´ema relatif ` a la seconde r`egle de Simpson.
Etablissez les sch´emas correspondant ` a k = 4 et 5.
Etablissez la relation de r´ecurrence ci-dessus pour le sch´ema de Simpson
` a 3 points.
Retrouvez les noeuds x
1
, x
2
et les poids w
1
et w
2
de l’int´egration de
Gauss-Legendre ` a deux points.
Calculez num´eriquement l’int´egrale I(a) donn´ee par la relation (5.26).
Pour a = 0, comparez ` a la valeur exacte I(0) = 2G · 1.831931 . . .
56 CHAPITRE 5. QUADRATURES
Chapitre 6
Z´ero d’une fonction.
Syst`emes non-lin´eaires
Lorsque l’on cherche ` a caract´eriser l’´etat d’´equilibre d’un syst`eme, il est
fr´equent de rencontrer des ´equations vectorielles du type
F(

X) = 0 (6.1)
o` u

X d´esigne un vecteur ` a N composantes x
i
et F est un ensemble de N
fonctions f
i
des N variables x
1
, x
2
, . . . , x
N
. Plus familiers peut-ˆetre sont les
probl`emes ` a une dimension (i.e. N = 1) du type
f(x) = 0 (6.2)
o` u il n’y a qu’une seule variable en jeu, x ≡ x
1
. En raison du nombre de degr´e
de libert´e ´elev´e (i.e. sup´erieur ` a 2), la r´esolution d’une ´equation vectorielle du
type (6.1) est g´en´eralement plus d´elicate que pour son analogue ` a une dimen-
sion. Dans les deux cas en revanche, la determination de la solution

R = ¦r
i
¦
N
s’effectue ` a partir d’un intervalle de recherche donn´e par des m´ethodes it´eratives
dont l’initialisation se borne au choix d’un (voire de plusieurs) point(s) de d´epart

X
(0)
(voire

X
(1)
, etc.). En fait, on ne trouve jamais la valeur qui annule ex-
actement le syst`eme, mais une approximation. Comme l’illustre la figure 6.1,
il peut exister plusieurs racines proches dans un intervalle donn´e. La conver-
gence sera d’autant meilleure que le choix sera judicieux, c’est-` a-dire que

X
(0)
sera d´ej` a “suffisamment” proche de

R. Elle d´epend ´egalement tr`es fortement
des propri´et´es de la fonction non seulement au voisinage de la racine cherch´ee
mais aussi au voisinage du point de d´epart. Enfin, la convergence du sch´ema
n´ecessite un crit`ere, qui se fait soit sur la variable, soit sur la fonction, ou bien
sur les deux.
6.1 Existence des solutions et convergence
6.1.1 Condition d’existence
A une dimension, la condition d’existence d’une solution (au moins) pour l’´equa-
tion (6.2) peut s’´enoncer de la fa¸ con suivante: si une fonction f est continue et
qu’il existe un intervalle [a, b] tel que
f(a) f(b) ≤ 0 (6.3)
57
58CHAPITRE 6. Z
´
ERO D’UNE FONCTION. SYST
`
EMES NON-LIN
´
EAIRES
r
1
y
x
f(x)
r
2
points de depart
Figure 6.1: Racines r
1
et r
2
d’une fonction f de la variable x. Selon le point de
d´epart, on tombe sur l’une ou sur l’autre.
alors il existe au moins une quantit´e r´eelle r ∈ [a, b] telle que f(r) = 0 (r est la
racine ou le z´ero de la fonction). Notez que l’in´egalit´e (6.3) ne traduit pas une
condition n´ecessaire, et ne dit rien sur l’unicit´e de la racine (il y en a forc´ement
un nombre impair). Par exemple, sur [−1, 1], la fonction y = x
2
poss`ede une
racine alors que f(−1) f(1) > 0.
6.1.2 Crit`ere de convergence
Comme nous l’avons signal´e, on ne peut pas trouver num´eriquement la solu-
tion exacte r mais seulement ` a une approximation suffisamment bonne de cette
racine x
(n)
, grˆ ace ` a un processus it´eratif que l’on aura d´elib´eremment stopp´e ` a
une certaine ´etape n. Pour d´efinir cette ´etape, il faut d´efinir un crit`ere de con-
vergence. Si ce crit`ere est mal choisi, l’approximation de la racine sera mauvaise,
ce qui peut avoir des r´epercussions importantes sur la suite des calculs. Elim-
inons imm´ediatement tout crit`ere qui porterait sur n: on ne peut pas pr´evoir
` a l’avance le nombre d’it´erations qu’il faudra effectuer, du moins dans le cas le
plus g´en´eral. Cela pourrait par ailleurs conduire ` a une mauvaise identification
de cete racine (par exemple, l’´equation x
2
+1 = 0 n’a pas de racine r´eelle et un
sch´ema it´eratif pourrait donner ` a peu pr`es n’importe quoi, comme l’absisse du
minimum x = 0).
Le crit`ere classique porte g´en´eralement sur la racine elle-mˆeme, c’est-` a-dire
que le processus it´eratif est interrompu lorsque

n
(x) ≡ [x
(n)
−x
(n−1)
[ ≤ C
x
(6.4)
ou mieux, si la racine est non nulle, lorsque

n
(x) ≡

x
(n)
−x
(n−1)
x
(n−1)

≤ E
x
(6.5)
o` u C
x
et E
x
sont des constantes. Ces crit`eres sont tout-` a-fait recevables. Toute-
fois, ils n’assurent pas que l’image par f de l’intervalle [r(1 − E
x
), r(1 + E
x
)]
autour de la racine soit ´egalement “petit”, ce qui peut-ˆetre probl´ematique si
l’on doit par ailleurs utiliser les valeurs de f. Ceci d´epend du gradient de la
fonction au voisinage de la racine, comme l’illustre la figure 6.2. Une proc´edure
plus fiable consiste ` a mettre en place un crit`ere portant aussi sur f, par exemple

n
(f) ≡

f(x
(n)
) −f(x
(n−1)
)

≤ C
f
(6.6)
6.1. EXISTENCE DES SOLUTIONS ET CONVERGENCE 59
y
x
r
x
(f) 2∆
(x) 2∆
r
f(x)
y
critere sur x
critere sur f(x)
(x) 2∆
(f) 2∆
y
f(x)
x
r
2∆(x) (f) ∆
f(x)
critere sur x et sur f(x)
Figure 6.2: Dans la recherche de z´ero d’une fonction, il est recommand´e
d’appliquer un crit`ere de convergence portant ` a la fois sur la variable et sur
la fonction.
60CHAPITRE 6. Z
´
ERO D’UNE FONCTION. SYST
`
EMES NON-LIN
´
EAIRES
ou bien si f est non nulle

n
(f) ≡

f(x
(n)
) −f(x
(n−1)
)
f(x
(n−1)
)

≤ E
f
(6.7)
o` u C
f
et E
f
sont ´egalement des constantes ` a d´efinir. On pourra par exemple
choisir C
f
=
1
100
[sup(f) −inf(f)] sur [a, b] et E
f
= 10
−4
.
6.1.3 Sensibilit´e
On ne peut pas ici calculer le nombre de conditionnement η tel qu’il a ´et´e d´efinit
au chapitre 2, car la fonction s’annule au niveau de la racine. Par ailleurs, on
peut facilement se convaincre que la recherche de la racine sera d’autant plus
facile que la fonction sera sensible ` a tout changement de la variable x, c’est-` a-
dire plus sont gradient (au niveau de la reacine) sera important. Par cons´equent,
le conditionnement (ou la sensibilit´e) dans la recherche de z´ero est en fait inverse
de celui relatif ` a l’´evaluation d’une fonction. Le nombre pertinent sera plutˆ ot
1
[f

(r)[
(6.8)
Notez que le conditionnement est particuli`erement mauvais lorsque la tangente
` a la courbe au point r est presque horizonale, et en particulier pour une racine
double (c’est-` a-dire lorsque f(r) = f

(r) = 0). C’est par exemple le cas des
fonctions du type f(x) = x
p
, avec p ≥ 2.
Pour un probl`eme ` a plusieurs dimensions, le “bon” nombre de condition-
nement est
1
[[J(

R)[[
(6.9)
o` u J est la matrice jacobienne
J(

R) =

¸
¸
¸
¸
¸
¸
∂f1
∂x1
∂f1
∂x2
. . .
∂f1
∂xN
∂f2
∂x1
∂f2
∂x2
. . .
∂f2
∂xN
∂fN
∂x1
∂fN
∂x2
. . .
∂fN
∂xN
¸

R
(6.10)
Un probl`eme se produit lorsque le d´eterminant de cette matrice est nul.
6.1.4 Taux de convergence
On peut contrˆ oler la convergence du processus de recherche de racine en ana-
lysant le comportement de l’erreur d’une ´etape ` a l’autre. Pour cela, on forme
la s´equence

1
(x), ∆
2
(x), ∆
3
(x), . . . , ∆
n−1
(x), ∆
n
(x)
Si [∆
k
(x)[ ∝ [∆
k−1
(x)[ approximativement, alors la convergence est dite
lin´eaire. Dans ce cas, l’approche de la racine s’effectue par mise en place
r´eguli`ere des chiffres significatifs. Si [∆
k
(x)[ ∝ [∆
2
k−1
(x)[, la convergence est
dite quadratique et le nombre de chiffre significatif double en moyenne. Plus
g´en´eralement, on appelle taux de convergence, le nombre ζ tel que
[∆
k
(x)[
[∆
k−1
(x)[
∼ C[∆
k−1
(x)[
ζ−1
(6.11)
6.2. PROBL
`
EMES
`
A UNE DIMENSION 61
o` u [C[ ≤ 1 (sinon l’erreur augmente d’une ´etape ` a l’autre et le processus diverge).
Pour ζ = 1, la convergence est lin´eaire; elle est quadratique pour ζ = 2; cubique
(c’est plus rare) pour ζ = 3, etc.
6.2 Probl`emes `a une dimension
6.2.1 M´ethode de bissection
Supposons que l’on connaisse un intevalle [a, b] contennant la racine r de l’´equa-
tion du type (6.2). La racine est dite encadr´ee. Si l’on coupe l’intervalle en deux,
avec c comme abscisse du point milieu, deux situations peuvent se pr´esenter: soit
f(a)f(c) < 0, la racine se trouve alors sur l’intervalle [a, c], soit f(b)f(c) < 0
et la racine se trouve alors sur l’intervalle [c, b]. Quelqu’il en soit, nous disposons
d’un intervalle plus petit [a
(1)
, b
(1)
] (s’est soit [a, c] soit [c, b]) sur lequel nous
pouvons a nouveau op´erer un d´ecoupage en deux. Au bout de i bissections,
l’intervalle courant a une largeur
b−a
2
i
et la racine est localis´ee sur l’intervalle
[a
(i)
, b
(i)
]. Lorsque la pr´ecision est jug´ee suffisante, ` a l’´etape n, la racine vaut
r ≈ a
(n)
≈ b
(n)
. Un exemple de programmation de cette m´ethode est
epsilon=1.00D-04
WHILE (relerror>=epsilon) DO
midvalue=a+b(-a)/2
IF (f(a)*f(midvalue)<=0) THEN
a=midvalue
ELSE
b=midvalue
ENDIF
relerror=ABS(b-a)/MAX(ABS(a),ABS(b))
ENDDO
PRINT*,’ROOT,ABS. & REL. ERROR::’,(a+b)/2,relerror,(b-a)/2
La pr´ecision est de l’ordre de la largeur du demi-intervalle, soit
1
2
(b
(n)
−a
(n)
).
En assimilant la fonction ` a une droite sur cet intervalle, on a mˆeme
r ≈
f(a
(n)
)(a
(n)
−b
(n)
)
f(b
(n)
) −f(a
(n)
)
+ a
(n)
(6.12)
Ce sch´ema est tr`es efficace. Il est mˆeme imparable. Il garantit toujours de
trouver une racine. Si l’intervalle [a, b] contient plusieurs racines, la m´ethode
parviendra toujours a en isoler une. Mais elle est tr`es lente ` a converger. En
effet, le nombre d’it´eration n´ecessaire pour encadrer la racine ` a la pr´ecision E
pr`es est
n ≈ 1.4 ln
b −a
E
(6.13)
Par exemple, pour un intervalle initial de largeur unit´e et une pr´ecision relative
de 10
−6
, on obtient, n ∼ 21 it´erations. Cela semble peu, mais d’autres m´ethodes
donne un r´esultat aussi pr´ecis avec quelques it´erations seulement.
Enfin, mentionnons qu’il peut ˆetre dangereux de chercher une racine avec
comme seul crit`ere le signe du produit f(a) f(b), pour deux raisons au moins.
D’une part, la fonction peut avoir une racine double
1
. D’autre part, bien que
1
Une racine r est simple lorsque f(r) = 0, mais f
(n)
(r) = 0 pour n ≥ 1. Une racine r est
double lorsque f(r) = f

(r) = 0, mais f
(n)
(r) = 0 pour n ≥ 2. Une racine r est multiple
lorsque f(r) = f

(r) = f
(2)
(r) = · · · = f
(k)
(r) = 0, mais f
(k)
(r) = 0 pour n ≥ k + 1.
62CHAPITRE 6. Z
´
ERO D’UNE FONCTION. SYST
`
EMES NON-LIN
´
EAIRES
y
x
a
A
y
x
b
A
B
c
f(c)
b
f(c)
B
c
ETAPE n ETAPE n-1
a
racine
f(x) f(x)
Figure 6.3: Dans la m´ethode des fausses positions, on cherche l’intersection
du segment [AB] avec l’axe y = 0. Selon le signe des produits f(a) f(c) et
f(c) f(b), on selectionne le nouvel intervalle de recherche, et ainsi de suite
jusqu’` a convergence.
l’on puisse avoir f(a) f(b) < 0, on peut se trouver en pr´esence d’une fonction
qui diverge ` a l’infini de part et d’autre d’une valeur c ∈ [a, b] (c’est par exemple
le cas de la fonction f(x) =
1
x
en x = c = 0) et chercher une racine sur cet
intervalle serait vain.
6.2.2 M´ethode des “fausses positions”
C’est une m´ethode de r´esolution proche de la pr´ec´edente car ´egalement bas´ee
sur la comparaison des signes de la fonction f aux deux bornes de l’intervalle de
recherche. Toutefois, ici, au lieu de prendre le point milieu, on cherche le point
C(c, 0), intersection du segment [AB] joingnant les points A(a, f(a)) et B(b, f(b))
et l’axe des abscisses, comme indiqu´e ` a la figure 6.3. On r´eit`ere le processus sur
un intervalle plus petit [a, c] ou [c, b], selon le signes de f(a), f(c) et f(b). A
l’´etape n, lorsque la taille de l’intervalle de recherche est “suffisamment” petit,
la racine vaut r ≈ c
(n)
±
1
2
(b
(n)
−a
(n)
). On peut se convaincre de l’efficacit´e de
cette m´ethode par rapport ` a la m´ethode de bissection (et donc ` a sa plus grande
rapidit´e) sur une fonction lin´eaire par exemple.
6.2.3 M´ethode du “point fixe”
La m´ethode du point fixe concerne la r´esolution d’´equations du type
g(x) −x = 0 (6.14)
qui constituent un sous-ensemble
2
de (6.2). En d’autres termes, il s’agit de
trouver l’intersection d’une fonction g avec la premi`ere bissectrice des axes
d’´equation y = x. Le sch´ema associ´e est simple et intuitif: on part d’une ab-
scisse initiale x
(0)
proche de la racine r cherch´ee puis l’on calcule g(x
(0)
) = x
(1)
;
puis connaissant x
(1)
, on calcule g(x
(1)
) = x
(2)
, et ainsi de suite jusqu’` a ce que
l’on obtienne une stabilisation du processus, c’est-` a-dire g(x
(n)
) ≈ x
(n)
avec une
2
Toute ´equation du type (6.2) peut ˆetre explicitement ramen´ee ` a une forme du type (6.14)
en posant g(x) = f(x) + x; mais l’emploi de la m´ethode du point fixe serait dans ce cas une
erreur.
6.2. PROBL
`
EMES
`
A UNE DIMENSION 63
y
x
A
f(x)
racine
ETAPE n-1
f(c)
c
tangeante
ETAPE n
y
x
A
f(x)
tangeante
c
Figure 6.4: Construction graphique associ´ee ` a la m´ethode des gradients.
pr´ecision donn´ee. La racine r cherch´ee n’est alors autre que r ≈ x
n
. On ´ecrit
donc ce sch´ema
x
(n+1)
= g(x
(n)
) (6.15)
La m´ethode du point fixe n’est pas toujours stable (et donc utilisable). On peut
en effet montrer que le sch´ema (6.15) ne converge que lorsque la condition
−1 ≤ g

(r) ≤ 1 (6.16)
est satisfaite. Comme nous l’avons soulign´e plus haut, le choix du point de
d´epart x
(0)
est crucial: il peut tr`es bien conduire ` a une racine autre que celle
souhait´ee ou bien ` a une divergence du sch´ema. Notez que la relation (6.16) est
une condition sur la d´eriv´ee en la solution, non au point de d´epart x
(0)
.
6.2.4 M´ethode des gradients
Si l’on a ` a faire ` a une racine simple pour f (voir la note 1), alors la solution de
l’´equation (6.2) co¨ıncide avec la solution d’une ´equation du type (6.14) si g est
d´efinie par
g(x) = x −
f(x)
f

(x)
, (6.17)
o` u g est la fonction de Newton-Raphson. L’int´erˆet de cette d´efinition est im-
m´ediat: on se ram`ene ainsi ` a le m´ethode du point fixe (voir '6.2.3). La condition
de convergence du sch´ema, d´eduite de (6.16), devient

f(x)f

(x)
f

2
(x)

r
< 1 (6.18)
L’interpr´etation graphique de la m´ethode des gradients est la suivante. En
un point de d´epart M
(0)
(x
(0)
), on construit la tangente ` a la courbe y = f(x) et
on cherche l’intersection de cette tangente avec l’axe des abscisses. Ceci d´efinit
un nouveau point M
(1)
(x
(1)
), plus proche de la racine que M
(0)
. On trace alors la
tangente ` a la courbe en ce point, puis son intersection avec l’axe y = 0 d´efini un
troisi`eme point, et ainsi de suite. On peut montrer que cette d´emarche produit
le sch´ema num´erique suivant
x
(n+1)
= x
(n)

f(x
(n)
)
f

(x
(n)
)
, (6.19)
64CHAPITRE 6. Z
´
ERO D’UNE FONCTION. SYST
`
EMES NON-LIN
´
EAIRES
y
x
ETAPE n-1
B
f(x)
A
c
f(c)
racine
ETAPE n
y
x
f(x)
c
A
B
f(c)
Figure 6.5: Illustration de la m´ethode des s´ecantes.
ce qui nous ram`ene bien ` a la fonction g d´efinie plus haut. L’ordre de la m´ethode
est quadratique (i.e. ζ = 2), c’est-` a-dire que le nombre de chiffres significatifs
double ` a peu pr`es d’une it´eration ` a l’autre.
La m´ethode des gradients, ´egalement appel´ee m´ethode de Newton-Raphson,
ne converge pas dans certaines situations, par exemple si la fonction a une racine
multiple (on peut partiellement y rem´edier en considerant, avec pr´ecaution,
la fonction x f(x)) ou bien si x
(0)
est mal choisi (trop loin de la racine
cherch´ee). Plus rarement, on peut rencontrer des s´equences cycliques, des
s´equences p´eriodiques ou mˆeme divergentes.
Notez que la relation (6.17) fait apparaˆıtre le nombre de conditionnement η
d´efinit auparavant
g(x) = x

1 −
1
η

, (6.20)
d’o` u
g

(x) =

1 −
1
η

+
x
η
2

dx
(6.21)
Nous en d´eduisons que la condition de convergence de la m´ethode est li´ee ` a sa
sensibilit´e au niveau de la racine et en particulier ` a
d ln |η|
d ln x
.
Exemple
Soit ` a trouver le z´ero de la fonction f(x) = sin x − cos x sur [0, 1]. Le sch´ema
it´eratif est donc
x
(k+1)
= x
(k)

sin x
(k)
+ cos x
(k)
sin x
(k)
−cos x
(k)
(6.22)
Pour x
0
= 0, la r´esolution num´erique donne
k x f(x)
0 +0.0000000000000000D+00 +0.0000000000000000D+00
1 +1.0000000000000000D+00 -1.0000000000000000D+00
2 +7.8204190153913800D-01 +3.0116867893975678D-01
3 +7.8539817599970183D-01 -4.7464621278041701D-03
6.2. PROBL
`
EMES
`
A UNE DIMENSION 65
4 +7.8539816339744828D-01 +1.7822277877512036D-08
5 +7.8539816339744828D-01 -4.3313876790795902D-17
Pour x
0
= 1,on obtient
k x f(x)
0 +1.0000000000000000D+00 +0.0000000000000000D+00
1 +7.8204190153913800D-01 +3.0116867893975678D-01
2 +7.8539817599970183D-01 -4.7464621278041701D-03
3 +7.8539816339744828D-01 +1.7822277877512036D-08
4 +7.8539816339744828D-01 -4.3313876790795902D-17
5 +7.8539816339744828D-01 -4.3313876790795902D-17
Notez que seulement 5 it´erations sont n´ecessaires pour atteindre la pr´ecision
de la machine et que la convergence est bien quadratique.
6.2.5 M´ethode des s´ecantes
Cette m´ethode est identique ` a la m´ethode des gradients ` a ceci pr`es que l’on
choisit non pas la tangente ` a la courbe en un point initial mais une droite
d´efinie par 2 points M
(0)
(x
(0)
) et M
(1)
(x
(1)
) de la courbe. On utilise alors le
point d’intersection de cette droite avec l’axe y = 0, soit le point M
(2)
(x
(2)
)
comme nouveau point et l’on r´eit`ere l’op´eration avec les point M
(1)
et M
(2)
(voir la figure 6.5). Le sch´ema associ´e est
x
(n+1)
= x
(n)

f(x
(n)
)(x
(n)
−x
(n−1)
)
f(x
(n)
) −f(x
(n−1)
)
, (6.23)
Cette m´ethode pr´esente l’avantage de ne faire appel qu’` a l’´evaluation de la
fonction f et non ` a sa d´eriv´ee qui n’est pas toujours accessible analytiquement.
Toutefois, elle ne guarantit pas que les points encadrent toujours la solution.
Elle peut de se fait diverger dans certains cas.
6.2.6 M´ethode de M¨ uller
Cette m´ethode est semblable ` a la m´ethode des s´ecantes mais avec 3 points.
On commence par construire une parabole passant par 3 points de la courbe
M
(0)
(x
(0)
, f(x
(0)
)), M
(1)
(x
(1)
, f(x
(1)
)) et M
(2)
(x
(2)
, f(x
(2)
)) pr´ealablement choi-
sis et l’on cherche l’intersection de la parabole avec l’axe horizontal. Ceci donne
un nouveau point M
(3)
(x
(3)
, f(x
(3)
)). On recommence le processus avec M
(1)
,
M
(2)
et M
(3)
jusqu’` a convergence. Le sch´ema faisant passer du triplet (M
(n−2)
,
M
(n−1)
, M
(n)
) au triplet suivant (M
(n−1)
, M
(n)
, M
(n+1)
) est
x
(n+1)
= x
(n)

2f(x
(n)
)
β
2
±

β
2
−4αf(x
(n)
)
(6.24)
o` u
α =
f(x
(n−2)
) −f(x
(n)
)
(x
(n−2)
−x
(n)
)(x
(n−2)
−x
(n−1)
)

f(x
(n−1)
) −f(x
(n)
)
(x
(n−1)
−x
(n)
)(x
(n−2)
−x
(n−1)
)
(6.25)
66CHAPITRE 6. Z
´
ERO D’UNE FONCTION. SYST
`
EMES NON-LIN
´
EAIRES
et
β =
[f(x
(n−1)
) −f(x
(n)
)](x
(n)
−x
(n−2)
)
2
(x
(n−1)
−x
(n)
)(x
(n−2)
−x
(n)
)(x
(n−2)
−x
(n−1)
)

[f(x
(n−2)
−f(x
(n)
)](x
(n−1)
−x
(n−2)
)
2
(x
(n−1)
−x
(n)
)(x
(n−2)
−x
(n)
)(x
(n−2)
−x
(n−1)
)
(6.26)
o` u il conviendra de choisir le signe correspondant ` a la solution la plus proche
de la racine cherch´ee.
Dans la m´ethode de M¨ uller, la fonction interpolante est quadratique en x. On
peut aussi chercher une fonction interpolante quadratique en y. C’est l’esprit de
la m´ethode de Van Wijngaarden-Bekker. Sa convergence est ´egalement quadra-
tique. Notez que les points n’encadrent pas n´ecessairement la racine mais peu-
vent ˆetre tous au dessous ou au dessus de l’axe y = 0. De ce fait, des s´equences
divergentes peuvent apparaˆıtre dans certains cas.
On peut g´en´eraliser ce type de m´ethode en utilisant un interpolant polynˆ omial
de degr´e sup´erieur ` a 2.
6.3 Syst`emes non-lin´eaires
Nous nous sommes int´eress´e jusqu’` a pr´esent ` a des m´ethodes permettant de trou-
ver le z´ero d’une fonction d’une variable. Pour r´esoudre une ´equation du type
(6.1), on peut en principe utiliser les m´ethodes d´ecrites plus haut, g´en´eralis´ees ` a
N fonctions coupl´ees des variables x
1
, x
2
, . . . , x
N
. La convergence est souvent
plus d´elicate.
6.3.1 G´en´eralisation de la m´ethode du point fixe
Pour la m´ethode du point fixe
G(

X) =

X, (6.27)
le sch´ema est

x
(n+1)
1
= g
1

x
(n)
1
, x
(n)
2
, x
(n)
3
, . . . , x
(n)
N

x
(n+1)
2
= g
2

x
(n)
1
, x
(n)
2
, x
(n)
3
, . . . , x
(n)
N

x
(n+1)
3
= g
3

x
(n)
1
, x
(n)
2
, x
(n)
3
, . . . , x
(n)
N

. . .
x
(n+1)
N
= g
N

x
(n)
1
, x
(n)
2
, x
(n)
3
, . . . , x
(n)
N

Une condition n´ecessaire ` a la convergence de ce sch´ema est que le rayon spectral
de la matrice jacobienne associ´ee ` a G soit de norme inf´erieure ` a l’unit´e, soit
¸
k=1,N

∂g
i
∂x
k

< 1, i = 1, N (6.28)
qui n’est que la g´en´eralisation ` a N dimensions de la condition (6.16) rencontr´ee
plus haut. Le taux de convergence est 2 si cette quantit´e est nulle.
6.4. EXERCICES ET PROBL
`
EMES 67
6.3.2 M´ethode de Seidel
On peut am´eliorer la convergence du sch´ema pr´ec´edent de la fa¸ con suivante: on
calcule x
(n+1)
2
non pas ` a partir de x
(n)
1
mais ` a partir de x
(n+1)
1
, soit
x
(n+1)
2
= g
2
(x
(n)
1
, x
(n)
2
, x
(n)
3
, . . . , x
(n)
N
) (6.29)
puis x
(n+1)
3
` a partir de x
(n+1)
1
et x
(n+1)
2
, soit
x
(n+1)
3
= g
2
(x
(n+1)
1
, x
(n+1)
2
, x
(n)
3
, . . . , x
(n)
N
) (6.30)
et ainsi de suite jusqu’au dernier. Le sch´ema devient donc

x
(n+1)
1
= g
1
(x
(n)
1
, x
(n)
2
, x
(n)
3
, . . . , x
(n)
N
)
x
(n+1)
2
= g
2
(x
(n+1)
1
, x
(n)
2
, x
(n)
3
, . . . , x
(n)
N
)
x
(n+1)
3
= g
3
(x
(n+1)
1
, x
(n+1)
2
, x
(n)
3
, . . . , x
(n)
N
)
. . .
x
(n+1)
N
= g
N
(x
(n+1)
1
, x
(n+1)
2
, x
(n+1)
3
, . . . , x
(n+1)
N−1
, x
(n)
N
)
C’est la m´ethode de Seidel du point fixe. Elle est sens´ee conduire ` a une am´elioration
du traitement car elle “anticipe” dans n −1 directions.
6.3.3 M´ethode de Newton g´en´eralis´ee
Autre adaptation possible ` a N dimensions, celle de la m´ethode des gradients
expos´ee au '6.2.4. Elle fait intervenir la matrice jacobienne du syst`eme, les
d´eriv´ees partielles ´etant ´evalu´ees au point courant X
(n)
. Le sch´ema it´eratif est

X
(n+1)
=

X
(n)
−J
−1
(

X
(n)
)F
(n)
(6.31)
dont l’´equivalent ` a une dimension est la relation (6.19). Il met en jeu une
inversion de matrice. Comme nous l’avons soulign´e, le cas [[J(

X
(n)
[[ = 0 est
probl´ematique. Notez que dans de nombreux cas pratiques, on n’a pas acc`es au
d´eriv´ees analytiques; il faut allors proc´eder num´eriquement pour estimer J.
6.4 Exercices et probl`emes
Calculez (` a la main) ` a 10
−4
pr`es la racine r positive de l’´equation g(x) = x
pour g(x) =
x
2
+
1
x
.
Combien d’it´erations sont n´ecessaires pour trouver la racine ` a pr`es d’une
fonction du type f(x) = ax + b pr`es avec la m´ethode des fausses positions ?
Mˆeme question si f est un polynˆ ome de degr´e n > 1.
Quels sont le taux de convergence ζ et la constante C pour la m´ethode de
bissection ? et pour la m´ethode des fausses positions ? et pour la m´ethode des
s´ecantes ? et pour la m´ethode de M¨ uller ?
Quels sont le taux de convergence ζ et la constante C pour la m´ethode
du point fixe ? Mˆeme question lorsque g

(r) = 0.
68CHAPITRE 6. Z
´
ERO D’UNE FONCTION. SYST
`
EMES NON-LIN
´
EAIRES
Quels sont le taux de convergence ζ et la constante C pour la m´ethode
des gradients en pr´esence d’une racine multiple ?
Calculez (` a la main) ` a 10
−4
pr`es la racine r positive de l’´equation g(x) = x
pour g(x) =
x
2
+
1
x
et comparer avec la m´ethode de bissection.
D´emontrez la relation (6.19)
Montrez que la fonction g(x) =
x
2
+
1
x
consid´er´ee dans les exercices
pr´ec´edents est la fonction de Newton-Raphson d’une certaine fonction f que
l’on explicitera. En d´eduire que la m´ethode du point fixe pour une fonction
g(x) =
x
2
+
A
2x
est un moyen de d´eterminer

A.
D´emontrez la relation (6.23)
Etablissez les sch´emas de M¨ uller et de Van Wijngaarden-Bekker.
Chapitre 7
Equations aux d´eriv´ees
ordinaires
7.1 D´efinitions
Les ´equations diff´erentielles ordinaires, ou ODEs en anglais (pour “ordinary
differential equations”), sont des ´equations mettant en jeu une fonction y de la
variable x et au moins l’une de ses d´eriv´ees. Elles sont de la forme
T

d
n
y
dx
n
,
d
n−1
y
dx
n−1
, . . . , y


dy
dx
, y, g(x), x

= 0 (7.1)
o` u g est une fonction de x (n est l’ordre de l’´equation). La forme la plus simple
sur laquelle nous discuterons largement dans ce chapitre est
dy
dx
= f(y, x) (7.2)
o` u f englobe toute forme explicite de x et de y. Elle repr´esente en fait, dans le
plan (x, y), le champ des pentes de la fonction y (voir la figure 7.1).
On trouve ´egalement des syst`emes d’´equations diff´erentielles ordinaires o` u il
y a T
i
fonctions du type (7.1). Un tel syst`eme s’´ecrit

T
1

d
n1
y
1
dx
n1
,
d
n1−1
y
1
dx
n1−1
, . . . , y

1

dy
1
dx
, y
1
, g
1
(x), x

= 0
T
2

d
n2
y
2
dx
n2
,
d
n2−1
y
2
dx
n2−1
, . . . , y

2

dy
2
dx
, y
2
, g
2
(x), x

= 0
. . .
T
N

d
nN
y
N
dx
nN
,
d
nN−1
y
N
dx
nN−1
, . . . , y

N

dy
N
dx
, y
N
, g
N
(x), x

= 0
Son ordre est l’ordre le plus ´elev´e, soit sup¦n
i
¦. Autre vari´et´e possible de
probl`eme, celui des syst`emes d’´equations diff´erentielles ordinaires ` a plusieurs
69
70 CHAPITRE 7. EQUATIONS AUX D
´
ERIV
´
EES ORDINAIRES
x
y
solutions
Figure 7.1: Illustration de la notion de champ de pentes.
variables ind´ependantes du type

T
1

d
n1
y
1
dx
n1
1
,
d
n1−1
y
1
dx
n1−1
1
, . . . , y

1

dy
1
dx
1
, y
1
, g
1
(x
1
), x
1

= 0
T
2

d
n2
y
2
dx
n2
2
,
d
n2−1
y
2
dx
n2−1
2
, . . . , y

2

dy
2
dx
2
, y
2
, g
2
(x
2
), x
2

= 0
. . .
T
N

d
nN
y
N
dx
nN
N
,
d
nN−1
y
N
dx
n−1
N
, . . . , y

N

dy
N
dx
N
, y
N
, g
N
(x
N
), x
N

= 0
L’aspect complexe de ce syst`eme est trompeur. En raison du carat`ere ind´epen-
dant des variables (chaque fonction y
i
est toujours d´eriv´ee par rapport ` a la
mˆeme variable x
i
et ne d´epend que d’elle), on se retrouve face ` a N probl`emes
d´ecoupl´es du type 7.1 et on utilisera de ce fait les mˆemes m´ethodes que pour
r´esoudre une ´equation ` a variable unique.
En contraste avec les ´equations aux d´eriv´ees partielles ou PDEs (pour “par-
tial differential equations” en anglais), les ´equations diff´erentielles ordinaires
(ou les syst`emes) ne font intervenir qu’une seule variable et sont, de ce fait,
beaucoup plus simples ` a r´esoudre. Du point de vue purement math´ematique,
plusieurs fonctions y (souvent une infinit´e) peuvent ˆetre solution de l’´equation
(7.1). Toutefois, les solutions math´ematiques ne correspondront pas forc´ement
` a la situation physique recherch´ee. Pour le Physicien, il s’agira de s´electionner
les fonctions qui satisfont un certain nombre de contraintes appel´ees conditions
aux limites, par exemple une condition sur la valeur de la fonction et/ou la
valeur de sa ou ses d´eriv´ee(s) en certains points de intervalle d’´etude [a, b]. Pour
une ´equation diff´erentielle ordinaire d’ordre n (ou d’un syst`eme de n ´equations
d’ordre 1), il faut n´ecessairement n conditions aux limites pour d
´
finir une so-
lution y(x). Compte-tenu de ces contraintes impos´ees par le mod`ele physique,
il pourra finalement ne pas exister de solution au probl`eme pos´e ou, mieux, en
exister une et une seule. Dans certains cas, les solutions resteront d´eg´en´er´ees
(i.e. multiples).
7.2. LE “SPLITTING” 71
7.2 Le “splitting”
Quand l’ordre n de l’´equation diff´erentielle est strictement sup´erieur ` a un, on
aura fortement int´erˆet (du moins dans l’objectif d’une recherche de solutions
num´eriques) ` a former un syst`eme de n ´equations diff´erentielles du premier ordre.
Ceci est toujours r´ealisable en faisant appel ` a n −1 fonctions interm´ediaires y
j
,
par exemple en posant
dy
j−1
dx
≡ y
j
, j = 1, n −1 (7.3)
avec y
0
≡ y. On r´ealise alors un splitting. Par exemple, l’´equation non-lin´eaire
du second ordre ` a coefficients non constants
f

+ f

−xf = sin(x) (7.4)
se r´e-´ecrira sous la forme d’un syst`eme coupl´e

y

1
= xy
0
−y
1
+ sin(x)
y

0
= y
1
avec y
0
≡ f.
On peut voir le probl`eme de r´esolution d’une ´equation diff´erentielle ordinaire
comme un probl`eme d’int´egration et l’on peut l´egitimement envisager d’utiliser
les m´ethodes d´edi´ees au calcul des quadratures. En effet, la relation (7.2) s’´ecrit
aussi
y(x) =

x
a
f(x

, y)dx

+ y(a), (7.5)
Toutefois, une diff´erence fondamentale est que la fonction y n’est pas connue
au pr´ealable. La forme implicite de la relation (7.6) (f d´epend de y !) rend en
principe impossible le calcul directe de y de cette mani`ere. Pour majorit´e des
techniques, la construction y se fera de proche en proche, ` a partir d’un point de
d´epart (a, y(a)) ou d’un point d’arriv´ee (b, y(b)). Tout la difficult´e sera alors de
calculer le plus pr´ecis´ement possible l’incr´ement δ
i
, permettant depasser de y
i
` a y
i+1
, soit
y
i+1
= y
i
+ δ
i
(7.6)
7.3 Les conditions aux limites
7.3.1 Valeurs initiales et conditions aux contours
On distingue habituellement trois classes de probl`emes selon l’endroit de l’inter-
valle d’´etude [a, b] o` u s’appliquent les conditions aux limites (voir la figure 7.2):
• les probl`emes aux conditions initiales ou encore IVPs (pour “Initial Value
Problems” en anglais). Dans ce cas, les conditions aux limites sont im-
pos´ees au mˆeme endroit, en x = a ou en x = b.
• les probl`emes aux conditions aux contours encore appel´es (T)BVPs (pour
“(Two) Boundary Value problems” en anglais). Les contraintes sont cette
fois donn´ees ` a deux endroits diff´erents (au moins), en a et en b.
72 CHAPITRE 7. EQUATIONS AUX D
´
ERIV
´
EES ORDINAIRES
x
a b
Conditions initiales
y
solution exacte
solution calculee
y(b)
y(a)
f(y(a),a)
x
a b
Conditions aux contours
y
y(b)
y(a)
y
y(b)
y(a)
x
a b
c
matching point
Condition au contour intermediaire
Figure 7.2: Trois types de conditions aux limites dans les probl`emes aux d´eriv´ees
ordinaires: conditions initiales (en haut), conditions aux (deux) contours (au
milieu) et condition au contour interm´ediaire (en bas).
7.4. M
´
ETHODES “MONO-PAS” 73
• les probl`emes avec condition au contour interm´ediaire o` u une condition
est donn´ee ` a l’int´erieur de l’intervalle d’int´egration en un point d’abscisse
x = c ∈ [a, b] appel´e matching point. On pourrait classer ce type de
probl`eme dans l’une des deux cat´egories pr´ec´edentes, car il faudra en pra-
tique d´ecouper le probl`emes en deux (l’un pour x ∈ [a, c] et l’autre pour
x ∈ [c, b]) et assurer leur jonction correcte en c.
Notez que ces distinctions n’ont de sens que si l’´equation est au moins du
second ordre.
Il est important de r´ealiser que, comme dans toute approche num´erique,
la r´esolution de probl`eme, aussi propre soit-elle, ne donnera jamais la solution
exacte, mais une solution approch´ee, entach´ee en chaque point d’une certaine
erreur ∆y(x). Le choix de la m´ethode d’int´egration sera alors guid´e par la
recherche d’un compromis entre rapidit´e et pr´ecision. De ce point de vue, dans
un probl`eme aux conditions initiales, on aura facilement tendance ` a s’´ecarter
de la solution exacte (g´en´eralement inconnue), d’autant plus que l’intervalle
d’int´egration sera grand et que la fonction pr´esentera de fortes variations. En
raison de l’accumulation in´evitable des erreurs, la pr´ecision ne pourra que se
d´egrader au fil de l’int´egration. Au contraire, dans un probl`eme aux condi-
tions aux contours, la solution ´etant contrainte de part et d’autre de l’intervalle
[a, b], les ´ecarts ` a la solution exacte seront g´en´eralement moindres, et les erreurs
seront soit localis´ees dans les r´egions de fortes variations (cas des m´ethodes
de tir; voir '7.6), soit distribu´ees sur tout l’intervalle (cas des m´ethodes em-
ployant les diff´erences finies; voir '7.7). Avec une (ou plusieurs) condition(s)
interm´ediaire(s), on augmente les contraintes et l’on limite l’accumulation des
erreurs (on permet ` a la solution de repartir sur des bases saines ` a chaque match-
ing point). Ces consid´erations sont illustr´ees ` a la figure 7.2.
7.3.2 Conditions de Dirichlet et de Neumann
Les conditions aux limites qui portent sur la fonction sont dites de conditions de
Dirichlet; lorsqu’elles portent sur la d´eriv´ee, on parle de conditions de conditions
de Neumann. On peut bien-sˆ ur rencontrer des situations o` u les deux types de
conditions co-existent. Une condition aux contours s’´ecrit de mani`ere g´en´erale
(

y,
dy
dx
, x, c(x)

= 0 en x = a, b ou c (7.7)
o` u c(x) est une fonction quelconque.
7.4 M´ethodes “mono-pas”
7.4.1 M´ethode d’Euler
La m´ethode d’int´egration la plus intuitive et la plus simple aussi est la m´ethode
d’Euler qui reprend la notion de taux d’accroissement sans passage ` a la limite,
soit
y
i+1
= y
i
+ hf(y
i
, x
i
) (7.8)
o` u l’on a pos´e h = x
i+1
−x
i
. On peut ´evidemment voir la relation (7.8) comme
le d´eveloppement de Taylor de y ` a l’ordre le plus bas. Elle implique un sch´ema
aux diff´erences finies. L’incr´ement est tr`es simple ` a calculer: δ
i
= hf(y
i
, x
i
). En
74 CHAPITRE 7. EQUATIONS AUX D
´
ERIV
´
EES ORDINAIRES
partant de x
0
≡ a et en r´ep´etant ce sch´ema N fois, on parvient alors ` a x
N
≡ b
apr`es avoir calcul´e successivement y
1
, y
2
, . . . , y
N
, sachant y
0
(la condition ini-
tiale). Notez qu’il n’est pas sp´ecifi´e ici que les points de la grille, c’est-` a-dire les
x
i
, soient tous ´equidistants. On peut en effet choisir, selon la variation locale
de la fonction y que l’on est en train de calculer
1
, de r´eduire l’intervalle, ou de
l’agrandir. On r´ealise alors une m´ethode au pas adaptatif.
La m´ethode d’Euler n’a pas bonne r´eputation car elle propage tr`es bien
les erreurs et les amplifie g´en´ereusement. On peut s’en convaincre en esti-
mant, du moins grossi`erement, l’erreur totale ∆y produite en x = b ` a l’issue de
l’int´egration, en consid´erant que cette erreur est donn´ee par l’erreur de tronca-
ture ` a chaque pas, soit
∆y ∼
h
2
2
N
¸
i=1
f

(x
i
, y
i
) ≈
Nh
2
2
'f

(x, y)`
[a,b]
(7.9)
o` u 'f

(x, y)`
[a,b]
est la pente moyenne de f

sur l’intervalle d’´etude. Il est simple
de voir par cette analyse tr`es approch´ee que si la fonction pr´esente une variation
notable, l’erreur croˆıt lin´eairement avec la distance d’int´egration, ` a pas fixe.
Toutefois, la m´ethode d’Euler est une m´ethode simple, de pr´ecision modulable
(∆y ∝ h
2
), qui conviendra si la fonction n’est pas trop variable et si l’intervalle
de variation n’est pas trop grand. Dans bien des cas, elle suffira, au moins
en premi`ere approximation, pour obtenir une premi`ere id´ee des solutions d’un
probl`eme.
7.4.2 M´ethode de Heun
Dans cette m´ethode (encore appel´ee m´ethode de Newton modifi´ee), on ´evalue
l’incr´ement en deux ´etapes. La premi`ere ´etape consiste ` a ´ecrire
y
i+1
= y
i
+

xi+1
xi
f(y
i
, x
i
)dx (7.10)
en estimant l’int´egrale par la m´ethode des trap`ezes, soit
y
i+1
= y
i
+
h
2
(f(y
i
, x
i
) + f(y
i+1
, x
i+1
)) (7.11)
Cette formule est une formule implicite en y
i+1
et elle n’est g´en´erallement pas
inversible. De ce fait, on ne connait encore pas y
i+1
` a ce stade. On trouve une
valeur approch´ee de f(y
i+1
, x
i+1
) grˆ ace ` a la m´ethode d’Euler. C’est la seconde
´etape. On a
p
i+1
= y
i
+ hf(y
i
, x
i
) (7.12)
≈ y
i+1
(7.13)
La m´ethode de Heun met en jeu ce que l’on appelle classiquement un sch´ema de
type pr´edicteur/correcteur. Le sch´ema pr´edicteur donne une estimation de y
i+1
qui permet d’intuiter ou de pr´edire la valeur de la fonction en x
i+1
. Le sch´ema
correcteur associ´e est donn´e par la relation (7.11). Globalement, on a donc
y
i+1
= y
i
+
h
2
[f(y
i
, x
i
) + f(y
i
+ hf(y
i
, x
i
), x
i+1
)] (7.14)
1
On pourra utiliser la d´eriv´ee seconde de y, soit f

, pour tracer ces zones de forts gradients.
7.4. M
´
ETHODES “MONO-PAS” 75
f(y , x )
x
x x
i i+1
i i
y
i
y
solution exacte
solution calculee
p
i+1
Euler
i+1
y
Figure 7.3: Dans la m´ethode de Heun, la fonction y est d’abord estim´ee en x
i
+h
grˆ ace ` a la m´ethode d’Euler, soit y
i+1
≈ p
i+1
. La valeur retenue pour y
i+1
est
alors calcul´ee par la m´ethode des trap`ezes ` a partir de y
i
et de p
i+1
.
0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
x
i
−0.10
−0.05
0.00

y
i
=
y
i

e
x
Euler (Taylor ordre 1)
Taylor ordre 2
Taylor ordre 3
Figure 7.4: Comparaison de la m´ethode d’Euler et des m´ethode de Taylor
d’ordre 2 et 3 pour l’´equation telle que f(y, x) = y, avec y(0) = 1. Est donn´e
ici l’erreur absolue par rapport ` a la solution exacte y = e
x
sur [0,1] pour une
pas h = 0.1.
76 CHAPITRE 7. EQUATIONS AUX D
´
ERIV
´
EES ORDINAIRES
7.4.3 M´ethode des s´eries enti`eres
On voit que l’erreur commise dans l’´ecriture de la relation (7.8) correspond ` a
l’omission des termes d’ordre n ≥ 2 de la s´erie de Taylor associ´ee et d´epend
donc des d´eriv´ees seconde, troisi`eme, etc. On a en effet, en tout rigueur
y
i+1
= y
i
+ f(y
i
, x
i
)h +
h
2
2
df
dx

xi,yi
+

¸
n=3
h
n
n!
d
n
y
dx
n

xi,yi
(7.15)
Par cons´equent, la m´ethode d’Euler n’est rigoureusement exacte que lorsque la
fonction f est une constante, c’est-` a-dire, en pratique, jamais (sinon, on peut
vraiment se passer de m´ethode num´erique !). L’id´ee de la m´ethode de Taylor
est simple: comme f est une fonction de y, f

est une fonction de y

, donc de f
que l’on connaˆıt. De mˆeme, f

est une fonction de y

et de f

, donc de f. De
mani`ere g´en´erale, on a
d
n
f
dx
n
=


dx
+
dy
dx

dy

n
f(y, x) (7.16)
=


dx
+ f

dy

n
f(y, x) (7.17)
ce qui permet de produire un sch´ema du mˆeme type que celui d’Euler, mais
incluant autant de terme que l’on veut. On augmente ainsi consid´erablement la
pr´ecision de l’estimation. Prenons un exemple. Pour r´esoudre y

= xsin y par
cette m´ethode, on calcule d’abord f

= y

, soit
y

= sin y + xy

cos y
= sin y + x(xsin y) cos y
= sin y(1 + x
2
cos y) ≡ f

(x, y) (7.18)
o` u l’on a remplac´e y

par son expression, puis f

= y
(3)
. De la mˆeme fa¸ con, on
trouve
y
(3)
= sin y

x
3
sin y + (3x + x
3
) cos y

≡ f

(x, y) (7.19)
et aisni de suite jusqu’` a l’ordre voulu. Reste ` a ´ecrire le d´eveloppement de Taylor
associ´e. En l’occurrence, ` a l’ordre 3 inclus, on obtient le sch´ema suivant
y
i+1
= y
i
+ hx
i
sin y
i
+
h
2
2
sin y
i
(1 + x
2
i
cos y
i
)
+
h
3
6
siny
i

x
3
i
siny
i
+ (3x
i
+ x
3
i
) cos y
i

(7.20)
La m´ethode de Taylor est assez efficace (voir la figure 7.4). A l’ordre 2, elle
coincide avec la m´ethode de Heun. Elle ne peut en revanche ˆetre mise en place
que lorsque l’on peut effectivement calculer la d´eriv´ee d’ordre n de la fonction
y, ce qui n’est pas toujours le cas.
7.4.4 M´ethodes de Runge-Kutta
L’id´ee g´en´erale qui sous-tend les m´ethodes de Runge-Kutta d’ordre N repose
sur la possibilit´e d’exprimer l’incr´ement y
i+1
−y
i
sous la forme suivante
y
i+1
−y
i
= h
N
¸
j=1
w
j
f
j
(7.21)
7
.
4
.
M
´
E
T
H
O
D
E
S

M
O
N
O
-
P
A
S

7
7
x
a b
c
y
y(a)
pente f(y(a),a)
Calcul de la pente en x=a, et estimation 1
de y(c)
x
a b
c
y
y(a)
Premiere estimation de la pente en x=c, 2
a partir de l’estimation de y(c)
pente f(y(c),c)=f
1
x
a b
c
f
1
y
y(a)
pente f(y(c),c)=f
2
3 Seconde estimation de y(c) et de la pente
en x=c a partir de f(y(c),c)
x
a b
c
y
y(a)
f
2
premiere estimation de y(b) et de la pente
en x=b a partir de f
4
2
pente f
3
F
i
g
u
r
e
7
.
5
:
I
n
t
e
r
p
r
´e
t
a
t
i
o
n
g
r
a
p
h
i
q
u
e
d
e
l
a
m
´e
t
h
o
d
e
d
e
R
u
n
g
e
-
K
u
t
t
a
d

o
r
d
r
e
4
.
78 CHAPITRE 7. EQUATIONS AUX D
´
ERIV
´
EES ORDINAIRES
o` u f
j
= f(Y
j
, x
i
+ hα
j
), avec 0 ≤ α
j
≤ 1 et
Y
j
= y
i
+
j−1
¸
k=1
β
jk
Y
k
(7.22)
En d’autres termes, on estime la pente de la fonction y en N points de l’intervalle
[x
i
, x
i
+h], puis l’on calcule une pente moyenne (c’est le terme
¸
w
j
f
j
) qui sert
alors ` a calculer l’incr´ement par la m´ethode d’Euler. Les coefficients α
j
, β
jk
et
les poids w
i
sont d´etermin´es en imposant que le sch´ema (7.21) soit ´equivalent
` a celui qui est associ´e ` a la m´ethode des s´eries enti`eres d’ordre N. On ben´eficie
ainsi, ` a pr´ecision ´egale, d’une meilleure souplesse qu’avec la m´ethode de Tay-
lor, en particulier parce qu’il s’agit uniquement d’´evaluer la fonction et pas ses
d´eriv´ees. En fait, le syst`eme d’´equations qui relient les coefficients α
j
, β
jk
et
w
i
entre-eux est sous-d´etermin´e (il y a une ´equation de moins par rapport au
nombre d’inconnues). En cons´equence, on doit introduire ` a la main l’un des
coefficients, ce qui revient ` a pouvoir construire, pour un ordre donn´e, autant de
m´ethode de Runge-Kutta qu’on le souhaite.
Les m´ethodes de Runge-Kutta les plus utilis´ees sont celle d’ordre 2 et celle
d’ordre 4 (dont l’interpr´etation graphique est propos´ee ` a la figure 7.5). La
m´ethode de Runge-Kutta d’ordre 2 “classique” est ´equivalente ` a la m´ethode
de Heun, par construction. Existe aussi la m´ethode dite de Newton-Cauchy
modifi´ee ou m´ethode du point milieu qui a pour sch´ema
y
i+1
= y
i
+ hf

y
i
+
h
2
f(y
i
, x
i
), x
i
+
h
2

(7.23)
Le sch´ema de Runge-Kutta d’ordre 4 est
y
i+1
= y
i
+
h
6
[f(y
i
, x
i
) + 2f
1
+ 2f
2
+ f
3
] (7.24)
o` u
f
1
= f(y
i
+
h
2
f(y
i
, x
i
), x
i
+
h
2
) (7.25)
f
2
= f(y
i
+
h
2
f
1
, x
i
+
h
2
) (7.26)
f
3
= f(y
i
+ hf
2
, x
i
+ h) (7.27)
Un exemple est donn´e ` a la figure 7.6.
7.4.5 M´ethode de Burlish-Stoer
C’est probablement la m´ethode la plus fiable. Pour un intervalle d’int´egration
donn´e [x
i
, x
i+1
], l’incr´ement δ
i
est calcul´e pour diff´erents pas d’int´egration
h
1
= h, h
2
=
h
2
, h
3
=
h
4
, h
4
=
h
6
, . . . , h
n
=
h
n
par exemple en utilisant la m´ethode de Runge-Kutta, puis on cherche la limite
de l’incr´ement quand le pas tends vers z´ero, c’est-` a-dire pour n → ∞. Cette
proc´edure est r´esum´ee ` a la figure 7.7. Le nombre effectif n d’int´egration n’est
pas connu ` a l’avance, car il d´epend du taux de convergence de la s´erie ¦δ
i
¦
n
.
7.4. M
´
ETHODES “MONO-PAS” 79
0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
x
i
−8
−7
−6
−5
−4
−3
−2
−1
0
l
o
g
1
0
|

y
i
=
y
i

e
x
|
Euler (Taylor ordre 1)
Taylor ordre 2 (Heun)
Taylor ordre 3
Taylor ordre 4 (Runge−Kutta)
Figure 7.6: Comparaison de la m´ethode de Runge-Kutta d’ordre 4 avec des
m´ethodes de Taylor d’ordre inf´erieur. Mˆeme conditions de calcul que pour la
figure 7.4.
i+1
y -y
i
1 2 3 4
n
increment exact
f(y , x )
x
x x
i i+1
i i
y
i
y
i+1
y n=1
n=2
n=3
n=4
solution exacte
Figure 7.7: Princide de l’int´egrateur de Burlish-Stoer. Par approximations
successives, on cherche la valeur de la fonction y
i+1
dans la limite d’un pas
d’int´egration nul.
80 CHAPITRE 7. EQUATIONS AUX D
´
ERIV
´
EES ORDINAIRES
7.5 M´ethodes “multi-pas”
Les m´ethodes d´ecrites pr´ec´edemment permettent d’estimer la fonction en x
i+1
connaissant uniquement la fonction et sa d´eriv´ee au point pr´ec´edent x
i
. Elles
constituent ce que l’on appelle des m´ethodes mono-pas. Par opposition, les
m´ethodes multi-pas permettent d’acc´eder ` a y
i+1
` a partir de toute l’information
disponible sur y. On utilise un certain nombre de points calcul´es pr´ec´edemment,
g´en´eralement 3 ou 4, soientt (x
i−1
, y
i−1
), (x
i−2
, y
i−2
), (x
i−3
, y
i−3
), et ´even-
tuellement (x
i−4
, y
i−4
). L’id´ee est de repr´esenter la pente de la fonction y (soit
la fonction f elle-mˆeme) par un polynˆ ome P
N
de degr´e N (par exemple par
l’approximation de Lagrange). Pour N +1 points successifs (x
k
, f
k
), on impose
donc
P
N
(x
i−(N+1−k)
) = f(y
i
, x
i−(N+1−k)
), k = 1, N + 1 (7.28)
Ainsi, la relation (7.6) devient int´egrable analytiquement
y
i+1
= y
i
+

xi+1
xi
P
N
(x

)dx

(7.29)
En pratique, on travaille ` a bas ordres, pour ´eviter le ph´enom`ene de Runge.
Pour N = 1, on retrouve la m´ethode d’Euler. Pour N = 2, 3 et 4 on trouve les
formules d’Adams-Bashforth
• pour N = 2
y
i+1
= y
i
+
h
2
(3f(y
i
, x
i
) + f(y
i−1
, x
i−1
)) (7.30)
• pour N = 3
y
i+1
= y
i
+
h
12
(23f(y
i
, x
i
) −16f(y
i−1
, x
i−1
) + 5f(y
i−2
, x
i−2
)) (7.31)
• pour N = 4
y
i+1
= y
i
+
h
24
(55f(y
i
, x
i
) −59f(y
i−1
, x
i−1
)
+37f(y
i−2
, x
i−2
) − 9f(y
i−3
, x
i−3
)) (7.32)
Un variante consiste ` a utiliser ces formules comme pr´edicteurs o` u p
i+1
≈ y
i+1
.
Par exemple, pour N = 4, le pr´edicteur est donn´e par la relation (7.32). Pour
produire un sch´ema correcteur associ´e, on introduit le point (x
i+1
, p
i+1
) et on
construit un second polynˆ ome qui met en jeu les quatre points (x
i−2
, f
i−2
),
(x
i−1
, f
i−1
), (x
i
, f
i
) et (x
i+1
, f
i+1
) o` u f
i+1
≡ f(p
i+1
, x
i+1
). On obtient sur le
mˆeme principe
y
i+1
= y
i
+
h
24
(f
i−2
−5f
i−1
+ 19f
i
+ 5f
i+1
) (7.33)
Les formules (7.32) et (7.33) constituent le sch´ema pr´edicteur-correcteur de
Adams-Bashforth-Moulton d’ordre 4. Il en existe d’autres . . .
Les m´ethodes multi-pas sont tr`es pr´ecises, g´en´eralement plus pr´ecises que les
m´ethodes mono-pas (exception faite peut-ˆetre de l’int´egrateur de Burlish-Stoer).
En revanche, elles peuvent ˆetre instables et conduire ` a des oscillations, par exem-
ple si l’intervalle d’int´egration est grand. On peut les stabiliser en choississant
un pas plus petit. Notez que l’on ne peut jamais utiliser une m´ethode multi-
pas d`es le d´ebut de l’int´egration. On peut alors d´emarrer avec un sch´ema de
Runge-Kutta puis passer, quand le nombre de points est suffisant, ` a un sch´ema
multi-pas.
7.6. M
´
ETHODES DE TIR 81
x
solution
a b
x
solution
a b
tir 3
tir 1
tir 2 y y
tir 2
tir 1
tir 1
tir 2
y(b)
y(a) y(a)
y(b)
Figure 7.8: Dans la m´ethode de tir simple, on int`egre l’´equation ` a partir d’un
contour en cherchant ` a atteindre la condition ` a l’autre contour. On peut
´egalement int´egrer des deux cot´es simultan´ement en cherchant ` a “joindre les
deux bouts” en un point interm´ediaire.
7.6 M´ethodes de tir
Jusqu’` a pr´esent, nous avons essentiellement parl´e des m´ethodes relatives aux
probl`emes aux conditions initiales. Les choses se compliquent un peu pour les
probl`emes aux conditions aux contours. Cela se con¸ coit facilement si l’on sou-
vient que la fonction est contraintes par sa valeur ou par la valeur de sa d´eriv´ee
en x = a et en x = b. L’exemple du tir ballistique permet de fixer les id´ees:
on sait les conditions tr`es particuli`eres qu’il faut r´eunir simultan´ement pour
qu’un projectile partant d’un point A(a, y(a)) parvienne en un point B(b, y(b));
il faudra “r´egler” la vitesse ou/et l’angle de tir. Il n’est d’ailleurs pas garanti
que l’on puisse toujours atteindre l’objectif, par exemple si la vitesse de tir est
limit´ee ou/et l’angle impos´e. Si c’est le cas, on op`erera en pratique par approx-
imations successives: pour une vitesse initiale donn´ee (ou un angle donn´e), on
r`eglera progressivement l’angle de tir (respectivement la vitesse) afin d’atteindre
la cible. Deux aspects fondamentaux des probl`emes de conditions aux contours
sont illustr´es ici. Il y a d’une part la non-existence possible de solution, une diffi-
cult´e qui n’est pas pr´esente pour les probl`emes aux conditions initiales. D’autre
part, on voit que le probl`eme aux conditions aux contours peut-ˆetre assez na-
turellemnt converti en un probl`eme aux conditions initiales devant satisfaire une
condition finale. C’est justement ce que l’on appelle une m´ethode de tir simple,
illustr´ee ` a la figure 7.8.
Pour trouver la solution d’un probl`eme avec conditions aux contours ` a l’aide
d’une m´ethode de tir simple, on proc´edera par dichotomie en cherchant d’abord
deux jeux de conditions initiales qui permettront d’encadrer la condition “finale”
souhait´ee. Par exemple, si y
b
d´esigne la condition ` a la limite en x = b que doit
satisfaire y, on cherchera y
+
(a) et y

(a) (ou des conditions sur la d´eriv´ee en
x = a), c’est-` a-dire finallement deux fonctions y

et y
+
telles que, une fois
int´egr´ees jusqu’en x = b, elles satisfassent
(y
+
(b) −y
b
)(y

(b) −y
b
) ≤ 0 (7.34)
82 CHAPITRE 7. EQUATIONS AUX D
´
ERIV
´
EES ORDINAIRES
y(b)-y
y (a)
0
y (a)
+
-
y(a)
solution
b
Figure 7.9: Dans la m´ethode de tir simple, on est amen´e ` a r´esoudre une fonction
du type f(x) = 0, o` u x d´esigne une condition sur un contour et f l’erreur sur
la valeur de la condition ` a l’autre contour. Ici x ≡ y(a) et f ≡ y(b) −y
b
.
Des tirs de plus en plus ress´er´es autour de y
+
et y

permettront alors d’approcher
la solution, sous r´eserve que l’´equation diff´erentielle soit suffisamment r´eguli`ere.
En pratique, il s’agira finalement d’annuler (du moins, de minimiser) l’´ecart en-
tre la condition souhait´ee sur l’autre contour et cette calcul´ee, comme indiqu´e
` a la figure 7.9. On pourra alors utiliser toutes sortes de strat´egies d´edi´ees ` a la
recherche de z´ero ou ` a la minimisation de fonctions ou de syst`eme de fonctions.
On peut ´egalement proc´eder ` a un double tir, l’un correspondant ` a une
int´egration depuis x = a vers b et l’autre ` a une int´egration dans le sens in-
verse, en cherchant un point de raccordement quelque part sur l’intervalle.
7.7 Sch´emas aux diff´erences finies
Une autre fa¸ con d’aborder les probl`emes aux conditions aux contours, plus
rapide aussi, mais g´en´eralement moins pr´ecise, consiste ` a ´ecrire le sch´ema aux
diff´erence finies associ´e ` a l’´equation diff´erentielle en N points de grille x
i
(r´egu-
li`erement) r´epartis sur [a, b]. Par exemple, pour une ´equation d’ordre 2 telle que
l’´equation de Poisson ` a une dimension,
φ

(x) −s(x) = 0 (7.35)
o` u φ est le potentiel et s une fonction source connue, on commence par ´ecrire
le sch´ema aux diff´erences associ´e. A l’ordre 2 inclus (sur les bords comme au
centre), on a


1
−5φ
2
+ 4φ
3
−φ
4
h
2
−s
1
= 0, i = 1
φ
i−1
−2φ
i
+ φ
i+1
h
2
− s
i
= 0, i ∈ [2, N −1]

N
−5φ
N−1
+ 4φ
N−2
−φ
N−3
h
2
−s
N
= 0, i = N
7.8. EXERCICES ET PROBL
`
EMES 83
Si le potentiel φ est sp´ecifi´e aux deux bords x
1
et x
N
, le syst`eme pr´ec´edent se
r´e-´ecrit

−5φ
2
+ 4φ
3
−φ
4
= s
1
h
2
−2φ
1
,
−2φ
2
+ φ
3
= s
2
h
2
−φ
1
, i = 2
. . .
φ
i−1
−2φ
i
+ φ
i+1
= s
i
h
2
, i ∈ [3, N −3]
. . .
φ
N−2
−2φ
N−1
= s
N−1
h
2
−φ
N
, i = N −1
−5φ
N−1
+ 4φ
N−2
−φ
N−3
= s
N
h
2
−2φ
N
,
On aboutit alors ` a un syst`eme de N ´equations lin´eaires dont les inconnues
sont les N − 2 valeurs φ
i
(avec i ∈ [2, N − 1]). On ´elimine alors 2 ´equations,
celles correspondant ` a i = 2 et i = N −1 que l’on r´e-injecte sur les bords, pour
obtenir


3
−2φ
4
= (2s
1
−5s
2
)h
2
+ φ
1
,
φ
i−1
−2φ
i
+ φ
i+1
= s
i
h
2
, i ∈ [3, N −3]
−2φ
N−1
+ 3φ
N
= (2s
N
− 5s
N−1
)h
2
+ φ
N
,
On ´ecrira ce syst`eme sous forme matricielle
A
¯
φ = B (7.36)
et on d´eterminera les solutions du syst`eme par des m´ethodes appropri´ees. Pour
les sch´emas de bas ordre, la r´esolution est souvent facilit´ee par le fait que la
matrice est nulle sauf sur, et autour de la diagonale. Dans ce type de m´ethode,
l’erreur est donn´ee par la pr´ecision du sch´ema aux diff´erences.
7.8 Exercices et probl`emes
Estimez la trajectoire d’une plan`ete en orbite circulaire autour d’une
´etoile, par la m´ethode d’Euler, en utilisant diff´erents pas d’int´egration. Com-
parez ` a la solution exacte.
Ecrivez un sch´ema de type pr´edicteur/correcteur en ´evaluant l’int´egrale
dans la formule (7.10) par la m´ethode de Simpson.
Programmez l’exemple ci-dessus. Comparez la m´ethode pour diff´erents
pas.
Ecrivez le sch´ema d’ordre 4 correspondant ` a un d´eveloppement de Tay-
lor pour l’´equation diff´erentielle suivante: y

(x) = 1 + y
2
(x). Programmez la
m´ethode et comparez les r´esultats ` a la solution exacte.
Etablissez les relations (7.24) et (7.23).
Etablissez un sch´ema de Runge-Kutta d’ordre 5.
Construisez votre propre int´egrateur de type Burlish-Stoer.
84 CHAPITRE 7. EQUATIONS AUX D
´
ERIV
´
EES ORDINAIRES
Montrez que m´ethode d’Adams-Bashforth obtenue pour N = 1 coincide
effectivement avec la m´ethode d’Euler.
En vous inspirant de la d´emarche suivie D, ´etablissez les formules d’Adams-
Bashforth-Moulton pour N = 3. Mˆeme question concernant les relations (7.32)
et (7.33).
Ecrire le sch´ema aux diff´erences finies pour l’´equation de Poisson ` a une
dimension ∆Ψ(x) = 4πGρ(x) sur l’intervalle x ∈ [−1, 1] avec ρ(x) = 1 − x
2
et
r´esoudre le probl`eme pour

dx
(0) = 0 et Ψ(1) = 0. Comparez avec la solution
exacte en fonction du nombre de points de grille.
Chapitre 8
Applications astrophysiques
8.1 Structure interne des ´etoiles
Il s’agit de r´esoudre les ´equations “les plus
simples” r´egissant la structure interne des
´etoiles ` a sym´etrie sph´erique et chimiquement
homog`enes. En r´egime stationnaire, quatre
´equations forment un syst`eme diff´erentiel
ordinaire du premier ordre hautement non-
lin´eaire que l’on propose de r´esoudre par
la m´ethode du tir. Cette m´ethode consiste
` a int´egrer simultan´ement les ´equations du
syst`eme ` a partir du centre et de la surface
de l’´etoile puis ` a chercher, par it´eration
successives sur les quatre conditions aux
limites (deux sont donn´ees au centre, et deux
en surface), ` a r´ealiser la continuit´e des quatre
fonctions int´egr´ees en un point interm´ediaire.
Diff´erents niveaux de r´ealisme dans la description physique peuvent ˆetre en-
visag´es (´equation d’´etat, opacit´e, production d’´energie, convection, etc.)
R´ef´erences
• P´equignot D., Cours de DEA, “Structure et ´evolution des ´etoiles”
• Cox J.P., Giuli R.T., 1968, in “Principles of stellar structure. Vol. I”,
Gordon & Breach
8.2 Image et spectre d’un disque autour d’un
trou noir de Schwarzschild
Il s’agit de calculer l’apparence d’un disque d’accr´etion autour d’un trou noir de
Schwarz-schild tel que le verrait un observateur situ´e ` a l’infini. Techniquement,
il “suffit” de r´ealiser un programme de trac´e de rayons dans un espace courbe
d´ecrit par la m´etrique de Schwarzschild. On d´eterminera ensuite le spectre ´emis
par le disque dans deux cas limites: i) le disque ´emet en chaque point un spec-
tre de corps noir, et ii) le disque ´emet en chaque point une raie infiniment mince.
85
86 CHAPITRE 8. APPLICATIONS ASTROPHYSIQUES
R´ef´erences
• Luminet J.P., 1979, Astron. & Astrophys., 75, 228
• Fu & Taam, R.E., 1990, Astrophys. J., 349, 553
• Hameury, J.-M., Marck, J.-A., Pelat, D., 1994, Astron. & Astrophys.,
287, 795
Cas d’un trou noir de Kerr
8.3 Instabilit´e thermique d’un disque d’accr´etion
de Sakura-Sunyaev
Un disque d’accr´etion est une structure applatie dans laquelle la mati`ere est
transport´ee vers le centre et le moment cin´etique dans la direction oppos´ee. Dans
le mod`ele “standard” (Shakura & Sunyaev, 1973), on suppose que le disque est
k´epl´erien, c’est-` a-dire que les trajectoires de la mati`ere autour de l’objet central
sont des orbites k´epl´eriennes. Dans beaucoup de cas, cela est une tr`es bonne
approximation. Pour certains taux d’accr´etion, le disque devient localement
thermiquement instable, c’est-` a-dire que lorsque sa temp´erature augmente, il
se r´echauffe plus vite qu’il ne se refroidit. Un tel comportement devrait con-
duire ` a la destruction du disque. Toutefois, l’analyse globale montre que le
disque peut survivre ` a l’instabilit´e thermique en adoptant un comportement
non-stationnaire.
Il faudra dans un premier temps construire un mod`ele num´erique de disque
stable et stationnaire (Taam & Lin, 1984). On augmentera ensuite le taux
d’accr´etion jusqu’au seuil d’instabilit´e et on adaptera le mod`ele num´erique de
fa¸ con ` a pouvoir suivre le comportement dynamique du disque. D’un point de
vue num´erique, il faudra s’initier ` a la r´esolution de syst`emes d’´equations aux
d´eriv´ees partielles par des m´ethodes aux diff´erences finies suivant les sch´emas
implicites et/ou explicites.
R´ef´erences
• Taam, R.E. & Lin D.N.C., 1984, Astrophys. J., 287, 761
• Shakura N.I., Sunyaev R.A., 1973, A&A, 24, 337
• Pelat D., polycopi´e
8.4. VENT SOLAIRE 87
8.4 Vent solaire
C’est ` a Parker que l’on attribue les id´ees fondatrices de la th´eorie du vent solaire
dont l’existence fut d´efinitivement ´etablie dans les ann´ees 1950 par l’observation
des com`etes puis confirm´ee par les mesures de la sonde spatiale Mariner-2 la
d´ecennie suivante. Le vent emporte avec lui le champ magn´etique de Soleil.
Il est acc´el´er´e ` a la base de la couronne et s’´etend dans tout le syst`eme solaire
fouettant notamment les plan`etes sur son passage. Initialement, la vitesse du
vent est faible, mais celle-ci croˆıt au fur et ` a mesure qu’il s’´ecoule dans l’espace
interplan´etaire pour atteindre plusieurs centaines de kilom`etres par seconde. A
cause de ce ph´enom`ene, le Soleil perd inexorablement de sa masse, ` a un taux
toutefois relativement faible, de l’ordre de 10
−14
M

/an (aujourd’hui).
On ´etudiera l’´ecoulement du vent so-
laire d’apr`es le mod`ele hydrodynamique
simplifi´e de Parker (1960): le fluide est
suppos´e ` a sym´etrie sph´erique, station-
naire, non-magn´etis´e, et isotherme (on
pourra toutefois envisager une solution
polytropique). On traitera d’abord le
cas stationnaire et on ´etudiera en par-
ticulier la topologie des solutions en
fonction des param`etres de contrˆ ole que
sont la vitesse du vent ` a la base de
la couronne et la temp´erature du gaz.
Puis, on abordera le cas d´ependant du
temps et en particulier l’installation de
l’´ecoulement ainsi que la sensibilit´e de
la dynamique du vent aux conditions
aux limites. On pourra ainsi voir com-
ment un vent peut se transformer en
une accr´etion (Bondi, 1952).
Vents de Parker
(d’apr`es I. Zouganelis, DEA prom. 2001/2002)
Du point de vue m´ethodologique, le probl`eme stationnaire met en jeu la
r´esolution d’une ´equation diff´erentielle ordinaire mono-dimensionnelle (ODE)
avec franchissment d’une singularit´e (correspondant en fait au passage du point
sonique). Le probl`eme d´ependant du temps est un probl`eme aux d´eriv´ees par-
tielles (PDEs) avec conditions aux contours (TBVP).
R´ef´erences
• Philips K.J.H., 1995, in ‘Guide to the sun”, CUP
• Parker E.N., 1960, ApJ, 132, 821
• Bondi H., 1952, MNRAS, 112, 195
8.5 Equation de Saha
La connaissance de l’´equation d’´etat des gaz est fondamentale pour compren-
dre la nature des fluides astrophysiques comme ceux qui composent le milieu
interstellaire, les ´etoiles, les ´etoiles ` a neutrons, les plan`etes g´eantes, les disques
d’accr´etion, etc. Dans nombre de situations, les gaz sont non-d´eg´en´er´es et quasi-
ment ` a l’´equilibre thermodynamique local (ETL). C’est notamment le cas du
88 CHAPITRE 8. APPLICATIONS ASTROPHYSIQUES
gaz de l’interieur du Soleil. Selon la temp´erature du milieu et sa pression (ou
sa densit´e), le gaz peut revˆetir diff´erents aspects physico-chimiques: totalement
ou partiellement ionis´e, neutre, mol´eculaire ou condens´e sous forme de grains.
Les propri´et´es globales qui en d´ecoulent, notamment les propri´et´es radiatives
et thermodynamiques, jouent alors un rˆ ole cl´e dans l’´equilibre ou l’´evolution
du milieu lui-mˆeme. Par exemple, un milieu froid constitu´e majoritairement
de mol´ecules H
2
n’aura pas le mˆeme comportement (dynamique, ´emissif, etc.)
qu’un milieu compl`etement ionis´e. Dans le cadre de l’ETL, s’il peut ˆetre jus-
tifi´e par ailleurs, la d´etermination des composants chimiques d’un gaz de type
parfait pour une temp´erature T et une pression P donn´ees est grandement fa-
cilit´ee par le fait que l’on peut s’affranchir de la connaissance des m´ecanismes
microscopiques qui forment et d´etruisent les esp`eces individuellement, ceci par
le biais de la m´ecanique statistique (Tsuji, 1964a et 1964b; Cox & Giuli, 1965).
Dans ce projet, on mettra en place un outil permettant de r´esoudre l’´equilibre
de Saha (´equilibre ions/neutres) et l’´equilibre de dissociation (´equilibre neu-
tres/mol´ecules) pour un couple (T, P) donn´e, ` a partir d’un m´elange initial
d’´el´ements (H:He:C:N:O:. . . ). On pourra ´eventuellement traiter la condensa-
tion (´equilibre gas/grain) et en d´eduire des quantit´es thermodynamiques fon-
damentales comme le poids mol´eculaire moyen, l’´energie interne, l’entropie, les
gradients adiabatiques, etc. Il sera int´eressant de pouvoir modifier ` a loisir le
m´elange d’´el´ements (H:He:C:N:O:. . . ).
Du point de vue m´ethodologique, le probl`eme consiste essentiellement ` a
r´esoudre une ´equation vectorielle du type

F(

X) =

0. Par ailleurs, le syst`eme
est “raide”.
R´ef´erences
• Tsuji T., 1964a, Pub. Soc. Japan, 18, 127
• Tsuji T., 1964b, Ann. Tokyo Astron. Obs. 2nd Ser., 9, 1
• Cox J.P., Giuli R.T., 1968, in “Principles of stellar structure. Vol. I”,
Gordon & Breach
8.6 Dynamique des disques stellaires
On peut simuler les instabilit´es spirales ou de barres d’un disque d’´etoiles par
une mod´elisation num´erique de type N-corps et comprendre ainsi certains as-
pects de la dynamique galactique. Dans ce projet, il s’agira d’´etudier l’´evolution
temporelle d’un ensemble de N particules mat´erielles (les ´etoiles) ´evoluant dans
un champ comprenant ´eventuellement un champ central (trou noir) et le champ
propre du disque stellaire. On envisagera tout d’abord une mod´elisation de type
“PP” ou les interactions sont calcul´ees “particule ` a particle”. Il faudra constru-
ire un int´egrateur de mouvement particuli`erement fiable et traiter soigneusement
le probl`eme des rencontres ` a deux corps. On pourra ensuite impl´ementer une
m´ethode de type PM, voire une structure hi´erarchique de type “tree-code”, per-
mettant d’augmenter le nombre de particules (et ainsi d’accroˆıtre le degr´e de
r´ealisme de l’exp´erience) sans augmenter le temps de calcul de mani`ere pro-
hibitive. De nombreuses extensions sont possibles.
8.7. FLUIDE COSMOLOGIQUEET FORMATIONDES GRANDES STRUCTURES89
Du point de vue m´ethodologique, le probl`eme consiste essentiellement ` a
r´esoudre des ´equations diff´erentielles ordinaires (ODEs).
R´ef´erences
• Hockney R.W., Eastwood J.W., 1981, in “Computer simulations using
particles, New-York, Mc Graw Hill
• Hernquist L., 1987, ApJ, 64, 715
• Selwood J.A., Carlberg R.G., 1984, ApJ, 282, 61
Instabilit´es dans les disques galactiques
(d’apr`es Semelin & Combes, 2002)
8.7 Fluide cosmologique et formation des grandes
structures
La formation des galaxies dans l’Univers primordial a ´et´e d´etermin´ee par la
structuration de la mati`ere ` a grande ´echelle. On peut en ´etudier le m´ecanisme
grˆ ace ` a un suivi de l’´evolution spatio-temporelle de perturbations initiales de
densit´e. On mettra en place un outil permettant la simulation d’un fluide de
mati`ere noire (non-collisionnelle) ` a une puis ` a deux dimensions. L’originalit´e de
l’´etude vient du fait que les ´equations du mouvement doivent inclure l’expansion
de l’Univers, r´egul´ee par les param`etres cosmologiques “habituels”. On pourra
ainsi, selon les conditions initiales, observer l’effondrement ou la diffusion de
structures ` a petite ´echelle.
Du point de vue m´ethodologique, le probl`eme consiste essentiellement ` a
r´esoudre des ´equations aux d´eriv´ees partielles (PDEs).
90 CHAPITRE 8. APPLICATIONS ASTROPHYSIQUES
Distribution spatiale de la matire noire ` a diff´erents redshit
dans un scnario ΛCDM (Courty, 2002).
R´ef´erences
• Hockney R.W., Eastwood J.W., 1981, in “Computer simulations using
particles, New-York, Mc Graw Hill
• Efstafhiou G. et al., 1985, ApJ, 57, 241
• Courty S., polycopi´e
Bibliographie
[1] Numerical methods for Mathematics Science and Engineering, 1992, J.H.
Mathews, Press-Hall International Inc., 2nd edition
[2] Numerical methods that work, 1970, J.H.Mathews, Press-Hall International
Inc., 2nd edition
[3] Numerical receipes, the art of scientific computing, 1992, W.H. Press et al.,
CUP, 2nd edition
[4] Analyse num´erique pour ing´enieurs, 1995, A. Fortin, Ed. de l’Ecole Poly-
technique de Montr´eal
[5] M´ethodes num´eriques. Interpolation — D´eriv´ees, 1959, J. Kuntzmann,
Dunod
[6] Introduction to numerical analysis, 1956, F.B. Hildebrand, McGraw-Hill
[7] Numerical analysis, 1961, Z. Kopal, Chapman & Hall LTD
[8] Computing methods. Vol. I, 1965, O.M. Blunn, Booth A.D., Pergamon Press
LTD
[9] Computing methods. Vol. II, 1965, O.M. Blunn, Booth A.D., Pergamon
Press LTD
Revues p´eriodiques
[10] Computer Physics Communications
[11] Computer Physics Communications
[12] Computing in Science and Engineering
[13] Journal of Computational Physics
[14] Journal of Mathematical Physics
[15] Mathematics of Computation
91
92 BIBLIOGRAPHIE
Appendice A
GAMS: Project Summary
Extrait de http://gams.nist.gov/.
[. . . ]. The Guide to Available Mathematical Software project of the National
Institute of Standards and Technology (NIST) studies techniques to provide sci-
entists and engineers with improved access to reusable computer software which
is available to them for use in mathematical modeling and statistical analysis.
One of the products of this work is an on-line cross-index of available math-
ematical software. This system also operates as a virtual software repository.
That is, it provides centralized access to such items as abstracts, documenta-
tion, and source code of software modules that it catalogs; however, rather than
operate a physical repository of its own, this system provides transparent access
to multiple repositories operated by others.
Currently four software repositories are indexed: three maintained for use by
NIST staff (but accessible to public), and netlib, a publically accessible software
collection maintained by Oak Ridge National Laboratory and the University of
Tennessee at Knoxville (netlib in Tennessee) and Bell Labs (netlib at Bell Labs).
This represents some 10,000 problem-solving modules from more than 100 soft-
ware packages. The vast majority of this software represents Fortran subpro-
grams for mathematical problems which commonly occur in computational sci-
ence and engineering, such as solution of systems of linear algebraic equations,
computing matrix eigenvalues, solving nonlinear systems of differential equa-
tions, finding minima of nonlinear functions of several variables, evaluating the
special functions of applied mathematics, and performing nonlinear regression.
Among the packages cataloged are : the IMSL, NAG, PORT, and SLATEC
libraries; the BLAS, EISPACK, FISHPACK, FNLIB, FFTPACK, LAPACK,
LINPACK, and STARPAC packages; the DATAPLOT and SAS statistical anal-
ysis systems; as well as other collections such as the Collected Algorithms of
the ACM. Note that although both public-domain and proprietary software is
cataloged here, source code of proprietary software products are not available,
although related items such as documentation and example programs often are.
All cataloged problem-solving software modules are assigned one or more
problem classifications from a tree-structured taxonomy of mathematical and
statistical problems. Users can browse through modules in any given problem
class. To find an appropriate class, one can utilize the taxonomy as a decision
tree, or enter keywords which are then mapped to problem classes. Search
93
94 APPENDICE A. GAMS: PROJECT SUMMARY
filters can be declared which allow users to specify preferences such computing
precision or programming language. In addition, users can browse through all
modules in a given package, all modules with a given name, or all modules with
user-supplied keywords in their abstracts. [. . . ]
Appendice B
Quadrature de
Gauss-Legendre
L’id´ee g´en´erale de la m´ethode de Gauss est d’imposer des contraintes sur les x
i
o` u la fonction f est ´evalu´ee, de fa¸ con ` a ce que la m´ethode soit exacte pour des
polynˆ omes de degr´es ´el´ev´es. Ceci permet d’augmenter le degr´e de pr´ecision des
m´ethodes associ´ees. Dans la m´ethode de Gauss-Legendre, on calcule l’int´egrale
d´efinie

1
−1
f(x)dx ` a l’aide de N ´evaluations de f aux points x
1
, x
2
, . . . , x
N
, soit

1
−1
f(x)dx ≈
N
¸
i=1
w
i
f
i
o` u f
i
≡ f(x
i
). Il y a 2N inconnues dans cette formule: les N abscisses x
i
(ou noeuds) et les N coefficients w
i
(les poids). Il est donc, en principe, possible
de s’imposer 2N contraintes. Comme un polynˆ ome de degr´e 2N − 1 est d´efini
par 2N coefficients, il semble alors possible d’exiger que la formule d’int´egration
ci-dessus soit exacte pour les polynˆ omes de degr´e 2N −1 (et donc pour tous les
polynˆ omes de degr´e k ≤ 2N −1).
Soit Q
0
, Q
1
, . . . , Q
2N−1
une base des polynˆ omes de degr´e 2N − 1. Une
condition n´ecessaire et suffisante pour que la formule d’int´egration soit exacte
jusqu’aux polynˆ omes de degr´e 2N −1 est

1
−1
Q
k
(x)dx =
N
¸
i=1
w
i
Q
k
(x
i
), pour k = 0, 1, . . . , 2N −1.
La formule pr´ec´edente constitue un syst`eme de 2N ´equations ` a 2N incon-
nues. La difficult´e majeure est que ce syst`eme n’est pas lin´eaire, donc difficile ` a
inverser. Choisissons par exemple la base Q
k
(x) = x
k
. Il faut alors r´esoudre

1
−1
x
k
dx =
N
¸
i=1
w
i
Q
k
(x
i
), pour k = 0, 1, . . . , 2N −1.
L’int´egrale est facilement ´evalu´ee. On a en effet:

1
−1
x
k
dt =
1 −(−1)
k+1
k + 1
=

2
k + 1
si k est pair ;
0 si k est impair .
95
96 APPENDICE B. QUADRATURE DE GAUSS-LEGENDRE
Ce qui conduit au syst`eme suivant
N
¸
i=1
w
i
= 2 ,
N
¸
i=1
w
i
x
i
= 0 ,
. . .
N
¸
i=1
w
i
x
2N−2
i
=
2
2N −1
,
N
¸
i=1
w
i
x
2N−1
i
= 0 .

(B.1)
dont la r´esolution n’est pas triviale. Il est toutefois possible d’aboutir ` a un
syst`eme plus simple par un choix judicieux des polynˆ omes de base Q
k
. Prenons
en effet Q
k
(x) = x
k
pour k = 0, 1, . . . , N − 1 et Q
k
(x) = x
k−N
P
N
(x) pour
k = N, . . . , 2N −1, o` u P
N
est le polynˆ ome de Legendre de degr´e N. Il est clair
que les Q
k
sont des polynˆ omes de degr´e k et que, par cons´equent, ils forment
une base des polynˆ omes de degr´e 2N − 1. Les polynˆ omes de Legendre sont
orthogonaux sur le domaine d’int´egration qui nous int´eresse, c’est-` adire

1
−1
P
n
(x)P
m
(x)dx =

0 , si n = m;
2
2n+1
, si n = m
Cette propri´et´e fait que P
N
est orthogonal ` a tous les polynˆ omes de degr´e
k < N. En particulier, P
N
(x) est orthogonal ` a x
k−N
pour k = N, . . . , 2N − 1.
Dans ces conditions, le syst`eme ` a r´esoudre s’´ecrit maintenant
N
¸
i=1
w
i
= 2 ,
N
¸
i=1
w
i
x
i
= 0 ,
. . .
N
¸
i=1
w
i
x
N−1
i
=
1 −(−1)
N
N
,
N
¸
i=1
w
i
P
N
(x
i
) = 0 ,
. . .
N
¸
i=1
w
i
x
N−1
i
P
N
(x
i
) = 0 .

(B.2)
Ce syst`eme de 2N ´equations ` a 2N inconnues se scinde en deux sous-syst`emes
1. Si l’on suppose les x
i
connus, les N premi`eres ´equations forment un
syst`eme lin´eaire qui, sous r´eserve de r´egularit´e, permet de d´eterminer les
w
i
.
97
2. Les N derni`eres ´equations sont toutes de la forme
¸
N
i=1
w
i
x
k
i
P
N
(x
i
) = 0
pour k = 0, . . . , N −1. Si les x
i
sont les N racines de P
N
(t), on aura pour
tout i, P
N
(x
i
) = 0 et le sous-syst`eme sera toujours satisfait. Il se trouve
que ces racines sont r´eelles, distinctes et comprises entre −1 et 1.
Nous allons d´emontrer d’une part que le premier sous-syst`eme est r´egulier
et d’autre part que la condition suffisante P
n
(x
i
) = 0 est aussi n´ecessaire, en
d’autres termes que la solution du syst`eme (B.2) est unique.
Premier sous-syst`eme. Supposons les x
i
connus (par exemple les solutions
de P
N
(x) = 0 ), la matrice de ce syst`eme lin´eaire s’´ecrit alors:

1 1 . . . 1
x
1
x
2
. . . x
N
x
2
1
x
2
2
. . . x
2
N
. . . . . . . . . . . .
x
N−1
1
x
N−1
2
. . . x
N−1
N
¸
¸
¸
¸
¸
¸
.
Il s’agit d’une matrice de Vandermonde dont le d´eterminant D vaut :
D =
¸
i<j
(x
i
−x
j
) .
Ce d´eterminant n’est pas nul car les x
i
sont tous distincts, le syst`eme lin´eaire
est donc r´egulier. Le premier sous-syst`eme admet alors une solution unique qui
peut ˆetre calcul´ee en inversant la matrice de Vandermonde. Il est cependant
possible de trouver une expression plus utile grˆ ace aux polynˆ omes de Lagrange.
Soient L
i
les polynˆ omes de Lagrange correspondants aux points x
i
. Le
polynˆ ome L
i
est de degr´e N−1 son int´egration par la formule de Gauss-Legendre
est donc exacte. Il vient

1
−1
L
i
(x)dx =
N
¸
j=1
w
i
L
i
(x
j
) .
Mais on a L
i
(x
j
) = δ
ij
d’o` u
w
i
=

1
−1
L
i
(x) dx.
Mais si L
i
(x
j
) = δ
ij
, il en est de mˆeme de L
2
i
(x
j
) et comme le polynˆ ome L
2
i
est de degr´e 2N − 2, il est lui-aussi int´egrable par Gauss-Legendre. Le mˆeme
raisonnement s’applique et on trouve alors
w
i
=

1
−1
L
2
i
(x) dx.
Cette derni`ere formule montre que les w
i
sont des r´eels strictement positifs.
Second sous-syst`eme. Nous avons vu que ce sous-syst`eme est satisfait si les
x
i
sont les N solutions de P
N
(x) = 0, reste ` a montrer que cette solution est
unique. Raisonnons par l’absurde et supposons qu’il existe au moins un x
i
tel
98 APPENDICE B. QUADRATURE DE GAUSS-LEGENDRE
N i noeuds x
i
poids w
i
1 1 0 2
2 1; 2 ∓0.57735 02691 89626 1
3 1; 3
2
∓0.77459 66692 41483
0
0.55555 55555 55556 = 5/9
0.88888 88888 88889 = 8/9
4 1; 4
2; 3
∓0.86113 63115 94053
∓0.33998 10435 84856
0.34785 48451 37454
0.65214 51548 62546
5 1; 5
2; 4
3
∓0.90617 98459 38664
∓0.53846 93101 05683
0
0.23692 68850 56189
0.47862 86704 99366
0.56888 88888 88889
6 1; 6
2; 5
3; 4
∓0.93246 95142 03152
∓0.66120 93864 66265
∓0.23861 91860 83197
0.17132 44923 79170
0.36076 15730 48139
0.46791 39345 72691
7 1; 7
2; 6
3; 5
4
∓0.94910 79123 42759
∓0.74153 11855 99394
∓0.40584 51513 77397
0
0.12948 49661 68870
0.27970 53914 89277
0.38183 00505 05119
0.41795 91836 73469
8 1; 8
2; 7
3; 6
4; 5
∓0.96028 98564 97536
∓0.79666 64774 13627
∓0.52553 24099 16329
∓0.18343 46424 95650
0.10122 85462 90376
0.22238 10344 53374
0.31370 66458 77887
0.36268 37833 78362
Table B.1:
´
El´ements pour le calcul de la formule de Gauss-Legendre pour N ≤
12.
que P
N
(x
i
) = 0. Le polynˆ ome L
i
(x)P
N
(x) est de degr´e 2N −1; il est int´egrable
par Gauss-Legendre, il vient alors

1
−1
L
i
(x)P
n
(x)dx = 0 ,
N
¸
j=1
w
j
L
i
(x
j
)P
N
(x
j
) = 0 ,
N
¸
j=1
w
j
δ
ij
P
N
(x
j
) = 0 ,
w
i
P
N
(x
i
) = 0 .
Mais cette derni`ere condition est contradictoire puisque w
i
> 0 et que l’on
a suppos´e que P
N
(x
i
) = 0. Il n’existe donc pas de x
i
tels que P
N
(x
i
) = 0. Il
resterait ` a d´emontrer que les x
i
sont bien des r´eels distincts compris entre −1
et 1. Il s’agit en fait d’une propri´et´e classique des polynˆ omes de Legendre!
99
N i noeuds x
i
poids w
i
9 1; 9
2; 8
3; 7
4; 6
5
∓0.96816 02395 07626
∓0.83603 11073 26636
∓0.61337 14327 00590
∓0.32425 34234 03809
0
0.08127 43883 61574
0.18064 81606 94857
0.26061 06964 02935
0.31234 70770 40003
0.33023 93550 01260
10 1; 10
2; 9
3; 8
4; 7
5; 6
∓0.97390 65235 17172
∓0.86506 33666 88985
∓0.67940 95682 99024
∓0.43339 53941 29247
∓0.14887 43389 81631
0.06667 13443 08688
0.14945 13491 50581
0.21908 63625 15982
0.26926 67193 09996
0.29552 42247 14753
11 1; 11
2; 10
3; 9
4; 8
5; 7
6
∓0.97822 86581 46057
∓0.88706 25997 68095
∓0.73015 20055 74049
∓0.51909 61292 06812
∓0.26954 31559 52345
0
0.05566 85671 16172
0.12558 03694 64905
0.18629 02109 27734
0.23319 37645 91990
0.26280 45445 10247
0.27292 50867 77901
12 1; 12
2; 11
3; 10
4; 9
5; 8
6; 7
∓0.98156 06342 46719
∓0.90411 72563 70475
∓0.76990 26741 94305
∓0.58731 79542 86617
∓0.36783 14989 98180
∓0.12523 34085 11469
0.04717 53363 86512
0.10693 93259 95318
0.16007 83285 43346
0.20316 74267 23066
0.23349 25365 38355
0.24914 70458 13403
Table B.2:
´
El´ements pour le calcul de la formule de Gauss-Legendre pour N ≤
12 (suite).
100 APPENDICE B. QUADRATURE DE GAUSS-LEGENDRE
Appendice C
Formule de Peano
Peano a donn´e une expression exacte de l’erreur de quadrature R(f). Cette
expression d´epend d’une fonction K(t) appel´ee noyau de Peano.
Noyau de Peano. Soit une m´ethode d’int´egration num´erique conduisant ` a
l’erreur de quadrature R. Le noyau de Peano associ´e ` a cette m´ethode est une
fonction K(t) ainsi d´efinie :
K(t) =
1
n!
R

x →(x −t)
n
+

, (x −t)
n
+
=

(x −t)
n
si x ≥ t ;
0 si x < t ,
o` u n est le plus grand degr´e des polynˆ omes pour lesquels l’int´egration num´erique
est exacte.
Conform´ement ` a la remarque pr´ec´edente, la notation R

x →(x −t)
n
+

veut
dire que dans l’expression de R, la fonction ` a int´egrer est (x − t)
n
+
et que la
variable d’int´egration est x.
Calculons le noyau de Peano associ´e ` a la m´ethode de Simpson. Par d´efinition
de R on a :
R(f) =
1
3
f(−1) +
4
3
f(0) +
1
3
f(1) −

1
−1
f(x) dx.
Il s’agit d’une m´ethode d’int´egration ` a trois points qui est exacte pour les
plynˆ omes de degr´e inf´erieur ou ´egal ` a trois. Le noyau de Peano s’´ecrit alors
:
K(t) =
1
6
R

x →(x −t)
3
+

,
=
1
6

1
3
(−1 − t)
3
+
+
4
3
(0 −t)
3
+
+
1
3
(1 −t)
3
+

1
−1
(x −t)
3
+
dx

.
Le noyau K(t) est d´efini pour t quelconque mais seul le domaine d’int´egration
t ∈ [−1, 1] est utile. Dans cet intervalle, il vient :
(−1 −t)
3
+
= 0 , (1 −t)
3
+
= (1 −t)
3
,
(−t)
3
+
=

0 si t ≥ 0 ;
−t
3
si t < 0 .

1
−1
(x −t)
3
+
dx =

1
t
(x −t)
3
dx =
1
4
(1 −t)
4
.
101
102 APPENDICE C. FORMULE DE PEANO
Finalement le noyau de Peano associ´e ` a la m´ethode de Simpson est, dans
l’intervalle d’int´egration [−1, 1], donn´e par l’expression :
K(t) =

1
72
(1 −t)
3
(1 + 3t) si 0 ≤ t ≤ 1 ;
1
72
(1 + t)
3
(1 −3t) si −1 ≤ t ≤ 0 .
D’o` u il ressort que, dans ce cas, le noyau de Peano est sym´etrique et positif.
A l’aide de K et du th´eor`eme suivant, on d´etermine l’erreur de quadrature.
Si, pour une m´ethode d’int´egration num´erique donn´ee, l’erreur de quadrature
correspondante R est nulle pour tous les polynˆ omes de degr´e n, alors pour toutes
les fonctions f ∈ C
n+1
[a, b], on a :
R(f) =

b
a
f
(n+1)
(t)K(t) dt ,
o` u f
(n+1)
est la d´eriv´ee d’ordre n + 1 de f.
Si K(t) ne change pas de signe dans l’intervalle d’int´egration, on peut utiliser
le th´eor`eme de la moyenne et obtenir :
R(f) = f
(n+1)
(θ)

b
a
K(t) dt , θ ∈ [a, b] .
L’int´egrale portant sur K ne d´epend pas de f et peut tre ´evalu´ee en substituant
` a f n’importe quelle fonction telle que sa d´eriv´ee d’ordre n + 1 n’est pas nulle.
Le plus simple est de prendre la fonction x
n+1
, il vient :
R(f) =
R(x
n+1
)
(n + 1)!
f
(n+1)
(θ) .
Pour la m´ethode de Simpson et pour l’intervalle d’int´egration [−1, 1], on
trouve :
R(x
4
)
4!
=
1
24

1
3
(−1)
4
+
4
3
(0)
4
+
1
3
(1)
4

1
−1
x
4
dx

=
1
90
.
Finalement pour toute fonction f, f ∈ C
n+1
[−1, 1] :

1
3
f(−1) +
4
3
f(0) +
1
3
f(1) −

1
−1
f(x) dx

=
1
90
f
(n+1)
(θ) , θ ∈ [−1, 1] .
Appendice D
Formules d’Adams-
Bashforth-Moulton
Pour obtenir le sch´ema pr´edicteur/correcteur d’Adams-Bashforth-Moulton d’or-
dre 2, on suppose connue la fonction y en 2 points (x
1
, y
1
) et (x
2
, y
2
), ce qui per-
met de calculer un interpolant polynˆ omial du premier degr´e P
1
(x) pour y

= f.
Pour former cet interpolant, on passe naturellement par les formes de Lagrange
(voir la relation (4.8)). Ainsi, l’interpolant s’´ecrit-il
L
2
(x) =
2
¸
k=1
y
k
L
2,k
(x) = P
1
(x) ≡ f(x, y) (D.1)
o` u L
2,1
(x) et L
2,2
(x) sont les coefficients de Lagrange d´efinis par

L
2,1
(x) =
x −x
2
x
1
− x
2
= −
x −x
2
h
L
2,2
(x) =
x −x
1
x
2
− x
1
=
x −x
1
h
o` u h = x
2
− x
1
. Le pr´edicteur ˜ y
3
, c’est-` a-dire une premi`ere estimation de y
3
,
est obtenu en calculant l’incr´ement sur l’intervalle [x
2
, x
3
], soit
δ =

x3
x2
f(x, y)dx (D.2)
= y
1

x3
x2
L
2,1
(x)dx + y
2

x3
x2
L
2,2
(x)dx (D.3)
= −
y
1
h

x3
x2
(x −x
2
)dx +
y
2
h

x3
x2
(x −x
1
)dx (D.4)
= −
y
1
h
¸
(x −x
2
)
2
2

x3
x2
+
y
2
h
¸
(x −x
1
)
2
2

x3
x2
(D.5)
= −
y
1
h
h
2
2
+
y
2
h
¸
(2h)
2
−h
2
2

(D.6)
soit
δ = −
h
2
y
1
+
3h
2
y
2
(D.7)
103
104 APPENDICE D. FORMULES D’ADAMS-BASHFORTH-MOULTON
Nous obtenons donc pour le pr´edicteur
˜ y
3
= y
2

h
2
y
1
+
3h
2
y
2
(D.8)
(D.9)
Pour obtenir le sch´ema correcteur associ´e, on utilise les 2 points suivants
(x
2
, y
2
) et (x
3
, ˜ y
3
) pour former un second interpolant polynˆ omial du premier
degr´e Q
1
(x) pour f. Grˆ ace aux formes de Lagrange, on a
L

2
(x) = y
2
L

2,2
(x) + ˜ y
3
L

2,3
(x) = Q
1
(x) ≡ f(x, y) (D.10)
avec

L

2,2
(x) =
x −x
3
x
2
−x
3
= −
x −x
3
h
L

2,3
(x) =
x −x
2
x
3
−x
2
=
x −x
2
h
o` u h = x
3
−x
2
. Sur l’intervalle [x
2
, x
3
], l’incr´ement vaut
δ =

x3
x2
f(x, y)dx (D.11)
= y
2

x3
x2
L

2,2
(x)dx + ˜ y
3

x3
x2
L

2,3
(x)dx (D.12)
= −
y
2
h

x3
x2
(x −x
3
)dx +
˜ y
3
h

x3
x2
(x −x
2
)dx (D.13)
= −
y
2
h
¸
(x −x
3
)
2
2

x3
x2
+
˜ y
3
h
¸
(x −x
2
)
2
2

x3
x2
(D.14)
= −
y
2
h
h
2
2
+
˜ y
3
h
h
2
2
(D.15)
soit
δ = −
h
2
y
2
+
h
2
˜ y
3
(D.16)
Nous obtenons donc pour le correcteur
˜ y
3
=
h
2
y
2
+
h
2
˜ y
3
(D.17)
(D.18)
Liste des tables
2.1 Mimimum et maximum r´eels adressables. . . . . . . . . . . . . . 17
2.2 Les 20 entr´ees principales de l’arbre de d´ecision du GAMS . . . . 24
5.1 Quelques quadratures standards. . . . . . . . . . . . . . . . . . . 52
B.1 Formule de Gauss-Legendre pour N ≤ 12. . . . . . . . . . . . . . 98
B.2 Formule de Gauss-Legendre pour N ≤ 12 (suite). . . . . . . . . . 99
105
106 LISTE DES TABLES
Liste des figures
1.1 Charles Babbage et la DENO. . . . . . . . . . . . . . . . . . . . 12
1.2 Alan Turing et Colossus. . . . . . . . . . . . . . . . . . . . . . . 13
1.3 John L. von Neumann et le Cray I. . . . . . . . . . . . . . . . . 13
2.1 Sensibilt´e et nombre de conditionnement. . . . . . . . . . . . . . 21
2.2 Illustration de l’adimensionnement et du choix des variables. . . 22
2.3 Page d’accueil du site Internet du GAMS. . . . . . . . . . . . . . 23
3.1 D´eriv´ees et ´echantillonage. . . . . . . . . . . . . . . . . . . . . . . 28
3.2 Approximation polynˆ omiale. . . . . . . . . . . . . . . . . . . . . . 30
3.3 Pas optimum h
opt
pour la d´eriv´ee. . . . . . . . . . . . . . . . . . 31
3.4 Exemple illustrant l’existence d’un pas optimum. . . . . . . . . . 32
3.5 Calcul de la d´eriv´ee de e
x
en pour diff´erents pas. . . . . . . . . . 33
4.1 Polynˆ omes de Chebyshev de premi`ere esp`ece T
k
(x) sur [−1, 1]. . 37
4.2 Polynˆ omes de Legendre {
k
(x) sur [−1, 1]. . . . . . . . . . . . . . 37
4.3 Polynˆ omes de Hermite H
k
(x) sur [−2, 2]. . . . . . . . . . . . . . . 38
4.4 Exemple d’erreur commise sur le calcul de {
2k
(1). . . . . . . . . 39
4.5 Interpolation lin´eaire et ligne bris´ee. . . . . . . . . . . . . . . . . 40
4.6 Approximation de Lagrange. . . . . . . . . . . . . . . . . . . . . 41
4.7 Ajustement et oscillations. . . . . . . . . . . . . . . . . . . . . . . 42
4.8 Principe de l’ajustement. . . . . . . . . . . . . . . . . . . . . . . 43
4.9 Regression, approximation polynomiale et spline cubique. . . . . 44
5.1 Int´egrale d´efinie d’une fonction. . . . . . . . . . . . . . . . . . . . 47
5.2 M´ethode des trap`ezes, m´ethodes compos´ee et adaptative. . . . . 49
5.3 Formule ouverte ou semi-ouverte. . . . . . . . . . . . . . . . . . . 50
5.4 Int´egration de Gauss-Legendre ` a 2 points. . . . . . . . . . . . . . 52
5.5 Int´egrale elliptique compl`ete de premi`ere esp`ece /(x). . . . . . . 54
6.1 Racines r
1
et r
2
d’une fonction f de la variable x. . . . . . . . . 58
6.2 Crit`ere de convergence. . . . . . . . . . . . . . . . . . . . . . . . 59
6.3 M´ethode des fausses positions. . . . . . . . . . . . . . . . . . . . 62
6.4 Construction graphique associ´ee ` a la m´ethode des gradients. . . . 63
6.5 Illustration de la m´ethode des s´ecantes. . . . . . . . . . . . . . . 64
7.1 Illustration de la notion de champ de pentes. . . . . . . . . . . . 70
7.2 Conditions initiales et conditions aux (deux) contours. . . . . . . 72
7.3 M´ethode de Heun. . . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.4 M´ethode d’Euler et m´ethodes de Taylor. . . . . . . . . . . . . . . 75
7.5 Interpr´etation de la m´ethode de Runge-Kutta d’ordre 4. . . . . . 77
7.6 M´ethode de Runge-Kutta d’ordre 4 et m´ethodes de Taylor. . . . 79
7.7 Princide de l’int´egrateur de Burlish-Stoer. . . . . . . . . . . . . . 79
7.8 M´ethode de tir simple. . . . . . . . . . . . . . . . . . . . . . . . . 81
7.9 M´ethode de tir simple (2). . . . . . . . . . . . . . . . . . . . . . . 82
107
Index
´echantillon, 35
´echantillonnage r´egulier, 34, 55
´echelle caract´eristique, 24
´equation de Laplace, 94
´equation de Poisson, 94
´equation de diffusion, 94
´equation de la chaleur, 94
´equation des ondes, 94
´equation elliptique, 94
´equation hyperbolique, 94
´equation non-lin´eaire, 77
´equation parabolique, 94
´equations aux d´eriv´ees partielles, 76
´equations diff´erentielles ordinaires,
52, 93
´equations lin´eaires, 91
´equations vectorielles, 61
adimensionnement, 24
aire, 51
ajustement, 35
algorithme, 17
annulation soustractive, 43
approximation de Lagrange, 45, 87
approximation de Newton, 45, 46
astronomie, 13
Babyloniens, 13
base, 13
base sexag´esimale, 13
BDF, 33
binaire, 19
bissection, 65
bits, 19
BVP, 93
calcul symbolique, 31
calculateur ´electronique, 14
centres, 40
ch´emas ouvert, 58
champ de pentes, 75
code de calcul, 18
coefficients de Lagrange, 40, 45, 117
coefficients non constants, 77
Colossus, 14
combinaisons linaires, 52
condition au contour interm´ediaire,
79
condition initiale, 80
conditions aux contours, 79, 89, 90,
93
conditions aux limites, 76, 77, 79,
93
conditions contours, 93
conditions de Dirichlet, 79, 93
conditions de Neumann, 80, 93
conditions initiales, 79, 89, 93
contraintes, 76
convergence, 67, 72
convergence lin´eaire, 65
convergence quadratique, 65
correcteur, 81
Cray I, 16
crit`ere de convergence, 61
d´eriv´ee partielle, 73
d´eriv´ees, 52
d´eterminant, 65
dichotomie, 89
diff´erence centr´ee, 33
diff´erence finie, 21, 33
diff´erence finies, 90
diff´erences divis´ees, 46
diff´erences finies, 80
double tir, 90
dynamique, 24
effet de bord, 33
encadrement, 65
ENIAC, 14
Enigma, 14
erreur, 53
erreur absolue, 22
erreur d’arrondi, 21
erreur de repr´esentation, 21, 43
erreur de sch´ema, 21
erreur de troncature, 21
108
INDEX 109
erreur relative, 22
exposant, 19
extrapolation, 43
extrapolation de Richardson, 36
FDF, 33
fonction de lissage, 46
fonction de Newton-Raphson, 68
fonction interpolante, 47
fonction lin´eaire, 52
fonction source, 91
fonction sp´eciale, 58
forme de Horner, 43
forme de Lagrange, 40
forme de Newton, 40
forme de Taylor, 40
forme imbriqu´ee, 43
forme implicite, 77
formule de Bessel, 47
formule de Everett, 47
formules d’Adams-Bashforth, 88
formules d’Adams-Bashforth-Moulton,
117
formules de Adams-Bashforth-Moulton,
88
Fortran 77, 19
Fortran 90, 19
Fortran I, 14
gradients, 54
hardware, 14
implicite, 81
incr´ement, 77, 80, 81, 85, 87
int´egrale d´efinie, 51
int´egrale ind´efinie, 51
int´egration, 77, 90
int´egration de Romberg, 56
interpolation, 43
interpolation lin´eaire, 43, 48
interpolations, 35
inversion de matrice, 73
IVP, 79, 93
J. von Neumann, 14
Jacobien, 72
langage de programmation, 17
ligne bris´ee, 44, 48
m´ega-flops, 16
m´ethode compos´e, 55
m´ethode compos´ee, 53
m´ethode d’Euler, 80, 81, 83, 85
m´ethode de Aitken, 35
m´ethode de Bernouilli, 35
m´ethode de Bessel, 35
m´ethode de bissection, 65
m´ethode de Boole, 55, 56
m´ethode de Burlish-Stoer, 87, 88
m´ethode de Everett, 35
m´ethode de Gauss-Legendre, 58, 109
m´ethode de Heun, 81, 83
m´ethode de Newton modifi´ee, 81
m´ethode de Newton-Cauchy mod-
ifi´ee, 85
m´ethode de Newton-Raphson, 69
m´ethode de Seidel, 72
m´ethode de Simpson, 56
m´ethode de Simspon, 55
m´ethode de Taylor, 83
m´ethode de tir, 79, 89
m´ethode de Van Wijngaarden-Bekker,
71
m´ethode des “fausses positions”, 66
m´ethode des gradients, 68, 72
m´ethode des s´ecantes, 70
m´ethode des trap`ezes, 52, 55, 56, 81
m´ethode du point, 68
m´ethode du point fixe, 67, 71
m´ethode du point milieu, 85
m´ethodes de Runge-Kutta, 85, 87
m´ethodes des rectangles, 52
m´ethodes mono-pas, 87
m´ethodes multi-pas, 87
Machine de Babbage, 13
machine parall`ele, 20
machines ` a calculer, 13
mantisse, 19, 22
Mark I, 14
matching point, 79, 90
matrice, 72
matrice de Vandermonde, 45, 111
matrice jacobienne, 65
noeuds, 41, 58, 109
nombre d’it´erations, 66
nombre de conditionnement, 23, 64,
69
nombres n´egatifs, 13
noyaux, 58
ODE, 75
ordinateur, 17
110 INDEX
ordre, 53, 55, 75, 77
ordre de la m´ethode, 20
oscillations, 88
param`etre d’entr´ee, 23
param`etre de sortie, 23
pas adaptatif, 54, 55, 80
pas d’int´egration, 87, 88, 91
Pascaline, 13
PDE, 76, 93
perte d’information, 22
ph´enom`eme de Runge, 46
ph´enom`ene de Runge, 35, 88
poids, 56, 109
points de collocation, 45
points de grille, 80, 90
polynˆ ome de Chebyshev, 41
polynˆ ome de Hermite, 41
polynˆ ome de Legendre, 41, 58, 110
polynˆ omes de Taylor, 40
portabilit´e, 17
pouvoir amplificateur, 23
pr´ecision, 65
pr´edicteur, 81
premier ordinateur, 14
premier ordre, 77
primitive, 51
proc´edure, 17
programmation, 17
programmation parall`ele, 16
propagation des erreurs, 22
quadratures, 21, 35, 77
quadratures de Newton-Cotes, 55
r´egression lin´eaire, 48
racine, 62
racine double, 66
racine multiple, 69
racines, 39, 41
relation d’incertitude, 19
routines, 26
s´eries de Taylor, 21, 83
s´eries enti`eres, 83, 85
sch´ema, 33, 43, 52, 61, 67, 73, 80,
83, 90
sch´ema ` a 2 points, 53
sch´ema ` a 4 points, 55
sch´ema arri`ere, 33
sch´ema avant, 33
sch´ema de runge-Kutta, 85
sch´ema divergent, 68–70
sch´ema implicte, 95
sch´ema ouvert, 54
sch´ema pr´edicteur, 81
sch´ema pr´edicteur/correcteur, 88
sch´ema r´ecursif, 43
sch´ema semi-ouvert, 54, 58
sch´emas excentr´es, 34
sch´emas explicites, 94
sch´emas instables, 88
sch´emas r´ecursifs, 56
second ordre, 93
seconde m´ethode de Simpson, 56
seconde r`egle de Simpson, 55
sh´ema, 95
singularit´e, 58
sofware, 14
solutions d´eg´en´er´ees, 77
sous-intervalles, 53–56
spline, 48
splitting, 77
stabilit´e, 23
syst`eme d’´equations, 75
syst`eme d´ecimal, 13
syst`eme lin´eaire, 44
t´era-flops, 16
taux de convergence, 65
TBVP, 79
temps de calcul, 54
tir simple, 89
translation de Gauss-Legendre, 58
variables ind´ependantes, 76
z´ero, 13, 62

J.-M. Hur´ e Maˆ de Conf´rences a l’Universit´ Paris 7, ıtre e ` e LUTh/Observatoire de Paris-Meudon, Section de Meudon, Place Jules Janssen, F-92195 Meudon et Universit´ Paris 7 Denis Diderot, Place Jussieu, F-75251 Paris Cedex 05 e e-mail: Jean-Marc.Hure@obspm.fr t´l: (33) 01 45 07 75 14 e fax: (33) 01 45 07 74 69

Didier Pelat Astronome a l’Observatoire de Paris-Meudon ` LUTh/Observatoire de Paris-Meudon, Section de Meudon, Place Jules Janssen, F-92195 Meudon e-mail: Didier.Pelat@obspm.fr t´l: (33) 01 45 07 74 37 e fax: (33) 01 45 07 74 69

Illustration de couverture: composante verticale du champ ´lectrostatique g´e e n´r´ par un tore axi-symm´trique de section carr´e, contenant selon sa sece e e e tion une double distribution sinuso¨ ıdale de charge. Le champ est calcul´ par e int´gration du noyau de Poisson avec traitement des singularit´s. e e

´ ´ METHODES NUMERIQUES
´ Elements d’un premier parcours
Version 2, Novembre 2002

Jean-Marc Hur´ e
LUTh/Observatoire de Paris-Meudon, et Universit´ Paris 7 Denis Diderot e

(Jean-Marc.Hure@obspm.fr)

Didier Pelat
LUTh/Observatoire de Paris-Meudon

(Didier.Pelat@obspm.fr)

4

Mise en garde Ce cours est dispens´ depuis l’ann´e universitaire 2001 aux ´tudiants des e e e DEA d’Astrophysique de l’Ecole Doctorale d’Ile-de-France dans le cadre de l’option m´thodologique intitul´e “M´thodes num´riques”. Il aborde les th`mes e e e e e suivants (chapitres 2 a 7 inclus): quelques g´n´ralit´s sur le calcul, la d´rivation, ` e e e e les polynˆmes, l’interpolation et les ajustements, les quadratures, la recherche o des z´ros de fonctions et de syst`mes non-lin´aires et les ´quations aux d´riv´es e e e e e e ordinaires. Chaque chapitre contient des exercices et des probl`mes qui pere mettront d’illustrer ou d’approfondir les notions rencontr´es. Dans le cadre du e DEA, ce cours est compl´t´ par un enseignement pratique couvrant une soixee antaine d’heures et durant lequel les ´tudiants sont charg´s de mettre en place e e un outil num´rique fiable r´solvant un probl`me astrophysique particulier. On e e e trouvera au chapitre 8 quelques exemples de projets propos´s. e Le contenu de ce manuscript ne pr´tend pas ˆtre exhaustif et couvrir l’enseme e ble des techniques relevant des m´thodes num´riques. Bien au contraire, il reste e e tr`s succint et ne donne que quelques “´lements d’un premier parcours”. Il e e e e e s’adresse essentiellement aux ´tudiants des deuxi`me et troisi`me cycles universitaires des disciplines scientifiques souhaitant se familiariser avec le vocabulaire et les m´thodes de base, et ne n´cessite aucune connaissance pr´alable. Pour e e e ceux qui souhaitent aller plus loin, il existe de nombreux ouvrages sp´cialis´s e e Le calcul num´rique est un domaine de recherche a lui seul. Une abondante e ` litt´rature lui est d´di´e (voir le chapitre 2 et les r´f`rences bibliographiques): e e e ee des livres, des revues p´riodiques et des biblioth`ques de programmes. Comme e e dans de nombreux domaines, la pratique joue un rˆle essentiel dans la maˆ o ıtrise du sujet. On ne peut raisonnablement pas esp´rer assimiler les m´thodes sans e e les manipuler sur des exemples concrets et connus.

5 Le calcul num´rique est aussi un art difficile. On peut s’y perdre et oublier e qu’il n’est pour nous qu’un outil. Beaucoup ont tendance a vouloir tout r´` e inventer et perdent beaucoup de temps a r´-´crire, souvent mal, les m´thodes ` ee e standards. Si cette d´marche est l´gitime voire n´cessaire pour un apprentise e e sage, on ne doit pas en faire une habitude, au risque de devenir Num´ricien; e c’est un choix. Pour le Physicien, il est essentiel de savoir estimer la place r´elle du calcul num´rique dans la mod´lisation et de trouver un juste ´quilibre. e e e e Ainsi, il ne faudra pas h´siter a utiliser des outils d´j` existants, mis au point e ` ea par des professionnels. Afin de bien manipuler les m´thodes et les routines que e vous pourrez trouver ca-et-l` et que vous impl´menterez dans votre programme ¸ a e et celles, plus sp´cifiques, que vous produirez vous-mˆme, il est fondamental e e de connaˆ un minimum de concepts. C’est l’objectif de ce cours introductif. ıtre Ceci pourra d’une part vous aider a faire des choix judicieux dans la consultation ` d’arbres de d´cision et d’autre part, vous permettre de mieux faire interagir les e m´thodes entre-elles. En tous cas, vous ne pourrez qu’am´liorer la qualit´ de e e e votre programme, donc de votre mod`le physique et aussi mieux le comprendre. e

J.-M. Hur´ et D. Pelat e

6

. . .4 Sch´mas d’ordres ´lev´s .4. . . . . . . . . . . . . . . . . . . . . . . . . . . .2 Choix des variables . . . . . . . . . . . . . . . 2. . . . .2 Philosophie . . . . . .4 Les erreurs . . 2. .1 Adimensionnement des ´quations . . . . e e 3. . . . . . . . . . . . . . . . . . . . . . .6 Exercices et probl`mes .3. . . . . . . . . . . . . . . . . . . . . . 2. . . . e 3 D´rivation e 3. . . . . . . e e 3. .3 Diff´rences centr´es . . . . . 2. . . . . . . . . . . . . . . . . .5 Echantillonage quelconque 3. . . . . . . . . . . . . . . . . . . . . . .7 Biblioth`ques num´riques . . e e 2. . . .8 Exercices et probl`mes . . . . . . . . 4 Polynˆmes. . . . . . . . . . . . . . e 2. . . . 2 G´n´ralit´s e e e 2. . . . . . . . . . . . . . . . . . .2 Diff´rences excentr´es . . . . . .2 La repr´sentation machine . . . . . . . . . . . . . . . interpolations et ajustements o 4. . . . . . . . . . . .2. . . . . . . . . . . . . . . e 2. . . . .3 Forme de Newton . . . . . . . . . . . . . . e . o 4. . . 11 15 15 16 16 17 17 18 18 19 19 19 19 20 21 21 21 22 23 25 27 27 27 27 28 29 29 30 30 31 32 32 35 35 35 36 36 . . . . . . . . . . . 4. . . . . .4 Pas optimum . . . . . . . . . . . e 2. . . . . . . . . .2. . . . . . . . . . . . 3. . 4. . . . . . . . 3. . . . . . . . . . . . . e e 3. . . . . . . . . e 2. . . . . . . . . . . . . . . . . . . . . .1 Propagation des erreurs . . . . . .1 Forme de Taylor . . . . . . . . . .6 Du mod`le physique au mod`le num´rique e e e 2. . . .3 La perte d’information .3. . . . . . . . . . . . . . . e 2. . . . . . . . . 2. . .2 Diff´rences finies .5. . . . .5 Extrapolation de Richardson . . . . . . . . . . . . . . . . . . .1 Formes polynˆmiales remarquables . . . . . . . . .Table des mati`res e 1 Un peu d’histoire . . . . . . . . . . . . . . . .5 Conditionnement et sensibilit´ . . . . . . . . . . . . . . . . 2. . . . . . . .3 Pr´cision et temps de calcul . . .1 Rappels . . . . . . . . . . . . . . . . . .1 D´veloppement de Taylor e 3. 7 . . . . . . . . . .1. . . . . . . . . . . . . . . 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. . . . . . . . . . . . .2. . . . . . . . . . . . . .2 Forme de Lagrange .3 M´thode g´nerale . . . .6. . . .2 Nombre de conditionnement . .3 Exemple . . . . . . 2. . e 3. . . . . . . . . . .1 Objectifs . . . . . . e e e 3. . . . . . . . . . . . . . . . .1. . .6. . .4. . . . . . . . . . . . . . . . . . . . . .1. . 2. . . . . . . . . . . . . . . . . . . . .2.6. . . . . . . . .1 Pr´cision . .4. . .1 Le sch´ma .5. . . . e 2. . . . . . . . . . . . . .2 Temps de calcul . .2. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . e 6. . . . . . . . . . . . . . . . . . . . . . 5. . .2. e 6. . . . . . . . . . . . . . . .3. . . . . . . . . e e 5. . . . . . . . . . . . . . . . . .2 Version compos´e . . . . . . .3 Syst`mes non-lin´aires . . . . . . . . . . . . . . . . . . . .2. . .3 M´thode du “point fixe” . . o 4. .4 M´thode g´n´rale . . . . . .4 Formules de Newton-Cotes . . . . . .2 Approximations polynomiales 4. . . . .1 Valeurs initiales et conditions aux contours . . . . . . .4 4. . . . . . . . . . . . . . . . . . . . .1. . . . .5 Sch´mas r´cursifs .2. . . . . .2. . . . . . . . . . . . . . . . . . . . . . . . . . .2 Crit`re de convergence . . . . . . . . .1 Interpolation lin´aire . .1 M´thode de bissection . . . . . . . . .2. . . . . . . . . . . . . 4. . . . . . . e .3 Sensibilit´ . . . . . . . . .4. . . . . . . . . . . . . . . . . . .4 M´thode des gradients . . . . . . . . . . . . . . . . . . . e e 5. . o 4. . . . . . . . . . . . . . .2 M´thode de Seidel . . . . . . . . .6 4. . . . . . . . . . . . . . . .6 M´thode g´n´rale . .2.5 4. . . .2. . . . . . . . . .3. . Splines . . . 36 36 37 37 37 39 39 39 41 42 42 43 44 47 47 48 48 49 49 50 50 51 51 51 53 54 57 57 57 58 60 60 61 61 62 62 63 65 65 66 66 67 67 67 69 69 71 71 71 4. 5. . . . . . . e 6.1 Condition d’existence . . . . . . . . e 5. . Exercices et probl`mes . . . . . . . . . . . . . . . . . . . . . . . . .2.1. . . . . . . . . . . .2 Quelques polynˆmes remarquables . . . . . . . .7 Noyaux singuliers . . . . . .4.3. . . . . . . . . . . . . e e e e 6. . . .1. . . . e e 6. . . . . . . . . 7. . . . . . . . . .2 M´thode des “fausses positions” . . o Evaluation d’un polynˆme . . . . . . . . . . .7 5 Quadratures 5. 5. . . . .3 M´thode de Newton g´n´ralis´e . . . . . fixe . . . . . . . . . . . . . .3 Ph´nom`me de Runge . 7 Equations aux d´riv´es ordinaires e e 7. . . . o Interpolations et extrapolation .3 Les conditions aux limites . . . . . . e 6 Z´ro d’une fonction. . o 4. . . . e e 6. . . . . . .3. . . . . . . . . . . . . . . . .2. . . . . 6. .3 Polynˆmes de Hermite . . . . . . . . . . . . . . . . . .2 Probl`mes a une dimension . . . . . . . . . e . e 7. . . . . . . . . 6.2. . . . . .2 Polynˆmes de Legendre . . . . . . . . e 6. . . . . . . e 6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .4. . . . . . . . e 5. . . .3 4. . . . . . . . . . . . . e 5. . . . . . . . . .2. .6 M´thode de M¨ller . . .3 D´coupage adaptatif . . . . . .1 Polynˆmes de Chebyshev . . . . .2. . . . . . . . . . .1. . e 4. e e 4. . . . .1 Existence des solutions et convergence . . . . . . . . . . . . . . . . . . . . . . . . e e e Principes de l’ajustement . . . . . . . . . . . e 5. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . e u 6.2 Le “splitting” . . . . . . . . . . . . . . . . .8 4. . . . . . . . . . . . . . . . . . . . .3 M´thodes de Simpson . . . . e 6. . . . . . . . . .8 Exercices et probl`mes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7. . . . . . . ` TABLE DES MATIERES .1 D´finitions . . . . . . . . . . . .5 M´thode des s´cantes . . . . . . . . . . . . . . . . .1 G´n´ralisation de la m´thode du point e e e 6. . . .1 Rappels . . . . . . . . . . . . . . . . . .2. . . . . . . . . . . . . . . .4 Taux de convergence . e e e 5. . . . . . . . . . . . . . . . . e ` 6. . . . . . . . Syst`mes non-lin´aires e e e 6. . . . . .4 Sch´mas ouvert et semi-ouvert e 5. . . 6. . . . . . . . . . . . . . . . e 6. . . . . . . . . . . . . .2 M´thode des trap`zes . . . . . . . . . . . . . . .4 Exercices et probl`mes . . . . . . . . . . . . . . . . . . . .1 Pr´cision . . . . . . . . . . . . .4. . . . . . .

. . . . . . . . . . . . . . . . . . . . 9 73 73 73 74 76 76 78 80 81 82 83 85 85 85 86 87 87 88 89 93 95 101 103 7. . .3. . . . . . . . . e 7. . . . . . . . . . e . . . .2 M´thode de Heun . . . . . . e 7. .6 7. . . . . . A GAMS: Project Summary B Quadrature de Gauss-Legendre C Formule de Peano D Formules d’Adams-Bashforth-Moulton . . . . . . . . . . e e Exercices et probl`mes . . . . . . . . . . . . . . . . . . . . . . e e e 7. . . . .4. . . . . . . . . . .1 Structure interne des ´toiles . . . . . . . . . . .4 7. . . . . . . . . . . . . . . . . . . e 7. .4. . . . . . . . . . . .5 7. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .8 8 Applications astrophysiques 8. . .5 Equation de Saha . . . .3 Instabilit´ thermique d’un disque d’accr´tion de Sakura-Sunyaev 8. . . . . . e 7. . . . . .1 M´thode d’Euler . 8. . . e M´thodes “multi-pas” .4 Vent solaire . . . . . . . . . . . . . . .7 7. . . . . . . . . . . . . . . . . . . . . . . .4. . .4. . . . . . .2 Image et spectre d’un disque autour d’un trou noir de Schwarzschild e e 8. . . . . . . .` TABLE DES MATIERES 7. . . . . . . . . . . . 8. . . . . . . e Sch´mas aux diff´rences finies .4. . . . . . . . . . .2 Conditions de Dirichlet et de Neumann M´thodes “mono-pas” . . . e 8. . . . . . . .4 M´thodes de Runge-Kutta . . . . . .5 M´thode de Burlish-Stoer . . . . . . . . . . . . .3 M´thode des s´ries enti`res . . . . e M´thodes de tir . . . . .6 Dynamique des disques stellaires . . . . . . . . . . . . . . . . 8.7 Fluide cosmologique et formation des grandes structures . .

10 ` TABLE DES MATIERES .

mˆme bien plus r´centes. Ils se distinguent ainsi d’autres civilisations. Il adaptent ´galement le syst`me de e e e e comptage Babylonien au syst`me d´cimal qui est le nˆtre aujourd’hui. le calcul num´rique remonte au moins au troisi`me e e e mill´naire avant notre `re. Hollerith sp´cialement e con¸u pour recenser la population am´ricaine. g´ographie et navigation ainsi qu’en astronomie. Les anglais mete tent au point le premier ordinateur en 1939. Le manque e e de moyens de calcul performants limite en fait l’expansion et la validation de certaines th´ories du d´but du XXeme si`cle. e e e e ` La Seconde Guerre Mondiale et les progr`s technologiques qu’elle engendre e va permettre au calcul num´rique d’amorcer un second envol. e Il semble que les Babyloniens (qui peuplaient l’actuelle Syrie/Iraq) sont parmi les premiers a r´aliser des calculs alg´briques et g´om´triques alliant complexit´ ` e e e e e et haute pr´cision. Colossus.2) de C. Plusieurs machines de calcul sont en effet construites. comme la “Pascaline” invent´e par B. la base sexag´simale que nous avons fini e e par adopter dans certains domaines. Il y a environ 3500 ans. . qui d´veloppent des m´thodes plus lourdes. D’apr`s les historiens. en e e e e introduisant une pl´thore de symboles. dont la mission est de d´cripter les messages cod´s envoy´s par l’´metteur Enigma de l’Allemagne e e e e nazie. Cette machine introduit les concepts r´volutionnaires ´mis par A. Pascal en 1643. puis e e transmis en Europe par l’interm´diaire des civilisations mulsumanes peuplant e le bassin m´dit´rann´en. . ou encore le tabulateur de H. la DENO e (“Difference Engine Number One”. Surtout. ils donnent une importance et un sens au placement e relatif des chiffres constituant un nombre. les populations e de la vall´e de l’Indus (regions de l’Inde et du Pakistan) introduisent les notions e de z´ro et emploient les nombres n´gatifs. vers 1890. c’est-`-dire a introduire la notion de a ` base de d´nombrement.Chapitre 1 Un peu d’histoire . Ces pree e o miers outils de calcul sont largement d´velopp´ par la suite par les Grecs. plus ou moins li´s aux obsere e vations et aux calculs astronomiques. Babbage en 1834 mais qui fonctionnait mal. Il est a l’origine favoris´ par le besoin d’effectuer e e ` e des mesures dans diff´rents domaines de la vie courante. commerce. Ture e 11 . e e e Le calcul num´rique tel que nous le concevons pratiquement aujourd’hui e connaˆ son premier veritable essor a partir du XVIIeme si`cle avec les progr`s ıt ` e e fulgurants des Math´matiques et de la Physique. en l’occurrence. Il s’agit bien-entendu c e de machines m´caniques imposantes et d’utilisation assez limit´e. Ce fut le cas en particulier de la e e e th´orie de la Relativit´ G´n´rale due a A. Einstein. notamment en agricule ture. voir la figure 1. architecture.

l’apparition progressive des transitors et de e leur assemblage massif sur des surfaces de plus en plus r´duites augmente cone sid´rablement les performance des machines et permet des simulations num´rie e ques de r´alisme croissant.3). Vers la fin des ann´es 1960. UN PEU D’HISTOIRE . mais il lui manque un vrai compilateur. C’est aussi le d´but de l’informatique familiale e e avec la mise sur le march´ des Personal Computers d’IBM. l’une des grandes figures de l’histoire a de l’ordinateur. est con¸u d`s 1954 . Apparaissent ainsi en 1970 les fameux ` e microprocesseurs mis au point par les firmes Intel et Motorola qui ´quipent e la majeure partie des sondes spatiales de l’´poque. Au d´but des ann´es 1980. un langage de programmation destin´ aux scientifiques. Figure 1. von Neumann (voir la figure 1. les m´moires e permettant de sauvegarder les programmes.12 CHAPITRE 1. Cet effort de miniaturisation est d’ailleurs impos´ e e par la course a la conquˆte de l’espace. et les concepts de hardware (mat´riel) et de software (logiciel). Le calcul num´rique devient e e rapidement une science a part enti`re. La premi`re machine de calcul incluant les e e concepts de von Neumann (et ceux de Turing) est ainsi produite par la firme am´ricaine IBM. l’ordinateur le plus puissant du monde e e s’appelle Cray I (voir la figure 1. Autre machine qui fait date e e e dans l’histoire.3) e repense l’architecture des ordinateurs et introduit. un certain J. . Les calcue lateurs sont d´sormais enti`rement ´lectroniques. . e e e A la fin des ann´es 1940. e e a ing dans les ann´es 1936 concernant l’automatisation des calculs. Les premi`res applie e e cations concernent tous les domaines scientiques et techniques. e . elle s’appelle Mark I et p`se 5 tonnes. le ENIAC (“Electronic Numerical Integrator And Computer) construit en 1946. alors que d’autres seront pens´s pour la gestion. Sa forme est sp´cialement choisie pour e optimiser la rapidit´ des calculs. ce type de machine ne dispose pas de m´moire interne et doit ˆtre en permanence reprogramm´e. Les ann´es 70 marquent aussi le tour` e e nant pour les langages de programmation: certains sont d´finitivement produits e a des fins scientifiques. Malheureusement. Il fut l’inventeur de la DENO (“Difference Engine Number One”) dont une copie est expos´e dans un mus´e de Londres (` droite).1: Charles Babbage (` gauche). comme ` e le Cobol. entre autres. Le Fortran e c e I. . .

. Sa cone ` ception en forme de cylindre devaient assurer une transmission optimale de l’information.3: John L. Le Cray I (` droite) construit dans les ann´es 1980 dispose e a e d’une puissance de calcul de 160 millions d’op´rations a la seconde. e e Figure 1. von Neumann (` gauche). enfant prodige de l”’informatique” a de l’apr`s-guerre. le premier calculateur mis au point par les a anglais a l’aube de la Seconde Guerre Mondiale pour d´crypter les messages ` e secrets ´mis par la machine Enigma (en m´daillon) des Nazis.2: Alan Turing (` gauche) donnera aux premiers ordinateurs les moyens a de “penser” et de travailler de mani`re autonome.13 Figure 1. Sa th´orie sera l’une des pi`ces e e e maitresses de Colossus (` droite).

Pour le monde scientifique. les calculateurs et le d´vee loppement de techniques de programmation sp´cifiques (comme la programe mation parall`le) sont devenus des outils incontournables a la connaissance et e ` ouvrent de nouveaux horizons pour la mod´lisation et la compr´hension des e e ph´nom`nes complexes et la mise au point de nouvelles technologies.14 CHAPITRE 1. . e e . la rapidit´ des calculateurs a ´t´ multipli´e par e e ee e plus de 10000. Les e ` ` e capacit´s de stockage ont gagn´ 7 ordres de grandeur au moins. Aujourd’hui. La vitesse d’ex´cution des op´rations ´l´mentaires se compte e e ee maintenant en dizaines de millions de millions d’op´rations a la seconde (ou e ` dizaines de t´ra-flops. e e toutes ces performances doublent tous les ans. a comparer a la centaine de m´ga-flops du Cray I). UN PEU D’HISTOIRE . celui de la Recherche Fondamentale et de l’Industrie. . En une quinzaine d’ann´es.

1 Objectifs On regroupe sous le terme g´n´rique de “m´thodes num´riques”. d’int´grer une fonction. la M´decine. Rappelons que les m´thodes num´riques sont en effet e e 15 . e Les m´thodes num´riques sont indispensables a la r´alisation de programmes e e ` e de calculs ou codes de calcul. une suite e e e d’op´rations. l’Economie. De fait. pour les astrophysiciens qui ne b´n´ficient pas d’un laboratoire permettant de valider leurs th´ories a partir e e e ` d’exp´riences renouvelables a loisir et contrˆlables. ` Une m´thode num´rique met en oeuvre une certaine proc´dure. toutes les teche e e e e e niques de calcul qui permettent de r´soudre de mani`re exacte ou. une e u m´thode num´rique pourra d´pendre de l’architecture d’un ordinateur et du e e e langage utilis´. ces outils sont le seul moyen e ` o de simuler ou de mod´liser les ph´nom`nes que nous observons. de les interpr´ter e e e e et de les comprendre. En particulier. Bien qu’une m´thode num´rique puisse e e s’effectuer mentalement (du moins avec un crayon et un papier) comme inverser √ une matrice 2 × 2. de calculer la valeur d’une fonction en un point ou sur un intervalle. r´soudre tan x − 1 = 0. l’un des soucis majeurs de l’utilisateur et du proe grammeur est d’assurer a son programme une certaine portabilit´. Le concept de calcul est assez e e e e vaste et doit ˆtre pris au sens large. des m´thodes tr`s sp´cifiques. elle n´cessite dans e e la majorit´ des cas un ordinateur qui a l’avantage de la rapidit´ (mais pas de e e la pr´cision). ou calculer 2. c’est-`-dire ` e a de pouvoir l’ex´cuter sur des machines diff´rentes sans avoir besoin d’adapations e e (trop) sp´cifiques. le nombre total de m´thodes num´riques e e e e e dont nous disposons a l’heure actuelle est vraisemblablement gigantesque. Il convient a ce niveau de bien diff´rencier la partie m´thode e ` e e num´rique. la Biologie. souvent ind´pendante du calculateur et du langage. etc. de mani`re approch´e un probl`me donn´. et la partie e e programmation qui met en oeuvre d’une part l’algorithme et d’autre part une suite d’instructions ´crites dans un langage de programmation. d’inverser une matrice. etc. e e e e e les probl´matiques sous-jacentes concernent des disciplines aussi vari´es que la Physique. le plus souvent. Toutefois. Il existe e ee e ainsi une grande vari´t´ de probl`mes possibles avec pour chacun d’eux. que l’on transcrira ensuite e e e e dans un langage de programmation. Bien-sˆr. g´n´ralement en tr`s grand nombre. l’Astrophysique. Bien que la mise en ´quation e e d’un probl`me et sa r´solution passent naturellement par les Math´matiques.Chapitre 2 G´n´ralit´s e e e 2. Il peut s’agir de d´terminer l’inconnue d’une e e e ´quation.

e ` ` e plus acad´mique aussi.1) L’harmonicit´ tant recherch´ n’est pas r´elle. notamment celle des ”petits angles” qui permet de poser e sin θ ∼ θ. a le rendre lin´aire. soit par un d´veloppement limit´ de la fonction sinus a l’ordre 2 ou plus. e l’instrumentation. la plan´tologie. e e e 2. quasiment tout faire. S’il est vrai qu’il existe une tr`s grande diversit´ de m´thodes num´riques avec lesquelles ont peut.1). Mais dans les deux cas. le traitement de donn´es. en e e e e pratique. e e e e et le temps de calcul d’autre part. soit par e e ` integration directe de l’´quation diff´rentielle (2. a le simplifier dans une certaine mesure.3) o` ∆t exprime un temps de calcul (par exemple 13 min). aussi pr´cise soit-elle. Une bonne illustration est le e e pendule pesant de longueur l dont l’´quation du mouvement dans un champ de e pesanteur g est ¨ l2 θ − lg sin θ = 0 (2. e e e 2. etc. condition sine qua non au traitement num´riquement. il sera possible de d´crire assez naturellement son e e mouvement an-harmonique quelque soit l’amplitude initiale de son mouvement. la physique extragalactique.2 Philosophie L’´tat d’esprit dans lequel travaille le “num´ricien” est davantage celui que e e l’on connaˆ en Physique. soit en raison des erreurs e e incontournables faites en int´grant l’´quation diff´rentielle ci-dessus. e e Une ´tape majeure sera alors de critiquer les solutions obtenues et de les intere preter par rapport au probl`me initialement pos´. soit en raison de e e la troncature exerc´e sur le d´veloppement de Taylor. GENERALITES pr´sentent dans toutes les disciplines de l’Astrophysique moderne: la cosmologie. la pr´cision relative u e de la m´thode (par exemple 10−4 . certains probl`mes (par exemple en traitement e du signal. Il e n’est pas inutile de garder a l’esprit la relation d’incertitude de Numerics ` ∆t × (2. la e e solution obtenue. elle n’est que le pur produit d’une e e e s´rie d’approximations. comme e e e les syst`mes chaotiques dont les propri´t´s affichent une forte sensibilit´ aux e ee e conditions initiales et a la pr´cision. le temps de calcul se trouve accru.3 Pr´cision et temps de calcul e Deux aspects fondamentaux sous-tendent l’utilisation ou la mise en place de toute m´thode num´rique: la pr´cision souhait´e (ou disponible) d’une part.16 ´ ´ ´ CHAPITRE 2. L’´quation pr´c´dente devient alors e e e ¨ l2 θ − lgθ = 0 (2. Disposer de beaucoup de pr´cision est cone fortable voire indispensable lorsque l’on ´tudie certains ph´nom`mes. e e Ainsi serons-nous le plus souvent amen´s a changer assez significativement le e ` probl`me initial. Une certaine rigueur est toutefois indispensable. Mais lorsque l’on est trop “gourmand” sur ` e cet aspect. parfois de mani`re prohibitive. avec ses multiples approximations (parfois difficileıt ment justifiables) et hypoth`ses simplificatrices. voir ci-dessous) et est une constante pour e . en m´canique c´leste ou en m´canique des fluides) ont n´cessit´ la e e e e e mise au point de m´thodes tr`s sp´cifiques. c e Num´riquement par contre. e e la physique des galaxies. la physique solaire. ne sera qu’approch´e. plutˆt que celui que l’on doit e o d´velopper en Math´matiques.2) et l’on con¸oit facilement que ses solutions soient diff´rentes.

En ce sens. e 2. a moins d’un traitement ` sp´cifique de la mantisse a la charge de l’utilisateur.1 Pr´cision e La pr´cision est limit´e par les machines. Il est de plus en plus fr´quent de travailler sur des e e probl`mes complexes dont la r´solution n´cessite des heures. en particulier les acc`s aux disques durs et les impressions a l’´cran. Quand les calculs sont intrins`quement rapides e e et que le temps de calcul n’est pas un facteur d´terminant.1415926535897931 de 3. bits 32 48 64 minimum (positif. Le choix s’orientera alors vers e une m´thode num´rique rapide. elle se trouve d´t´rioe e e ee r´e au fil des calculs. PRECISION ET TEMPS DE CALCUL 17 la m´thode consid´r´e. il faut savoir qu’un ordinateur e e fonctionne en effet avec un nombre limit´ de chiffres significatifs.1: Mimimum et maximum r´els adressables et pr´cision relative possible e e en fonction du nombre de bits de la machine. La plupart des langages permettent de choisir le e nombre de d´cimales au niveau de la proc´dure d´clarative. des jours.938736E-39 2. e ` e Pour une m´thode num´rique donn´e. par la dur´e de vie e e e du mat´riel.(2. Sans entrez dans le d´tail. La plupart du temps. on peut toujours estimer le temps e e e de calcul en comptant le nombre total N d’op´rations qu’effectue la machine. Notons e e e ` e e ´galement un fait souvent oubli´: les acc`s aux p´riph´riques sont tr`s couteux e e e e e e en temps. au maximum e 14. 2. seul les e ` e premiers chiffres d’un nombre seront enregistr´s (voir le tableau 2. e On peut ensuite ´ventuellement multiplier ce nombre par le temps de calcul τe e relatif a une op´ration ´l´mentaire. Certains bits e sont r´serv´s pour affecter un signe (+ ou −) au nombre et d’autres pour e e l’exposant.1415926535897932. Dans la m´moire. et e e e e par l’utilisation que l’on souhaite classiquement faire des programmes de simulations. parfois e e e mˆme des semaines de calculs sans interruption.3. apr`s transcription en base 2.988465674311580E+308 pr´cision e ∼ 10−7 ∼ 10 −12 ∼ 10 −16 Table 2.3.2 Temps de calcul Le temps de calcul est limit´ par la capacit´ des ordinateurs. non nul) 2. Cette relation rappelle l’impossibilit´ d’allier pr´cision e e e e e et rapidit´. par des facteurs ext´rieurs (comme les coupures d’´lectricit´).9387358771E-39 5. il s’agit d’une utilisation intensive o` l’on balaye u l’espace des param`tres d’un mod`le. comme les anciennes e e e instructions REAL*4 ou REAL*8 du langage Fortran 77. les autres e seront d´finitivement perdus. Ceci impose de rechercher toujours les e e m´thodes les plus rapides. ces chiffres ´tant rang´s en m´moire e e e dans des boites virtuelles ou bits.3.562684646268003E-309 maximum 1. on aura tout loisir de e (et peut-ˆtre int´rˆt a) choisir une m´thode plus lente mais plus pr´cise.´ 2. Mais la rapidit´ se fera forc´ment au d´triment e e e e e de la pr´cision (voir Eq.1). 15 voire 16 pour les plus performants. dont les ´quivalents e sont respectivement REAL(KIND=1) et REAL(KIND=2) en Fortran 90. les machines classiques ne pourront g´n´ralement pas dise e tinguer 3.701412E+38 1.3)).7014118346E+38 8. In´vitablement. mais cela n’a de valeur qu’` titre comparatif ` e ee a .

4. j)   Fy(i. C’est donc un gain de temps colossal e e pour N grand.4 Les erreurs Outre les erreurs de programmation (celles que le compilateur d´tectera et que e vous corrigerez.4) 1 il faut effectuer N = 6× 2 (N −1)N op´rations ´l´mentaires s’il y a N particules e ee au total. e 2. l’erreur de e ` e repr´sentation et l’erreur par perte d’information. C’est par exemple le cas d’une s´rie de Taylor tronqu´e (on parle ici plus pr´cis´ment d’erreur de e e e e troncature). Notez que tous les sch´mas e e ne g´n`rent pas les mˆmes erreurs.4) pourra ˆtre transcris sous la forme ` e   a ← −m(i)/r(i.1 Le sch´ma e L’erreur de sch´ma est g´n´r´e lorsque l’on remplace une relation “exacte” par e e e e une autre. Par exemple. En effet. j) ← a ∗ x(i. soit e ` F =− mi mj rij 3 rij (2. plus simple ou plus facilement manipulable. soit ∼ N 2 lorsque N est grand. le sch´ma associ´ e ` e e a la relation (2. pour calculer la force d’interaction gravitationnelle e subie par une particule de masse mi sous l’influence d’une particule de masse mj situ´e a la distance rij = xij ux + yij uy . j) et met en jeu 3 multiplications et 3 divisions. soit un temps de calcul ´gal a 3(N − 1)N τe . On choisira donc. comme ex ≈ 1 + x 2 .5) ou le cas de l’approximation d’une d´riv´e par une diff´rence finie (comme nous e e e le verrons au chapitre suivant) comme f (x) ≈ f (x + h) − f (x) h (2. 2. e e e e Il est important qu’elle soit connue ou appr´ciable. GENERALITES (car ce temps τe varie d’une machine a l’autre et d´pend aussi de la nature des ` e op´rations). il existe trois sources d’erreur qu’il convient d’avoir pr´sent a l’esprit: l’erreur de sch´ma. quand c’est possible. j) ∗ m(j)/r(i. j)/r(i. j) ← a ∗ y(i. l’ordre est e e tr`s inf´rieur: il varie comme (N − 1). On dira alors que l’ordre de la m´thode est ∼ (N −1)×N .7) L’erreur de sch´ma est g´n´ralement l’erreur dominante. Elle est en principe e e e incontournable car toutes les m´thodes num´riques sont bas´es sur des sch´mas.18 ´ ´ ´ CHAPITRE 2. e e . Nous voyons que sur e une machine parall`le qui pourra traiter simultan´ment l’interaction de chaque e e particule (soit une machine dot´e de N processeurs ind´pendants). j)  Fx(i. et celles que vous ne trouverez jamais). (2. les e e e sch´mas les plus pr´cis.6) ou encore de l’estimation d’une quadrature b a f (x)dx ≈ f (a)(b − a) (2.

on ne la soup¸onne pas. Ce r´sultat. Elle e e se produit lorsque l’on soustrait deux nombres tr`s proches. un r´sultat exact. d’o` le r´sultat faux (ou vrai a 10−4 ` 3 pr`s) : +0. Souvent.5. e L’erreur par perte d’information peut ˆtre d´vastatrice (par exemple losque e e l’on veut calculer num´riquement une d´riv´e).6667.2 La repr´sentation machine e L’erreur de repr´sentation est li´e aux modes de repr´sentation. Si une quantit´ x e . Par exemple. compte-tenu de l’arrondi. On peut le comprendre sur un exemple simple.5. e 3 3 En interne. l’on manipule des nomu e bres tr`s diff´rents ou tr`s proches. Il s’agit g´n´ralement d’un crit`re faisant appel e e e e e a l’erreur absolue ou a l’erreur relative sur une quantit´ y par rapport a une ` ` e ` quantit´ de r´f´rence y ∗ . la machine effectuera d’abord 2 − 1 . 2 a ´t´ remplac´ par 0. se propagent et s’amplifient.0009 3 e contre − 3500 −8. ce qui pourra donner 3 3 0.8) (2.4. Certaines machines peuvent d’ailleurs fournir 0. par co¨ L’erreur de repr´sentation est g´n´ralement n´gligeable devant les autres.5 2. e 3 − 6 et finalement donner.3334. ` toujours sur une machine travaillant avec 4 chiffres significatifs en mantisse.5714 × 10−4 .9) Un fait est incontournable: les erreurs. la machine donne 0. e e e e sauf dans certains cas particuliers o`. quelque soit leur origine. e e e 2.´ 2. Ces erreurs sont d´finies respectivement par e ee e ∆(y) = y − y ∗ et par (y) = y − y∗ . e e 2. sans pr´caution. il y a au moins un param`tre permettant de e e e r´gler (c’est-`-dire d’imposer) ou de contrˆler le bon d´roulement du processus e a o e et la pr´cision du r´sultat. il ne comporte plus qu’un seul chiffre significatif alors que les deux nombres initiaux en poss´daient quatre.4. CONDITIONNEMENT ET SENSIBILITE 19 2.3334 ee e e Ici.3333 = 0.1420 − 0. En pratique.3 La perte d’information La perte d’information est une cons´squence de la repr´sentation machine. de stockage e e e et de calcul des ordinateurs.1429 = −0.6666 pour e 2 1 ıncidence. e e e c Elle survient aussi lorsque l’on effectue beaucoup d’additions et soustractions a ` la queue leu-leu mettant en jeu des termes de mˆme amplitude (c’est la cas par e exemple du calcul de s´ries altern´es). y∗ y∗ = 0 (2. Reste a effectuer 1 − 0.6667 − 0. supposons que l’on veuille effectuer 1 l’op´ration 1 − 2 − 3 sur une machine fonctionnant avec 4 chiffres significatifs.1 Conditionnement et sensibilit´ e Propagation des erreurs Dans toute m´thode num´rique. est correct. Soit a effectuer 500 − 7 .0001. Toutefois. c’est une erreur de repr´sentation (erreur 3 u e ` d’arrondi). le r´sultat est alors e e 1 71 un nombre comportant peu de chiffres significatifs.

peu sensible (stable) si η 1 et est insensible si η 1.11) On voit donc que si f (x) est important et f (x) faible.14) La sensibilt´ peut donc ˆtre importante lorsque f → 0 et/ou f → ∞ et/ou e e x → ∞. Notez que l’on peut aussi ´crire la relation pr´c´dente sous e e e e la forme (f ) = (x)η (2.20 est connue avec une pr´cision relative (x) e f est aussi entach´e d’une erreur e ´ ´ ´ CHAPITRE 2. L’aspect qui guidera son choix sur une e m´thode plutˆt qu’un autre est la stabilit´.10) f (x + (x)x) ≈ f (x) + (x)xf (x) et l’erreur relative sur f vaut (f ) = f (x + (x)x) − f (x) f (x) ≈ (x)x f (x) f (x) (2. Prenons le cas o` d’une m´thode qui. u e Ajoutons qu’il faudrait en toute rigueur ˆtre capable de mettre une barre d’erreur sur les r´sultats issus d’une m´thode ou plus g´n´ralement d’une simue e e e lation. les param`tres d’entr´e. Ainsi une e m´thode num´rique est tr`s sensible (ou instable) si η e e e 1. car une simulation num´rique est une e e exp´rience comme une autre.2 Nombre de conditionnement Une m´thode num´rique travaille g´n´ralement avec un certain nombre de pae e e e ram`tres. que l’on peut ase e e e similer a des param`tres de sortie. Notez que si x et x son tr`s proches. C’est un tort. a la fois ∆(f ) et (f ) ` peuvent ˆtre grands.13) Ce nombre rend compte du pouvoir amplificateur d’une m´thode.5.12) o` η est le nombre de conditionnement (voir ci-dessous). en tenant compte de toutes les sources d’erreur possibles. On d´finit ce nombre pour e e e e deux couples (x. alors e η∼ xf (x) f (2. Un objectif (souvent difficile a atteindre) ` e ` e e que recherchera le Physicien est de produire des r´sultats qui ne d´pendent pas (ou peu) de la m´thode choisie. et renvoie des r´sultats. y) et (x . La sensibilt´ (ou la stabilit´) peut ˆtre quantif´e grˆce au nombre de cone e e e a ditionnement (ou nombre de condition). . . u e pour une quantit´ x donn´e fournit une quantit´ y. c’est-`-dire une certaine garantie e o e a que la proc´dure n’aura pas la facheuse propri´t´ d’amplifier et/ou de g´n´rer e ee e e sans limites les erreurs. . Il est navrant de constater que la notion de barre d’erreur ne semble concerner que les physiciens exp´rimentateurs. e 2. alors son image par une fonction (2. GENERALITES 1. y ) par η= y −y y x −x x ≡ η(x) (2.

Deux aspects g´n´ralement absents des manuels (ou implicitement e e e e e e e ´voqu´s) mais qui constituent une ´tape-cl´ dans le passage du mod`le physique au mod`le num´rique sont l’adimensionnement des ´quations et le choix des e e e e variables num´riques.6 Du mod`le physique au mod`le num´rique e e e Lorsque l’on met un syst`me physique ou un mod`le en ´quations et que l’on e e e aborde l’´tape num´rique. e dans beaucoup de probl`mes. qui peuvent plus e e e e ou moins conditionner le choix d’une m´thode particuli`re.2 Choix des variables Concernant le choix des variables num´riques maintenant. ) ? les variables physiques sont-elles aussi les bonnes variables num´riques ? quelle est pr´cision souhait´e sur la e e e e e e e solution cherch´e ? quelle est l’´chelle de temps d’´x´cution de mon programme ? la pr´cision est-elle d´terminante ? la temps de calcul est-il un facteur crie e tique ? etc. . on obtiendra naturellement des ´quations les ´chelles e e caract´ristiques du probl`me (par exemple une ou des ´chelles de longueur. . et r´solues. Cela rendra la partie num´rique beaucoup stable.1 Adimensionnement des ´quations e L’adimensionnement des ´quations est une ´tape qui permet de r´duire la dye e e namique des variables num´riques. une dynamique trop faible peut engene drer une perte d’information. Toutefois. .` ` ´ 2. . plusieurs questions simples mais indispensables doie e vent ˆtre pos´es . les variables poss`dent des dynamiques compl`ment e e e diff´rentes. espace. Il est en effet pr´f´rable de travailler sur e ee un domaine num´rique raisonnablement restreint et de manipuler des nome bre de l’ordre de l’unit´. Parmi ces questions/r´ponses. DU MODELE PHYSIQUE AU MODELE NUMERIQUE x x’ Méthode numérique y 21 Figure 2. Comme sous-produit de l’adimensionnement. etc. Cette proc´dure vise donc a transformer les e ` ´quations du probl`me en des ´quations souvent plus “lisibles” d’un point de vue e e e math´matique (et donc num´rique) o` les nouvelles variables (les variables adie e u mensionn´es) apparaˆ e ıssent alors comme des corrections. 2. e e . e e 2.6.6. des ´chelles de temps.). des variables peuvent beaucoup varier. il faut rappeler que. Mˆme adimensionn´es. des e e e ´chelles de vitesses.1: La sensibilt´ d’une m´thode se mesure avec le nombre de conditione e nement. .6. Ces e e e variables ob´issent forc´ment a une certaine loi en fonction des param`tres ou e e ` e d’autres variables et il peut ˆtre astucieux d’inclure ces lois dans les variables e num´riques. on trouve: mon e e voisin de palier aurait-il d´j` travaill´ sur un probl`me similaire ? les inconea e e nues de probl`me physique sont-elles bien identifi´es ? quel est le domaine de e e variation des variables (temps. 2.

l’erreur e e (proche de la pr´cision machine) est essentiellement due a des erreurs de e ` repr´sentation et a leur propagation. ρ) pour deux pas d’int´grations diff´rents (pointill´s) e e e et par la mˆme m´thode mais en variables (x.16) par la m´thode e e d’Euler. GENERALITES 10 −2 ∆R=10 10 −4 4 ∆R=10 10 −6 3 ρ(R) 10 −8 10 −10 10 −12 ε(ρ) 10 −14 ∆x=0.2: Illustration des effets b´n´fiques d’adimensionnement et de choix e e e e des variables num´riques. e e mais ce choix n’est pas tr`s judicieux.16) (gras) et erreurs relatives sur la solution en int´grant la relation (2.16) d’o` u . Dans ce dernier cas. cette e ´quation s’´crit e e R2 γc2 dρ s = −g⊕ ⊕ (2.1 10 −16 10 4 10 5 10 R−RO 6 10 7 Figure 2.15) ρ dR R2 et supposons que l’on connaisse la densit´ ρ a la base de l’atmosph`re R = R ⊕ . Considerons l’´quation qui r´git l’´quilibre hydrostatique a une dimene e e ` sion d’une atmosph`re statique et sans masse entourant un corps solide de rayon e R⊕ . On doit d’abord adimensionner l’´quation e e (2.22 ´ ´ ´ CHAPITRE 2.6. f ). en variables (R. e ` 2. e ` e soit ρ(R⊕ ). En prenant en compte le changement de gravit´ avec l’altitude R. Solution analytique ρ(R) de l’´quation (2. On peut ´videmment choisir ρ et R comme variables num´riques.16) en posant par exemple  r = R   R⊕  ρ = ρ ˜ ρ(R⊕ ) γc2 d˜ 1 s ρ = −g⊕ 2 ρ dr ˜ r (2.3 Exemple Prenons un exemple concret qui r´sumera l’ensemble des notions evoqu´es cie e dessus.

16) devient alors u u e s df =1 dx (2. on peut poser   f = ln ρ x = L r 2 2 o` Lγc2 R⊕ = GM⊕ (o` g⊕ = GM⊕ /R⊕ ). il faut r´duire la dynamique de ces variables et de l’´quation par un e e e choix judicieux de variables avec lesquelles le programme travaillera finalement. elle met en ´vidence l’existence d’une ´chelle caract´ristique e e e e de la densit´. BIBLIOTHEQUES NUMERIQUES 23 C’est un bon d´but. elle est d’une extrˆme sime e plicit´ et d’autre part. s sans oublier r et surtour ρ qui peut varier de plusieurs ordres de grandeurs sur le ˜ domaine d’int´gration choise. Figure 2. elles sont ´crites et maintenues par e e . Afin de r´duire au maximum les risques d’erreurs e e num´riques. La figure 2.7 Biblioth`ques num´riques e e Grˆce aux capacit´s de stockage dont nous disposons a l’heure actuelle. f ).2 montre l’erreur produite sur la solue tion exacte ρ(R) en variables (R. la longueur L. ρ) et en variables (x.17) Cette forme pr´sente deux avantages: d’une part. L’´quation (2.` ´ 2. le r´sultat est plutˆt e o convainquant. il a ´t´ a e ` ee possible de construire de v´ritables biblioth`ques virtuelles r´unissant un grand e e e nombre de programmes ou routines de base que l’on peut maintenant facilement consulter via Internet. e e e Fortran 90 et C. Mais cela ne change pas le fait que ρ varie exponentiellement e avec l’inverse de l’altitude et qu’il reste des termes de grande amplitude c2 et g⊕ .7. Pour cela. Dans la majorit´ des cas. Ces routines sont g´n´ralement ´crites en Fortran 77. e 2.3: Page d’accueil du site Internet du GAMS. permettant l’acc`s a un e ` large catalogue de routines en majorit´ disponibles en ligne.

souvent contre quelques e e centaines d’euros). Boisvert (on troue vera en appendice un extrait des motivations du projet). grˆce a e a ` son arbre de d´cision.24 classe A B C D E F G H I J K L M N O P Q R S Z ´ ´ ´ CHAPITRE 2. L8) Differentiation. stochastic modeling (search also classes L6 and L10) Data handling (search also class L2) Symbolic computation Computational geometry (search also classes G and Q) Graphics (search also class L3) Service routines Software development tools Other Table 2. avec un guide succint e ee e d’impl´mentation. Toutefois. e leur utilisation intensive par l’ensemble de la communaut´ scientifique offre une e r´elle garantie de fiabilit´.nist. c’est pourquoi on prendra toujours soin d’effectuer un certain e nombre de tests pr´alables.2.2: Les 20 entr´es principales de l’arbre de d´cision du “Guide to Availe e able Mathematical Software (GAMS) project”. un moyen rapide de s´lectionner la ou les routines que l’on e e cherche. En bref. avant de se lancer dans e l’inconnu .F. probability Simulation. au mieux. des num´riciens et math´maticiens. L’utilisation de ces routines est a la respone e ` sabilit´ de l’utilisateur. sur des exemples connus. Il sera n´cessaire d’ˆtre vigilant et de garder un esprit e e e critique quant aux r´sultats que vous obtiendrez avec ces routines.gov/. L’une des force de ce serveur est qu’il offre en ligne. . Les 20 entr´es principales de cet arbre sont donn´es dans le tableau 2. integration Differential and integral equations Integral transforms Approximation (search also class L8) Statistics. Il r´pertorie quelques e 8800 modules de calcul r´partis a travers 111 biblioth`ques ou packages. mefiez vous plutˆt des routines que vous e e o ´crirez vous-mˆme et qui n’aurons ´t´ test´es que. Cere ` e taines biblioth`ques de programmes sont malheureusement payantes (c’est-`e a dire qu’il vous faudra acheter les routines pr´compil´es. ` Le GAMS est un projet de service public dirig´ par R. . GENERALITES contenu Arithmetic. error analysis Number theory Elementary and special functions (search also class L5) Linear Algebra Interpolation Solution of nonlinear equations Optimization (search also classes K. D’autres (une majorit´) appartiennent au domaine pube lic et peuvent ˆtre t´l´charg´es en quelques secondes. e e L’utilisation de ces routines num´riques n´cessite un minimum d’investissement e e et de pr´caution. par vous mˆme ! e e ee e e Un site Internet donnant acc`s a ces routines est le serveur GAMS (“Guide e ` to Available Mathematical Software”) du NIST (“National Institue for Standard Technology”) que l’on peut consulter a l’adresse http://gams. Il existe aussi les (tr`s nombreux) sites associ´s aux laboratoires de recherche e e .

puis a rebours. Comparez e e e ` e a la valeur exacte.8.8 Exercices et probl`mes e Calculez N 3 i=1 i et 1 3 i=N i pour N = 1000 et 106 . qui souvent e e e rendent publiques leurs programmes. Mˆme question avec le 3! 2 d´veloppement de Taylor de la fonction tan x. 999 et 9999 de 1 a N .` 2. ` D´veloppez ex en s´rie enti`res a l’ordre N et calculez la s´rie. 1 ` ` Calculez N i(i+1) pour N = 99. sur une machine dot´e de 4 chiffres signie e e ficatifs. au voisinage de 0 ? de π . EXERCICES ET PROBLEMES 25 en Math´matiques Appliqu´es. ` Comment calculez pr´cis´ment. les deux racines de l’´quation x2 + 100x + 1 = 0 ? e Quel est le nombre de conditionnement de la m´thode qui consiste a e ` 3 e remplacer sin x par x − x . Comparez. i=1 Dans les deux cas. Analyse Num´rique. 2. e . comparez a la valeur exacte. etc. Physique.

26 ´ ´ ´ CHAPITRE 2. GENERALITES .

comme cela est illustr´ a la figure e e e` 3. soit f (x0 ) = limh→0 f (x0 + h) − f (x0 ) h (3. il s’´crit au voisinage de x0 e e f (x) = f (x0 ) + ∞ 1 ai (x − x0 )i (3.Chapitre 3 D´rivation e 3.2) (3.4) . e qu’il s’agisse de la d´riv´e en l’un des points xi ou bien de la d´riv´e quelque e e e e part entre deux points de l’´chantillon. e Rappelons qu’une d´riv´e est une information locale. d´finie par passage a e e e ` la limite du taux d’accroissement de f en x0 .1) Une estimation pr´cise de cette quantit´ est g´n´ralement assez d´licate et e e e e e difficle a partir d’informations de nature discr`te. Pour une fonction f . Plus d´licat est l’estimation de la d´riv´e d’une fonction non-analytique. k! 27 k = 0.1 Rappels Calculer en un point la d´riv´e f d’une fonction f de la variable x dont e e on connaˆ une expression analytique ne pose aucune difficult´ particuli`re si ıt e e l’on admet quelques r`gles math´matiques simples.3) = a0 + a1 (x − x0 ) + a2 (x − x0 )2 + · · · + aN (x − x0 )N + .1. .2. Un tel ´chantillonage n’est pas toujours disponible. . par exemple e e e une fonction d´finie par un ensemble de N points de mesure {(xi . Cela n´cessite un ´chantil` e e e lonage extrˆmement pouss´ de la fonction.2 3. ∞ (3. yi = f (xi ))}N . e 3.1 Diff´rences finies e D´veloppement de Taylor e Le d´veloppement de Taylor est un outil fondamental de l’analyse et du calcul e num´rique. o` les coefficients ak de la s´rie sont donn´s par u e e ak = f (k) (x0 ) . On peut mˆme envisager e e e l’utilisation d’un logiciel ou de routines de calcul symbolique ou formel.

e A l’ordre 1 inclus et en posant x − x0 = h.2 Diff´rences excentr´es e e En utilisant le r´sultat ci-dessus. Lorsque la s´rie est tronqu´e a l’ordre e e e e e ` N inclus. car elle fait appel a deux ´valuations de la fonction. pr´cise a e e e e e ` l’ordre h. cette relation donne e ` f (x0 + h) − f (x0 ) ≈ f (x0 ) + O(h) h (3. l’une au point consid´r´ et l’autre ` e e e un peu plus loin. l’ordre de grandeur de l’erreur faite sur le d´veloppement est donn´e e e f (N +1) (x0 ) N +1 par le terme (N +1)! (x − x0 ) et l’on ´crit alors e f (x) = a0 + a1 (x − x0 ) + · · · + aN (x − x0 )N + O (x − x0 )N +1 (3. On peut construire une diff´rence finie a 2 e ` points en arri`re ou BDF en anglais (pour “backward difference formula”).28 ´ CHAPITRE 3.1: Dans le calcul num´rique des d´riv´es. e e e De fait. Il y a un effet de bord.1). le taux d’accroissement au point consid´r´ s’´crit e e e f (1) (x0 ) f (x0 + h) − f (x0 ) ≈ + h 1! Tronqu´e a l’ordre 1.6) soit une repr´sentation de la d´riv´e premi`re de la fonction f . La relation (3. on peut essayer de transcrire l’expression (3. e ` dite en avant ou FDF en anglais (pour “forward difference formula”). en x = x0 + h.9) ≈ f (x0 ) + O(h) Notez que l’ordre est le mˆme. e .8) (3. o et f (k) d´signe la d´riv´e d’ordre k de f . et que ces relations donnent des demi-d´riv´es.5) 3. une mˆme formule ne permet pas de calculer la d´riv´e pour le premier e e e point de l’´chantillon et pour le dernier point. soit e e f (1) (x0 ) f (x0 − h) − f (x0 ) ≈ + h 1! ∞ 2 ai (−h)i−1 (3.7) est une diff´rence finie a 2 points.7) ∞ 2 ai hi−1 (3. l’´chantillonage de la fonction e e e e joue un rˆle majeur. Il y a donc confusion (volontaire) entre la d´riv´e de la fonction et e e son taux d’accroissement.2. en e changeant h en −h dans les relations pr´c´dentes. DERIVATION y derivee ? bon echantillonage mauvais echantillonage x Figure 3.

Pour que l’ordre soit le mˆme e e ` e partout a l’int´rieur de l’intervalle comme sur les bords.15) o` le signe + vaut pour la diff´rence en avant (pour i = 1) et le signe − pour u e la diff´rence en arri`re (en i = N ).3 Diff´rences centr´es e e En combinant les sch´mas excentr´s avant et arri`re ci-dessus. Une conbinaie e son diff´rente des deux sch´mas excentr´s pr´c´dents donne acc`s a un sch´ma e e e e e e ` e d’ordre h2 pour la d´riv´e seconde de f .10) pour un point xi quelconque de l’´chantillon. l’un a gauche pour et l’autre a ` ` droite. soit e e f (x0 ) = que l’on ´crira e fi = fi+1 − 2fi + fi−1 h2 (3. e e e e e avec des effets de bords encore plus ´tendus.16) .12) f (x0 + h) − f (x0 − h) + O(h2 ) 2h (3. soit e ` e f (x0 ) = que l’on ´crira au point xi e fi = fi+1 − fi−1 2h (3. Ils sont donn´s au point xi par e e e fi = ± −3fi + 4fi±1 − fi±2 2h (3. comme cette formule e fi = pr´cise a l’ordre 4. Des sch´mas d’ordres plus ´lev´s existent.4 Sch´mas d’ordres ´lev´s e e e La relation (3.2. DIFFERENCES FINIES D’un point de vue num´rique.2.10) mais elles sont d’ordre inf´rieur.14) f (x0 + h) − 2f (x0 ) + f (x0 − h) + O(h2 ) h2 (3. e 3. e ` −fi+2 + 8fi−1 − 8fi−1 + fi−2 12h (3.11) Ce sch´ma est appel´ diff´rence finie centr´ a trois points.13) Ces deux sch´mas sont tr`s courants dans les probl`mes aux d´riv´es ordinaires e e e e e et aux d´riv´es partielles. On peut bien-sˆr utiliser les diff´rences en avant et en arri`re donn´es par u e e e la relation (3. on ´crira plutˆt ces sch´mas e e o e fi = fi±1 − fi ±h 29 (3.2.11) introduit deux effets de bords. e e e 3. Il est important de remarquer qu’ils imposent un e e ´chantillonnage r´gulier des points d´finissant f . on parvient facilee e e ment a ´liminer le terme d’ordre h. Reste alors une relation donnant la d´riv´e `e e e premi`re a l’ordre sup´rieur.´ 3. on peut construire des sch´mas excentr´s d’ordre h2 . Il met en jeu e e e e ` les 2 points imm´diatement a gauche et a droite du point o` l’on calcule la e ` ` u d´riv´e (ainsi que le point en question mais avec un poids nul).

Par exemple. e Il s’agit le plus souvent d’un polynˆme PN (x) de degr´ N . e e . 3. de f de mani`re compl`tement analytique. et on prendra garde de ne e e ` pas utiliser des polynˆmes de d´gr´s trop ´l´v´s au risque de voir apparaˆ le o e e ee e ıtre ph´nom`ne de Runge (des “oscillations. DERIVATION y y3 y2 approximation de Lagrange: y=P (x) 2 f(x) y1 x1 x2 x3 x Figure 3. On peut partir des polynˆmes de Lagrange et de Newe o ton.2: L’approximation polynˆmiale permet de calculer les d´riv´es suco e e cessive d’une fonction en tout point d’un intervalle. voir le chapitre 4).18) 3. soit e e ` f (x) ≈ P1 (x). particuli`rement bien adapt´s a l’interpolation.17) (h + h )(hfi+1 + h fi−1 ) + (h − h )2 fi 2h2 h 2 (3. on montre que les d´riv´es e e premi`re et seconde peuvent s’exprimer par les sch´mas e e fi = et fi = respectivement. il faudra N +1 points.30 ´ CHAPITRE 3. au moins (dans certains cas.5 Echantillonage quelconque On peut bien-sˆr ´tendre ces sch´mas au cas d’une fonction irr´guli`rement u e e e e ´chantillon´e. etc.3 M´thode g´nerale e e L’une des difficult´s li´e a l’utilisation des sch´mas ci-dessus est que l’on ne e e ` e peut pas calculer la d´riv´e en dehors des points de l’´chantillon. e e e e e C’est tr`s pratique. Un m´thode e e e e plus g´n´rale s’impose. construite a partir de 2 points de l’´chantillon. bien qu’il n’y ait pas de garantie de pr´cision sur des d´riv´es e e e e d’ordre ´lev´. xi et xi+1 . la e e fonction f par une fonction analytique simple que l’on d´rivera par la suite. e e e L’utilisation des approximants (polynomiaux) permet ´galement le calcul e des d´riv´es seconde. Pour construire ce o e polynˆme. ce qui redonne les ` e sch´mas excentr´s d’ordre h ´tablis plus haut. hfi+1 + (h − h )fi − h fi−1 2hh (3. on remplace. on pourra pr´f´rer o ee r´aliser un ajustement).2. L’estimation la plus e e simple de la d´riv´e sera obtenue en assimilant la fonction a une droite. troisi`me. tels e e e que h = xi − xi−1 et h = xi+1 − xi avec h = h . pour trois points cons´cutifs xi−1 . au moins localement. Classiquement.

Ici. e` . comme les e e m´thodes de Bernouilli.11).4.4. En d’autres termes. faire ` tendre le pas h vers z´ro ne donne pas une pr´cision infinie. PAS OPTIMUM 31 precision h opt pas h=xi+1 -x i Figure 3. e 3. du type {(xi . mentionnons qu’il existe des m´thodes qui emploient non seulement e des informations sur la fonction mais aussi sur sa ou ses d´riv´es en xi . de Aitken ou de Everett. de Bessel. . Ces m´thodes sont e e aussi utilis´es dans les interpolations et les quadratures. Un e e e exemple est donn´ a la figure 3. En g´n´ral. Par exemple. On peut dans ce cas montrer que le pas e optimum est approximativement donn´ par e hopt ≈ E M 1/3 (3. Pour les fonce e e tions simples. f (xi ). l’erreur de troncature varie comme h2 .3. . Cet effet est illustr´ a la figure 3.3. . e e il existe un choix optimum hopt pour h qui correspond a une pr´cision-seuil qu’il ` e est impossible de franchir. f (xi ). et contrairement a ce que l’on pourrait penser. )}N . hopt pourra ˆtre tr`s petit et approcher la pr´cision machine.3: La pr´cision sur la d´riv´e num´rique d’une fonction d´pend fortee e e e e ment du pas.19) o` E correspond aux erreurs d’arrondis dans le calcul de f (c’est souvent un u peu plus que la pr´cision machine) et o` M correspond a l’erreur de troncature e u ` (c’est en fait le majorant de la d´riv´e troisi`me sur l’intervalle). Dans l’objectif d’utiliser ces m´thodes que e e nous n’exposerons pas ici.4 Pas optimum La pr´cision du calcul de d´riv´e se trouve limit´e par deux effets cumulatifs: e e e e l’un est li´ au sch´ma utilis´ et l’autre vient des erreurs de repr´sentation de e e e e machines. il existe un pas optimum hopt qui correspond a la e e ` pr´cision la plus grande possible copmpte-tenu des erreurs de troncature des e sch´mas et des erreurs d’arrondis. e Enfin. il donc est recommander de g´n´rer une table plus e e compl`te. elles permettraient e d’estimer la d´riv´e en x = xi avec une pr´cision bien sup´rieure a celle obtenue e e e e ` par les seules diff´rences finies sur f . alors que l’erreur e de repr´sentation varie comme 1/h. e` pour le sch´ma (3. De ce fait.

3. e e 3.5.4: Exemple illustrant l’existence d’un pas optimum hopt pour le calcul de la d´riv´e de la fonction ex en x = 0 et x = 10.. 2 h2 ≡ h0 .16) en utilisant uniquement le sch´ma de d´rivation e e centr´e. on gagne au moins un ordre.32 ´ CHAPITRE 3. la d´riv´e pour diff´rents pas e e e e h0 ≡ h. Ainsi.6 Exercices et probl`mes e Trouvez les sch´mas de diff´rences finies centr´es. Par cette m´thode. en avant et en arri`re e e e e pour les d´riv´es seconde et troisi`me. comme le montre l’exemple de la figure 3. 22 . hopt ∼ 10−9 . e Etablissez le sch´ma (3. si f [hk ] e e 0 d´signe la d´riv´e en un point obtenue pour le pas hk = hk . hn ≡ h0 2n et en combinant les d´riv´es obtenues pour chacun de ces pas. l’am´lioration de la pr´cision e e e est obtenue en consid´rant.17) et (3.18)..20) En pratique. Quel est leur ordre ? Retrouvez la relation (3. h1 ≡ h0 . DERIVATION 10 10 10 3 1 −1 ∆y’(x)=|y’(x)−e | x 10 10 10 10 10 10 −3 −5 −7 x=10 x=0 −9 −11 −13 10 −16 10 −14 10 −12 10 −10 10 h −8 10 −6 10 −4 10 −2 Figure 3. e e e Retrouvez les relations (3. alors une meilleure e e e 2 approximation est donn´e par e f ≈ 2k f [hk+1 ] − f [hk ] 2k − 1 (3..5 Extrapolation de Richardson Une m´thode puissante pour accroˆ e ıtre l’ordre d’un sch´ma de d´rivation est e e l’extrapolation de Richardson.11) a l’aide de l’approximation polynomiale de e ` Lagrange. Ici. quand c’est possible. .

` 3. centree) −13 −15 0 10 k 20 30 Figure 3. Comparez les r´sultats avec les d´riv´es estim´es par un enseme e e e ble de p points {(xi . Quel intervalle conduit a la meilleure ` ` estimation ? Tracez l’erreur commise sur la d´riv´e d’une fonction connue. D´duisez la largeur la e plus pertinente. f (xi ))}p . par exemple e e f (x) = sin x. e e e Gen´rez un ensemble de N points {(xi .5: Calcul de la d´riv´e de ex en x = 0 pour diff´rents pas hk = 2−k . en fonction de la largeur h de l’intervalle.6. EXERCICES ET PROBLEMES 33 10 10 −1 −3 ∆y’(0)=|y’(0)−1| 10 10 10 10 10 10 −5 −7 −9 −11 difference avant (FDF) difference centree extrapolation de Richardson (diff.20) e . fi )}N pour une fonction f connue e et calculez la d´riv´e en chaque point xi de l’´chantillon pour diff´rentes largeurs e e e e d’intervalle et comparez a la valeur vraie. e e Quelle est l’ordre de grandeur du pas optimum permettant de calculer au mieux la d´riv´e premi`re par le sch´ma centr´ a 5 points ? et la d´riv´e e e e e e` e e seconde par le sh´ma centr´ a 3 points ? e e` Dans quelle(s) condition(s) les sch´mas centr´s a 3 et a 5 points donnente e ` ` ils des r´sultats similaires ? e D´montrez la relation (3. Reprennez ces questions avec un sch´ma d’ordre e plus ´lev´.

34 ´ CHAPITRE 3. DERIVATION .

. .2) + (N − 1)(N − 2)aN −1 xN −3 + N (N − 1)aN xN −2 (4. r´elles ou imaginaires.1. not´ PN . avec e e o PN (x) = a1 x + 2a2 x + 3a3 x2 + · · · + (N − 1)aN −1 xN −2 + N aN xN −1 (4. Parmi les formes les plus int´ressantes.5) PN (x) = a1 + 2a2 + 6a3 x + . (N ) PN (x) = aN N ! et PN (N +j) (x) = 0. interpolations o et ajustements Les polynˆmes constituent une famille de fonctions tout a fait remarquable o ` en Math´matiques. Ils sont aussi un outil essentiel du calcul et de l’analyse e num´rique.1 Formes polynˆmiales remarquables o On peut ´crire un polynˆme de plusieurs fa¸ons.1 Forme de Taylor Elle est construite a partir de la forme (4. dans la r´solution d’´quations e e e diff´rentielles.1) o` aN = 0. on trouve les formes de Taylor. dans e e les probl`mes d’interpolation et d’extrapolation. 4. . etc. pour tout x. est de la e o e e forme PN (x) = a0 + a1 x + a2 x2 + a3 x3 + · · · + aN −1 xN −1 + aN xN (4. soit ` EN (x) = PN (x − x0 ) = a0 + a1 (x − x0 ) + a2 (x − x0 )2 + · · · + aN (x − x0 )N 35 (4. Rappelons qu’un polynˆme de degr´ N . notamment dans l’´valuation ou l’approximation des fonctions.1). 4.6) .3) (4. Ses d´riv´es successives sont aussi des polynˆmes. (4. .Chapitre 4 Polynˆmes..4) j ≥ 1. de e Lagrange et de Newton. Il a au plus N racines distinctes rk . selon l’utilisation que l’on en e o c fait. telles u e que PN (rk ) = 0.

. les polynˆmes sont pairs pour k pair o et impairs pour k impair. soient f (x). (x − xN −1 ) (4. f (x).2 Forme de Lagrange N Elle s’´crit e LN (x) = yk LN.10) 4. .2.1). on peut en principe contruire le Polynˆme de Taylor o associ´ EN (x) tel que f (x) ≈ PN (x).8) o` LN.k (x) = (x − x0 ) .1. . (x − xN ) (xk − x0 ) . POLYNOMES. Il suffit de connaˆ e ıtre les d´riv´es de f e e jusqu’` l’ordre N .k (x) sont les coefficients de Lagrange d´finis par u e LN. En particulier. .12) avec T0 (x) = 1 et T1 (x) = x. . .ˆ 36 CHAPITRE 4.k (x) k=0 (4. Les e π k racines de Tk (encore appel´es noeuds) sont donn´s par rj = cos 2N (2j + 1).11) (4. e e j = 0. En particulier. Les coefficients ak a de la s´rie sont alors donn´s par e e ak = f (k) (x0 ) . (x − xN −1 ) o` les xk sont les centres.2 Quelques polynˆmes remarquables o Les polynˆmes de Legendre. . . (xk − xk−1 )(xk − xk+1 ) . k − 1. de Chebyshev et de Hermite dont nous donnons cio dessous une forme g´n´ratrice forment une famille de polynˆmes orthogonaux. o 4. 4. . . . e e o Ils jouissent d’un certain nombre de propri´t´s interessantes que l’on retrouvera ee e e dans des ouvrages sp´cialis´s. k! k = 0. Notez que ces coefficients sont en fait des polynˆmes. f (N −1) et f (N ) . ils sont de norme finie avec |Tk (x)| ≤ 1. (xk − xN ) (4. Sur l’intervalle [−1.1 Polynˆmes de Chebyshev o Ils sont d´finis par la relation de r´currence e e Tk (x) = 2xTk−1 (x) − Tk−2 (x) (4. .3 Forme de Newton Elle s’´crit e NN (x) = a0 + a1 (x − x0 ) + a2 (x − x0 )(x − x1 ) + . . et l’erreur faite sur l’approximation est de l’ordre de 4. . . . . 1] sur lequel ils sont essentiellement utilis´s (voir la figure 4. on voit que u NN (x) = NN −1 (x) + aN (x − x0 )(x − x1 ) . (x − xk−1 )(x − xk+1 ) . INTERPOLATIONS ET AJUSTEMENTS Pour toute fonction f (x). . N f (N +1) (x0 ) (N +1)! (x (4.1. . + aN (x − x0 )(x − x1 ) .7) − x0 )N +1 .9) et yk = PN (xk ).

ils satisfont |Pk (x)| ≤ 1.13) avec P0 (x) = 1 et P1 (x) = x.3 Polynˆmes de Hermite o Ils sont d´finis par la relation de r´currence e e Hk+1 (x) = 2xHk (x) − 2kHk−1 (x) (4. 10 et 50.0 −0.14) avec H0 (x) = 1 et H1 (x) = 2x (voir la figure 4. 1] pour o e e k = 1. Sur l’intervalle [−1. 1.5 −1.0 0. ˆ EVALUATION D’UN POLYNOME 37 1.0 −0. e e 4. 10 et 50. Il ont la mˆme parit´ que k.5 0.5 1.5 −1.0 x 0.0 −0.0 −1.2.0 −0.2. 2. 1] pour k = 2.5 Pk(x) 0. o 4.2 Polynˆmes de Legendre o Ils sont d´finis par la relation de r´currence e e (k + 1)Pk+1 (x) = (2k + 1)xPk (x) − kPk−1 (x) (4. en particulier lorsque les coefficients ak sont tr`s e .3. 4.5 Tk(x) 0.0 k=2 k=3 k=10 k=50 Figure 4.2). 3.3).2: Polynˆme de Legendre Pk (x) sur [−1.1: Polynˆme de Chebyshev de premi`re esp`ce Tk (x) sur [−1.0 0. Leur parit´ est celle k.3 Evaluation d’un polynˆme o Calculer la valeur PN (x) d’un polynˆme en un point x n’est pas aussi imm´diat o e qu’on pourrait le penser.0 −1.4.0 x 0.0 k=1 k=2 k=10 k=50 Figure 4. 1] e (voir la figure 4.5 1.5 0.

Plutˆt que d’appliquer stricto sensu le e ee ` o sch´ma sugg´r´ par la relation (4.15) compte e e 2 environ N op´rations (essentiellement des multiplications). ou encore forme ee ` e de Horner o` PN (x) est r´-´crit de la fa¸on suivante u ee c PN (x) = a0 + x(a1 + x(a2 + x(a3 + · · · + x(aN −1 + aN x))))) Sous cette nouvelle forme. (4. (4.3: Polynˆme de Hermite Hk (x) sur [−2. e on s’attend na¨ ıvement a ce PN (x) soit connu a la pr´cision de la machine.1). ou quand l’ordre du polynˆme est ´lev´ (dise o e e ons N 5). o diff´rents les uns des autres. mais surtout. e e e e e e . Pour les polynˆmes qui peuvent ˆtre e e o e directement d´finis par une relation de r´currence. ` ` e mais les erreurs num´riques (repr´sentation et annulation soustractive) peue e vent ˆtre importantes sans pr´cautions particuli`res. N. car on utilisera ´videmment le sch´ma r´cursif associ´. A la fin du cycle.16) et il donc tr`s facile a programmer. Il est donc plus rapide. notamment a cause de e e e ` l’op´ration d’´l´vation a la puissance. il diminue les risques d’erreurs. POLYNOMES.ˆ 38 CHAPITRE 4. celui-ci n’en compte e 2 plus que 2N environ (multiplications et additions). si possible. a la forme imbriqu´e. 2] pour k = 2. l’algorithme devient r´cursif avec e Y←x Y ← aN−k + aN−k+1 Y. INTERPOLATIONS ET AJUSTEMENTS 200000 H10(x) et H11(x) 100000 0 −100000 −200000 −2 −1 0 x 1 2 k=2 k=3 k=4 k=10 20 10 Hk(x) 0 −10 −20 −2 −1 0 x 1 2 Figure 4. 3. de Chebyshev. k = 1. Comme pour l’´valuation de n’importe qu’elle fonction simple. c’est-`-dire e e e a Y ← a0 + a1 ∗ x + a2 ∗ x ∗ ∗2 + · · · + aN ∗ x ∗ ∗N. la valeur du polynˆme est e ` o contenue dans la variable interm´diaire Y. la m´thode de Horner ne presente e pas d’int´rˆt. On voit que les formes de Taylor et de Newton sont particuli`rement bien e adapt´es au calcul num´rique de ce type. 4.15) il est pr´f´rable de faire appel. de Hermite ou autre. 10 et 11. Alors que le sch´ma (4. comme les polynˆmes de Lege e o endre.

surtout si l’´chantillonnage est “diffus”. sachant que f est uniquement connue sous forme tabul´e {(xi . Lorsque c < x1 ou c > xN .4. e ` e plutˆt en ligne bris´e. e ` e 4.4: Exemple d’erreur commise sur le calcul de P2k (1) lorsque l’on utilise un d´veloppement en s´rie des polynˆme de Legendre plutˆt que la relation de e e o o r´currence (qui donne P2k (1) = 1 a la pr´cision de la machine. e e est illustr´ a la figure 4. il existe toujours un polynˆme de degr´ e o e . pour tout k).1 Interpolation lin´aire e L’interpolation la plus simple est l’interpolation lin´aire qui s’´crit a une dimene e ` sion f (c) = pfj + (1 − p)fj+1 . fj+1 ). xN ]. e on parle d’extrapolation.4. Ceci peut ˆtre tr`s g´nant (en particulier.4 Interpolations et extrapolation On d´signe par interpolation. INTERPOLATIONS ET EXTRAPOLATION 39 0 −5 log10[1−Pk(1)] −10 −15 0 10 20 30 ordre k du polynome de Legendre 40 50 Figure 4. Son inconv´nient majeur.18) Cette m´thode est imparable. 1≤j ≤N −1 (4.17) u o` [xj .4. l’op´ration qui consite a estimer la valeur d’une e e ` fonction f en un point d’abscisse x = c de l’intervalle [x1 . 4.4. fi )}N . mais elle assure que f (c) est toujours e situ´ dans le rectangle d´fini par les points diam´tralement oppos´s (xj . xj+1 ] est le sous-intervalle contenant c et p= xj+1 − x xj+1 − xj (4. Non seulement elle est rapide et ne pr´-suppose e e pas un espacement r´gulier des points.2 Approximations polynomiales On rem´die au probl`me ci-dessus grˆce a un polynˆme d’ordre N > 1.5: elle produit une fonction d’apparence non liss´e. Comme e e a ` o la fonction est tabul´e en N points. e 4. fj ) et e e e e (xj+1 . la d´riv´e o e e e e e e premi`re est discontinue).

10). N x1 −1    1     1 V =   . xN x2 1 x2 2 x2 3 . Notez e que lorsque les points sont r´guli`rement espac´s. le calcul des coefficients de e e e Lagrange se simplifie: leur d´nominateur vaut ±hN −1 . ..k (xk ) qui vaut 1.. tels que PN −1 (xi ) = f (xi ). Par . On r´alise alors une approximation de Lagrange.     N −1  x N  (4.ˆ 40 CHAPITRE 4. Cette m´thode est donc tr`s efficace.. POLYNOMES. o` h est l’espacement e u entre les points.8) et a l’application de la ree ` lation (4. e N − 1 qui passe par ces N points. . . celle qui consiste a construire les polynˆmes de e ` o Newton. Autre m´thode efficace. a condition que les abe e ` scisses soient fixes. NN −1 (x0 ) = a0 = f (x0 ). Comme le montre la relation (4. INTERPOLATIONS ET AJUSTEMENTS y interpolation lineaire x Figure 4... x2 N .6) dont la construction est tr`s ing´nio e e euse.. Il s’agira d’inverser la matrice de Vandermonde V associ´e e  1 x1 x2 x2 . Nous voyons en effet que pour x = xk . En pratique. On obtient alors un syst`me lin´aire de N ´quations o` les N inconnus sont les coefficients ak de la e e e u e e e d´composition que l’on peut en principe r´soudre par les m´thodes standards... en imposant LN (x) = f (x) en tous les points de collocation...     1   N x2 −1     N −1  x3    . .. tous les coefficients de Lagrange sont nuls sauf LN. le probl`me de l’interpolation se r´sumera au e e calcul de ces coefficients donn´s par la formule (4.5: L’interpolation lin´aire produit toujours une fonction en ligne bris´e e e (sauf lorsque les points sont exactement align´s!). Autrement dit... on cherche N coefficients ak ... .9) avec x = c.. car plus directe consiste a utiliser les e ` polynˆmes de Lagrange (voir la figure 4. .19) Une m´thode beaucoup plus rapide. puis l’on estime f (c) via PN −1 .

Il s’´crit o e NN −1 (x0 ) − a0 = a1 + a2 (x − x1 ) + · · · + aN (x − x1 ) . e e ıtre e Mentionnons a ce propos que l’interpolation est un processus qui g´n`re ` e e de l’information l` o` elle n’est en principe pas disponible. f (xi ))N . si l’erreur d’interpolation est nulle sur les points de collocation par construction. Comme l’indique la figure 4. Autrement dit. .4. On aura o o donc f (c) = NN −1 (c). A son tour. e e e l’extrapolation. INTERPOLATIONS ET EXTRAPOLATION 41 y y3 y2 approximation de Lagrange: y=P (x) 2 f(x) y1 x1 x2 x3 x Figure 4. donc le polynˆme interpolant.4. elle peut ˆtre grande entre eux. De ce point de vue. on trouve tous les e e e e coefficients du polynˆme de Newton. o la fonction interpolante n’a pas le rˆle de lissage que l’on pourrait lui prˆter o e intuitivement ou que l’on souhaiterait. ou ph´nom`ne de Runge. etc.3 Ph´nom`me de Runge e e Si l’on peut toujours faire passer un polynˆme par un ensemble de N points. le r´sultat e peut donner des oscillations. e e cons´quent e NN −1 (x0 )−a0 x−x0 est un polynˆme de Newton.4. doit ˆtre manipul´e avec une e e e extrˆme prudence. N −2 1 est x−x un polynˆme de Newton qui permet de calculer a2 . . (x − xN −1 ) x − x0 ≡ NN −2 (x) (I) (4.8. On r´alise alors une approximation de Newton.6: L’approximation de Lagrange consiste a faire passer un polynˆme ` o de degr´ N − 1 par N points tabul´s (xi .20) En particulier. en particulier lorsque N e e est grand. en x = x1 . En poursuivant ce o proc´d´ que l’on appelle processus des diff´rences divis´es. ` e . e On peut trouver a peu pr`s n’importe quoi. L’ordre n’est pas e seul en cause: le ph´nom`ne peut disparaˆ avec un espacement irr´gulier. il fournit a1 = f (x1 ). Il faudra donc a u garder a l’esprit que toute op´ration qui pourra ˆtre effectu´e a partir d’une ` e e e ` valeur ou d’une fonction interpol´e (par exemple les op´rations de d´rivation) e e e sera entach´e d’une erreur pouvant ˆtre tr`s importante. e N (I) (x1 )−a1 4. dont nous n’avons pas parl´. surtout si le point c est loin de l’intervalle de tabulation.

sa d´riv´e premi`re (au moins) et e e e e e d’appliquer ces m´thodes sp´cifiques. Il e e e est fr´quent de rencontrer ce type de situation lorsque les points sont issus d’une e exp´rience o` chaque mesure est entach´e d’une erreur. POLYNOMES. Signalons qu’il existe des m´thodes qui utilisent des informations sur la ou les e d´riv´es successives de la fonction a interpoler (comme les formules de Bessel et e e ` de Everett). on utilise tous les points de mesure pour construire un polynˆme PN ou une fonction interpolante I(x). INTERPOLATIONS ET AJUSTEMENTS y approximation y9 f(x) y1 x1 x5 x9 x Figure 4. ee e 4. les polynˆmes comme base de fonctions interpolantes n’est ´videmment o e pas le seul choix possible. u Autrement dit.4. cette op´ration peut s’av´rer num´riquement risqu´e pour N grand. si des donn´es doivent ˆtre r´-utilis´es et extrapol´es. N ´tant le o e e nombre de points de collocation.21) k o` l’on imposera fi = Ii pour touts les points tabul´s. Le plus souvent. e e e e e Elle peut ´galement ˆtre d´nu´e de sens physique. il peut ˆtre e e e e e e judicieux de g´nerer en mˆme temps que f . Rares toutefois sont les cas o` l’on dispose de ce type d’information. e e 4.4 M´thode g´n´rale e e e Enfin.5 Principes de l’ajustement Dans le processus d’interpolation.6). Comme nous l’avons o mentionn´. On cherche alors a r´aliser un ajustement (ou “curve fitting” en anglais).7: Oscillations apparaissant quand on tente de faire passer un polynˆme o de degr´ ´lev´ par un ensemble de points. a on travaille avec un polynˆme Pk de degr´ k tel que k + 1 < N . L’´criture des N conu e e traintes fournira les coefficients ak .ˆ 42 CHAPITRE 4. On peut alors souhaiter e u e extraire une corr´lation simple entre deux variables x et y d’un ´chantillon sans e e pour autant vouloir une fonction interpolante qui passe par tous les points. par exemple si les points e e e e tabul´es d´crivent une loi lin´aire tout en affichant une certaine dispersion. Cet ajuste` e ment peut mettre en jeu une fonction tout-`-fait quelconque. On cherchera a repr´senter la e e fonction tabul´e par une fonction analytique du type e f (x) ≈ ˜ ak fk (x) = I(x) (4. on peut en pratique utiliser d’autres types de fonctions ˜ fk (x) (voir §4. Le principe reste le mˆme. La question qui se pose alors est la suivante: .

e comme l’interpolant lin´aire. xi+1 ]. la distance di a e ` e e la courbe de la fonction.i+2 (xi+1 ). a .6 Splines R´capitulons: l’approximation polynomiale devient critique lorsque le nombre e de points de mesure est grand et l’ajustement par un polynˆme de bas degr´ o e peut ˆtre insatisfaisant. trouver ses param`tres de mani`re e e e e a r´aliser le meilleur ajustement ? Le proc´d´ est quasiment toujours le mˆme. comment. e e e ` e On commence par calculer. Puis. C’est-`-dire que P3.i. yi ). SPLINES 43 y regression lineaire f(x)=ax+b x Figure 4.i+1 (xi+1 ) = P3. et y celle des {yi }. Par exemple. Toutes les calculatrie e ` ces scientifiques sont ´quip´es d’un petit programme de ce type que l’on invoque e e en appuyant sur la touche r´gression lin´aire. On le note P3. une fois la fonction s´lectionn´e.i+1 (x) e • la fonction S(x) passe par tous les points de l’´chantillon. La solution de ce syst`me u e (les coefficients a et b) est g´n´ralement triviale a calculer.6. e e 4. pour trouver la droite moyenne d’´quation y = ax + b (a e et b ´tant les param`tres de la fonction a d´terminer) passant au mieux un e e ` e ´chantillon contenant N points (xi . quelque soit leur e nombre. Une premi`re alternative est donn´ par l’interpolation e e e lin´aire mais elle conduit a une fonction interpol´e en ligne bris´e. ce qui se solde par l’´criture de N ´quations. Comment e ` e e faire alors pour arrondir les angles ? La r´ponse est propos´e par la construction e e d’une fonction spline cubique S(x): c’est une fonction d´finie par morceaux. l’on impose que la distance totale i |di | soit la plus petite possible.4. on cherche a minimiser la distance e ` entre les points de collocation et la fonction d’ajustement f .i. mais elle poss`de les caract´ristiques suivantes e e e • sur chaque intevalle [xi .8: Dans les probl`mes d’ajustement. on peut montrer qu’il faut en fait r´soudre e e les deux ´quations suivantes e  N  N  a x2 + bN x − xi y i = 0 i i i   a x −b− y = 0 o` x est la moyenne des {xi }. la fonction S(x) est un polynˆme du troisi`me o e degr´. pour chaque point de l’´chantillon.i+1.

i+1 (xi+1 ) = P3.i+1 (x) qui permettent en principe de les caract´riser o e compl`tement. • S (x) est continue sur chaque noeuds. e e Retrouver la relation (4. INTERPOLATIONS ET AJUSTEMENTS Spline cubique y y9 approximation polynomiale regression lineaire y1 x1 x5 x9 x y Figure 4. C’est probablement l’une des meilleures e e m´thodes qui existe (voir la figure 4. soit P3. e e Ecrivez les polynˆmes de Legendre sous la forme de Horner. soit P3.i+2 (xi+1 ) • S (x) est continue sur chaque noeuds.i+1 (xi+1 ) = P3. approximation polynomiale et spline cubique. 1).i. e 4. e ` Comparer le nombre d’op´ration et la pr´cision obtenue.i+1.7 Exercices et probl`mes e Ecrivez un algorithme de calcul d’un polynˆme de Lagrange mettant en o oeuvre un sch´ma r´cursif de type Horner.ˆ 44 CHAPITRE 4.13) et (iii) a partir de la forme de Horner (4. l’approximation e ee de Lagrange et la m´thode des diff´rences divis´es de Newton.1). en terme de nombdre d’op´rations ´l´mentaires.9). (ii) en utilisant e e e e la relation de r´currence (4.17). (0. l’´quation de la parabole qui e passe par les points (−1. POLYNOMES.i.i. 1] de trois o mani`res diff´rentes: (i) sous la forme d´velopp´e du type (4. o Calculer les valeurs du polynˆme de Legendre P10 (x) sur [−1. 0) et (1.9: Regression. Comparez. Retrouvez par l’approximation de Lagrange. 1).i+2 (xi+1 ) L’ensemble de ces contraintes d´finit un certain nombre de relations entre les e N − 1 polynˆmes P3.16). e e e . Le r´sultat est e a e g´n´ralement assez spectaculaire: le spline passe par tous les points tabul´s et e e e pr´sente les caract´ristiques (au moins visuelles) d’une fonction de lissage sans e e produire d’oscillations pour N ´lev´.i+1. c’est-`-dire de trouver les 4(N − 1) coefficients.

e ` Retrouvez les 2 ´quations ci-dessus. ind´termin´. e e e . EXERCICES ET PROBLEMES 45 Etablissez la formule d’interpolation lin´aire a 2 dimensions. en fait.7. Comment se transforment-elles si la e regression est quadratique en x ? en y ? si elle est en loi de puissance ? Dressez le bilan des contraintes sur les coefficients de S(x) et montrer que le syst`me est.` 4.

ˆ 46 CHAPITRE 4. INTERPOLATIONS ET AJUSTEMENTS . POLYNOMES.

Chapitre 5 Quadratures 5.2) Le recouvrement des techniques pr´sent´es ici avec celles d´di´es a la r´solution e e e e ` e des ´quations diff´rentielles ordinaires (voir le chapitre 7) est imm´diat puisque e e e F est solution de l’´quation e dF = f (x) (5. On pourra donc e e e facilement former une nouvelle fonction F de la variable b. b] repr´sente l’aire. comprise entre la courbe e e e repr´sentative de la fonction. compt´e alg´briquement. primitive de f (ou encore int´grale ind´finie).1) C’est une int´grale d´finie dont le r´sultat est un scalaire. e e e e e 47 . Dans la e e e m´thode d’integration des trap`zes.1 Rappels Rappelons que l’int´grale d´finie I d’une fonction f de la variable x sur un intere e valle [a.1).1: Int´grale d´finie d’une fonction f (surface hachur´e). l’axe des abscisses et les droites d’´quations x = a e e et x = b (voir la figure 5. telle que e e b F (b) = a f (x)dx + F (a) (5. on assimile cette fonction a une fonction e e ` lin´aire et l’int´grale est donn´ par l’aire du trap`ze ABCD (surface gris´e). soit la quantit´ e b b I= a f (x)dx = F (b) − F (a) = a dF dx dx (5.3) dx y B f(x) C A a D b x Figure 5.

6) C’est la m´thodes des e o` m est le milieu de l’intervalle. (5. soit m = a + u rectangles. b]. e e e La relation approch´e (5. e e On peut ais´ment se convaincre (au moins graphiquement) que l’approximation e (5. incluant les cas tr`s e e e e fr´quents o` la fonction est d´finie par un ensemble de points {(xi . e ` ce qui signifie que l’erreur commise sur I est proportionnelle a h3 . 0). b−a 2 .7) . Les e e e m´thodes pr´sent´es ici concernent de telles situations. e 5. b].2. B(a. 5. e e e e Il est important d’ajouter que l’int´grale o` la primitive d’une fonction ane u alytique peut ne pas ˆtre analytique. 0).4) peut-ˆtre interpr´t´e l´g`rement diff´remment. (5. ` e et ´ventuellement de ses d´riv´es.5) o` c est a d´terminer. Tout d´pend de la pr´cision souhait´e.1. Il est d’ordre h3 (avec h = b − a). f (a)). cela revient a assimiler la fonction a une droite. (5.48 CHAPITRE 5. De ce fait. C(b. En pratique. En d’autres termes.1 Pr´cision e La m´thode des trap`zes n´cessite deux ´valuations de la fonction. QUADRATURES o` la primitive prend la valeur F (a) en x = a.2 M´thode des trap`zes e e La m´thode la plus directe est la m´thode des trap`zes qui se r´sume au sch´ma e e e e e suivant b−a (f (a) + f (b)) .4) sera d’autant meilleure que la fonction f aura un gradient essentiellement constant sur l’intervalle [a. l’approximation de u I s’effectue le plus souvent a l’aide de combinaisons lin´aires des valeurs de f . aux points e e e e x1 = a et xN = b. On retrouve le r´sultat pr´c´dent en choisissant c tel que u ` e e e e 1 f (c) = 2 (f (a) + f (b)) (c’est la valeur moyenne de f pour l’´chantillon a deux e ` points).4) I≈ 2 explicit´ ici a un seul et unique trap`ze dont les ar`tes sont les quatre points e ` e e A(a. yi = f (xi ))}. on a b b f (x)dx = f (x) a a dx = f (c)(b − a). calcul´es dans l’intervalle [a. e u e par exemple issus de mesures exp´rimentales. e e ee e e e En supposant que f est constante sur l’intervalle. Notez qu’il n’y a aucune raison des privil´gier les bords. la m´thode des trap`zes ` ` e e ne donne un r´sultat exact que lorsque la fonction est une fonction lin´aire. contrairement au calcul des d´riv´es. de tel sorte qu’un e d´veloppement de Taylor autour de a donne e f (x) = f (a) + (x − a)f (a) + O((x − a)2 ) (5. Comme le montre la figure 5. On peut ` s’en convaincre en consid´rant b infiniment proche de a. e on peut tr`s bien consid´rer le sch´ma suivant e e e b a f (x)dx = f (m)(b − a). f (b)) et D(b. C’est un sch´ma a 2 points.

e 5.´ ` 5. par exemple dans les zones o` la fonction pr´sente de e u e forts gradients. 3. .2.10) o` fi ≡ f (xi ). c c’est-`-dire que pour un intervalle donn´. ou N − 1 sous-intervalles de largeur constante h = xi+1 − xi . la premi`re est d’ordre h alors que la seconde est e ` e d’ordre h3 . on montre facilement que I≈ h (f (a) + f (b)) + h 2 N −1 i=2 fi (5. b]. la m´thode des trap`zes peut e e e donner “n’importe quoi”. avec i ∈ [1. b] ` e e e ` e en 2. ce qui se solde par un temps de calcul plus grand. Dans ces conditions. l’ordre n’a pas chang´: c’est toujours h3 . a moins qu’elle ne soit utilis´e sur des sous-intervalles e r´guliers (m´thode compos´e) ou irr´guliers o` l’on concentre le d´coupage dans e e e e u e les zones de forts gradients (m´thode compos´e adaptative). .2 Version compos´e e On peut augmenter l’ordre de la m´thode. faire appel a la d´riv´e e ` ` e e seconde de f . alors h b − a et la pr´cision est e b−a meilleure.9) Notez qu’il y a une diff´rence essentielle entre d´rivation et d’int´gration: pour e e e un sch´ma a deux points. . On voit donc que si N 1. c’est-`-dire r´duire l’erreur.2.2. e e pour x ∈ [a.3 D´coupage adaptatif e On peut proc´der a un d´coupage adaptatif de l’intervalle en sous-intervalles e ` e de largeurs in´gales. Une autre fa¸on de s’en convaincre est de remarquer que h = N −1 . la pr´cision varie approximativement a e e comme N −3 . C’est un peu plus difficile a g´rer car il faut savoir rep´rer ` e e num´riquement de telles zones. on trouve b a f (x)dx = b b−a (f (a) + f (b)) + O (x − a)2 dx 2 a b−a (f (a) + f (b)) + O(h3 ) ≈ 2 (5. En reportant cette expression dans la relation (5. N − 1].2: Pour les fonctions qui pr´sentent de fortes variations sur l’intervalle e d’int´gration ou si l’intervalle est trop grand. On peut a cet effet. Formellement. Notez que ce gain n’est pas sans efforts: il faudra a pr´sent N + 1 ` e ´valuations de la fonction. 5.5). mais u e h est plus petit.8) (5. grˆce e a e a a la m´thode des trap`zes compos´e qui consiste a d´couper l’intervalle [a. . METHODE DES TRAPEZES 49 y y B f(x) C B C f(x) A a D b x A a D b x Figure 5.

4 Sch´mas ouvert et semi-ouvert e Rien n’oblige a utiliser tous les points de l’´chantillon.12) o` f2 ≡ f (x2 ). On r´alise alors un sch´ma de ee e e Simpson compos´. h = x3 − x2 = x2 − x1 . Comme pour la m´thode des trap`zes. on peut proc´der a un d´coupage de e e e ` e l’intervalle d’int´gration en N − 1 sous-intervalles ´gaux et appliquer le sch´ma e e e ´l´mentaire ci-dessus sur chaque sous-intervalle. e e e e Il existe une seconde r`gle de Simpson. comme par exemple au premier sch´ma de Simpson e e I≈ h (f (a) + 4f2 + f (b)) . rigoureusement exact pour une fonction du e type: y(x) = αx2 + βx + γ. Dans un sch´ma ouvert. 3 (5. 8 (5. a ≡ x1 et b ≡ x3 . QUADRATURES y f(x) B C A a D b x Figure 5. e deux points sont laiss´s de cot´.50 CHAPITRE 5.2. si f diverge e e en b (voir la figure 5. Bien-sˆr. d’ordre h5 ´galement. on pourra remplacer le sch´ma (5. Par exemple. Le d´coupage peut ´galement ˆtre adaptatif.11) C’est ce que l’on appelle un sch’ema semi-ouvert. e ` e e On pourrait montrer qu’il correspond en fait a l’approximation de la fonction ` par un polynˆme de degr´ 2. en premi`re approximae e tion. de fait. passant par les points d’abscisses x1 .4) par e I ≈ hf (a) (5. Il existe des techniques permettant de ` e e traiter correctement les singularit´s.3 M´thodes de Simpson e La m´thode des trap`zes est simple et efficace. On peut en effet ´carter ` e e un ou plusieurs point(s) particuli`rement gˆnant(s). utiliser une formule ouverte ou semi-ouverte. C’est un u sch´ma a 3 points. dans ce genre de traitement. On peut avoir recours utilise a des sch´mas plus e e ` e pr´cis. mais elle n´cessite souvent un e e e ´chantillonnage tr`s dense.3). 5. Le sch´ma est e e e I= 3h (f1 + 3f2 + 3f3 + f4 ) . il ne e e u faut pas s’attendre a un r´sultat pr´cis. Il est d’ordre h5 et suppose un ´chantillonnage r´gulier. x2 et x3 . o e Le sch´ma de Simpson est.13) . on peut. e 5.3: Quand une fonction est singuli`re.

il aura ´t´ n´cessaire d’´valuer la fonction en J + 1 points ee e e x1 . On peut alors montrer que si l’on d´coupe chaque intervalle en 2 e new (il y en a maintenant 2J au total). doit ˆtre exacte pour un certain ensemble u e de fonctions. b] en J = N − 1 sous-intervalles de largeur h = b−a . Plus le degr´ du polynˆme est ´lev´.5 Sch´mas r´cursifs e e Pour les formules de Newton-Cotes. etc. toujours dans l’objectif d’accroˆ la pr´cision du calcul.4 Formules de Newton-Cotes On peut construire des sch´mas encore plus pr´cis grˆce a l’interpolation polye e a ` nˆmiale. Le sch´ma de Boole ` e I= 2h (7f1 + 32f2 + 12f3 + 32f4 + 7f 4) . La r`gle g´n´rale est la suivante: un sch´ma a k+1 points r´guli`rement o e e e e ` e e e e o e espac´s doit donner un r´sultat exact pour tout polynˆme Pk (x) de degr´ ≤ k. puis u e les combiner. faisant apparaˆ J nouveaux points fj ıtre une meilleure approximation de I est donn´e par e I h h 1 = I[h] + 2 2 2 J new fj j=1 (5. Les sch´mas associ´s font partie de ce que l’on appelle classiquement les e e quadratures de Newton-Cotes. .6 M´thode g´n´rale e e e Une formulation plus g´n´rale du probl`me des quadratures repose sur l’existence e e e de N poids wi tels que l’int´grale e b N g(x)f (x)dx = a i=1 wi fi (5. on peut mettre en place des m´thodes e r´cursives qui permettent d’une part de limiter le nombre d’´valuation de la e e fonction et d’autre part de contrˆler la pr´cision de l’int´gration. plus la pr´cision est grande. On e peut bien-sˆr appliquer cette technique aux r`gles de Simpson et autres. La plupart du temps. . e e e e 5.5. cet ensemble de fonction est l’espace vectoriel . 5. Prenons par o e e exemple la m´thode des trap`zes et notons I[h] l’approximation de l’int´grale de e e e f obtenue en d´coupant [a.14) est obtenu avec k = 4. e e ` celles de Simpson a k = 2 et 3. La m´thode des trap`zes correspond a k = 1. . FORMULES DE NEWTON-COTES 51 C’est donc un sch´ma a 4 points. plus l’ordre du e o e e sch´ma est ´lev´ et donc.4. . e On ´vitera toutefois de construire des sch´mas mettant en jeu des polynˆmes e e o de degr´s tr`s ´lev´s. e J Pour calculer I[h]. xN .16) o` g est une fonction quelconque. Il est obtenu par un polynˆme interpolant de e ` o degr´ 3. e 5. La seule limitation est le e e e e nombre p de points disponibles dans l’´chantillon: il doit satisfaire k ≤ p − 1.15) On gagne ainsi un facteur 8 en pr´cision (soit presque un chiffre significatif). C’est le ıtre e principe de construction des tables de Romberg. 45 (5.

. 45 . y f(x) B C A -1 x1 0 x2 +1 D x Figure 5. e 45 45 45 avec g(x) = 1 dans tous deux cas. 3 } pour la seconde m´thode de Simpson.1 e . 3 3 3 9 3 • wi = { 8 . Comme nous l’avons vu. e e e D’autres m´thodes travailllent avec un espacement irr´gulier: les points de e e collocation xi et les poids sont impos´s quelque soit la fonction f . 3 .52 CHAPITRE 5.4: Dans l’int´gration de Gauss-Legendre a 2 points.16). . a = −b = −1) g(x) = sin kx Table 5. 24 . La m´thode est exacte pour une polynˆme de degr´ e e o e au plus 3. 1. . 64 . 9 . on cherche les e ` noeuds x1 et x2 tels que la surface du trap`ze ABCD coincide au mieux avec e l’int´grale de la fonction. . 14 } pour la m´thode de Boole. 1 } pour la m´thode des trap`zes. . 9 . .1: Quelques quadratures standards. avec a = −b = −1 g(x) = 1 et wi = C te avec a = −b = −1 x g(x) = x ou √1−x2 . 45 . 8 . . QUADRATURES Quadrature Gauss-Legendre Gauss-Laguerre Gauss logarithmique Newton-Cotes Tchebysheff Tchebysheff-Radau Radau Filon “Monte-carlo” conditions g(x) = 1 ou a = −b = −1 g(x) = e−x ou g(x) = xp e−x g(x) = ln x. . 1. Le tableau 5. 4 . . 45 . e 8 8 8 14 64 64 28 • wi = { 45 . 1 } pour la premi`re m´thode de Simpson. . Pk des polynˆmes de degr´ k. 4 . . e e 2 2 4 1 e e • wi = { 3 . ces m´thodes sont e exactes pour les polynˆmes Pk de degr´ k = N − 1 pourvu que les xi soient o e dispos´s r´guli`rement. a = 0 = b − 1 avec a = 0 et b = ∞ g(x) = 1. . avec 1 • wi = { 2 . . . . avec a = −b = −1 g(x) = 1. 1. . 3 . Il est facile de voir que les formules de Newtono e Cotes sont bien du type de (5.

on trouve la quadrature de Gauss-Legendre. On op`re alors une translation de Gauss-Legendre. .5.21) o` K(x) est l’int´grale elliptique compl`te de premi`re esp`ce. La figure 5. Dans cette m´thode. NOYAUX SINGULIERS 53 regroupe quelques quadratures de ce type. mais ils sont tr`s impr´cis. la sine e gularit´ est explicite. sont les racines des polynˆmes de e o Legendre. Le traitement correct d’une singularit´ n´cessite e e e e que l’on connaisse sa forme (explicite ou implicite).19) limh→0 a .18) et poss`dent un noyau singulier localis´ en x = a. b] quelconque moyennant e e ` un changement de variable.17) et 3 et la m´thode est exacte pour tout polynˆme de degr´ k ≤ 3. encore appel´es noeuds.20) ou bien les m´thodes de Gauss (voir le tableau 5. Parmi les plus classiques. Par exemple. Nous avons d´j` e e e ea signal´ que des sch´mas ouverts ou semi-ouverts peuvent ˆtre utilis´s dans ce e e e e cas. a = −b = −1. les noeuds et les poids sont √ 3 x1 = − = −x2 w1 = w2 = 1 (5.7. . On peut ´tendre la m´thode a un intervalle [a. Dans les deux cas.22) 0 et qui intervient souvent dans les probl`mes a sym´trie cylindrique. la premi`re est de nature logarithmique et la seconde e e de nature hyperbolique.1). Rappelons que u e e e e K(x) est une fonction sp´ciale d´finie par e e π/2 K(x) = dφ 1 − x2 sin φ 1 ln 1 − x2 2 (5.4 e o e montre la construction graphique associ´e a la quadrature de Gauss-Legendre a 2 e ` ` points. On sait que e ` e limx→1 K(x) = ln 4 − (5. Dans le cas N = 2. Ici. dx (5. 2a a x≥a (5.7 Noyaux singuliers Il est fr´quent de rencontrer des int´grales dont les int´grandes (ou noyaux) e e e pr´sentent une ou plusieurs singularit´s sur un intervalle donn´.23) . les int´grales e 2a a ln(x − a)dx. sa nature et sa localisation. e Un exemple d’int´grale a singulari´ implicite et locali´e (un cas fr´quemment e ` e e e rencontr´) est e 1 I(a) = a xK(x)dx (5. on pourrait utiliser des m´thodes avec pas h adaptatif o` l’on e e u sera in´vitablement tent´ par un sch´ma semi-ouvert pour calculer e e e a+h dx . e 5. g(x) = 1 e et les abscisses xi . x−a x≥a (5. e e Num´riquement. la quadrature peut ˆtre calcul´e analytiquement.

8 Exercices et probl`mes e D´montrez la relation (5.26) = a 1 o` la partie a xKreg (x)dx poss`de par construction un noyau parfaitement u e r´gulier et pourra ˆtre calcul´e avce pr´cision grˆce aux m´thodes standards. pour obtenir successivement 1 1 I(a) = a 1 xKreg (x)dx + a x ln(1 − x2 )dx 0 = a 1 xKreg (x)dx − xKreg (x)dx − xKreg (x)dx + 1 2 ln udu.25) La suite est relativement naturelle et directe. on commence par former le noyau r´gulier K reg (x) par soustraction de la e singularit´. Num´riquement. et la fonction r´guli`re K reg (x).5 x 1 Figure 5. QUADRATURES 3 ~ ln 4-ln (1-x ) 2 1/2 2 K(x) π/2 K reg (x) ln 4 xK(x) 1 0 0.10). Il e e e e a e est imp´ratif ici que la fonction Kreg (x) soit calcul´e avec la plus haute pr´cision e e e (par exemple via des biblioth`ques num´riques).54 CHAPITRE 5. en posant e Kreg (x) = K(x) + ln(1 − x2 ) et la relation (5.24) I(a) = a x Kreg (x) + ln(1 − x2 ) dx (5.21) devient 1 (5. La nature de la singularit´ ´tant connue.5). e c ee on pourra proc´der de la fa¸on suivante.5: Int´grale elliptique compl`te de premi`re esp`ce K(x) poss´dant une e e e e e divergence logarthmique pour x → 1. e . e e 5. 1−a2 u = 1 − x2 = a 1 1 [u(ln u − 1)]0 2 1−a 2 1 − a2 ln(1 − a2 ) − 1 2 (5. On s´pare l’int´gration en e e deux. e e e e rendant la singulari´ de nature logarithmique (voir la figure 5.

12). . . Pouvez-vous trouver un exemple simple o` e u la m´thode de Simpson est moins pr´cise que celle du trap`ze ? e e e Ecrivez la version composite de la r`gle de Simpson pour une fonction e d´finie en N points.8. b]. Trouvez le sch´ma relatif a la seconde r`gle de Simpson. ` Calculez num´riquement l’int´grale I(a) donn´e par la relation (5. EXERCICES ET PROBLEMES 55 D´montrez la relation (5. ` . Comparez sa pr´cision par rapport a la formule ne mettant e e ` en jeu que 3 points de l’intervalle [a.831931 . e e e Pour a = 0.26). comparez a la valeur exacte I(0) = 2G 1.` 5. e ` e Etablissez les sch´mas correspondant a k = 4 et 5. x2 et les poids w1 et w2 de l’int´gration de e Gauss-Legendre a deux points. e ` Etablissez la relation de r´currence ci-dessus pour le sch´ma de Simpson e e a 3 points. ` Retrouvez les noeuds x1 .

QUADRATURES .56 CHAPITRE 5.

soit sur la fonction. Enfin. En raison du nombre de degr´ u e de libert´ ´lev´ (i. x ≡ x1 . . la r´solution d’une ´quation vectorielle du ee e e ` e e type (6. . on ne trouve jamais la valeur qui annule exactement le syst`me.Chapitre 6 Z´ro d’une fonction. la condition d’existence d’une solution (au moins) pour l’´quae tion (6. qui se fait soit sur la variable. il est ` e e e e fr´quent de rencontrer des ´quations vectorielles du type e e F (X) = 0 (6. Plus familiers peut-ˆtre sont les e probl`mes a une dimension (i. c’est-`-dire que X (0) a sera d´j` “suffisamment” proche de R.). la convergence du sch´ma e e n´cessite un crit`re. La convere gence sera d’autant meilleure que le choix sera judicieux. sup´rieur a 2). N = 1) du type e ` f (x) = 0 (6. etc.e. b] tel que f (a) × f (b) ≤ 0 57 (6. x2 . . .3) . En fait.1. Dans les deux cas en revanche. e il peut exister plusieurs racines proches dans un intervalle donn´. xN .2) o` il n’y a qu’une seule variable en jeu. Comme l’illustre la figure 6. 6. mais une approximation.2) peut s’´noncer de la fa¸on suivante: si une fonction f est continue et e c qu’il existe un intervalle [a. Elle d´pend ´galement tr`s fortement ea e e e des propri´t´s de la fonction non seulement au voisinage de la racine cherch´e ee e mais aussi au voisinage du point de d´part.1) o` X d´signe un vecteur a N composantes xi et F est un ensemble de N u e ` fonctions fi des N variables x1 . ou bien e e sur les deux.1. e Syst`mes non-lin´aires e e Lorsque l’on cherche a caract´riser l’´tat d’´quilibre d’un syst`me.1 Existence des solutions et convergence Condition d’existence A une dimension.1 6.e.1) est g´n´ralement plus d´licate que pour son analogue a une dimene e e ` sion. la determination de la solution R = {ri }N s’effectue a partir d’un intervalle de recherche donn´ par des m´thodes it´ratives ` e e e dont l’initialisation se borne au choix d’un (voire de plusieurs) point(s) de d´part e X (0) (voire X (1) .

Touteu e a fois. Si ce crit`re est mal choisi. ZERO D’UNE FONCTION. ils n’assurent pas que l’image par f de l’intervalle [r(1 − Ex ). Cela pourrait par ailleurs conduire a une mauvaise identification e e ` de cete racine (par exemple.´ ` ´ 58CHAPITRE 6. Selon le point de d´part.2 Crit`re de convergence e Comme nous l’avons signal´.6) . e ce qui peut avoir des r´percussions importantes sur la suite des calculs. Par exemple. l’approximation de la racine sera mauvaise. Le crit`re classique porte g´n´ralement sur la racine elle-mˆme.5) o` Cx et Ex sont des constantes. il faut d´finir un crit`re de cone e e e e vergence. sur [−1. on ne peut pas trouver num´riquement la solue e tion exacte r mais seulement a une approximation suffisamment bonne de cette ` racine x(n) . SYSTEMES NON-LINEAIRES y points de depart f(x) x r1 r2 Figure 6. c’est-`-dire e e e e a que le processus it´ratif est interrompu lorsque e ∆n (x) ≡ |x(n) − x(n−1) | ≤ Cx ou mieux. et ne dit rien sur l’unicit´ de la racine (il y en a forc´ment e e e un nombre impair).2. e alors il existe au moins une quantit´ r´elle r ∈ [a. Notez que l’in´galit´ (6. Une proc´dure e plus fiable consiste a mettre en place un crit`re portant aussi sur f . 1]. ce qui peut-ˆtre probl´matique si e e e l’on doit par ailleurs utiliser les valeurs de f . par exemple ` e ∆n (f ) ≡ f (x(n) ) − f (x(n−1) ) ≤ Cf (6. lorsque n (x) (6. grˆce a un processus it´ratif que l’on aura d´lib´remment stopp´ a a ` e e e e` une certaine ´tape n. la fonction y = x2 poss`de une e racine alors que f (−1) × f (1) > 0.4) ≡ x(n) − x(n−1) ≤ Ex x(n−1) (6. si la racine est non nulle. Pour d´finir cette ´tape.3) ne traduit pas une e e e condition n´cessaire. Elime inons imm´diatement tout crit`re qui porterait sur n: on ne peut pas pr´voir e e e a l’avance le nombre d’it´rations qu’il faudra effectuer. b] telle que f (r) = 0 (r est la e e racine ou le z´ro de la fonction). on tombe sur l’une ou sur l’autre. comme l’illustre la figure 6. comme l’absisse du e e ` e minimum x = 0). r(1 + Ex )] autour de la racine soit ´galement “petit”. du moins dans le cas le ` e plus g´n´ral. 6. Ces crit`res sont tout-`-fait recevables.1: Racines r1 et r2 d’une fonction f de la variable x.1. Ceci d´pend du gradient de la e fonction au voisinage de la racine. l’´quation x2 + 1 = 0 n’a pas de racine r´elle et un e e sch´ma it´ratif pourrait donner a peu pr`s n’importe quoi.

6. . EXISTENCE DES SOLUTIONS ET CONVERGENCE 59 critere sur x y f(x) critere sur f(x) y ∆ (f) 2∆ (x) x f(x) 2∆ (f) x r r 2∆ (x) critere sur x et sur f(x) y f(x) 2∆ (x) 2∆ (f) x r Figure 6.1. il est recommand´ e e d’appliquer un crit`re de convergence portant a la fois sur la variable et sur e ` la fonction.2: Dans la recherche de z´ro d’une fonction.

Si |∆k (x)| ∝ |∆2 (x)|. e le conditionnement (ou la sensibilit´) dans la recherche de z´ro est en fait inverse e e de celui relatif a l’´valuation d’une fonction. b] et Ef = 10−4 . ..7) o` Cf et Ef sont ´galement des constantes a d´finir. Pour un probl`me a plusieurs dimensions.1. la convergence est e e k−1 dite quadratique et le nombre de chiffre significatif double en moyenne. Par ailleurs. c’est-`` a dire plus sont gradient (au niveau de la reacine) sera important. ∆3 (x). ∆n−1 (x). Pour cela. Par cons´quent. avec p ≥ 2. le nombre ζ tel que e e |∆k (x)| ∼ C|∆k−1 (x)|ζ−1 |∆k−1 (x)| (6. alors la convergence est dite lin´aire. . . On pourra par exemple u e ` e 1 choisir Cf = 100 [sup(f ) − inf(f )] sur [a. ∂f1 ∂xN ∂f2 ∂xN ∂fN ∂xN Un probl`me se produit lorsque le d´terminant de cette matrice est nul.9) ||J(R)|| o` J est la matrice jacobienne u  ∂f 1 ∂x1 ∂f1 ∂x2 ∂f2 ∂x2 ∂fN ∂x2 . SYSTEMES NON-LINEAIRES ou bien si f est non nulle n (f ) ≡ f (x(n) ) − f (x(n−1) ) ≤ Ef f (x(n−1) ) (6.´ ` ´ 60CHAPITRE 6.1. Dans ce cas. on appelle taux de convergence..3 Sensibilit´ e On ne peut pas ici calculer le nombre de conditionnement η tel qu’il a ´t´ d´finit ee e au chapitre 2. e e    ∂f J(R) =  ∂x2  1         (6. . . ZERO D’UNE FONCTION.. l’approche de la racine s’effectue par mise en place e r´guli`re des chiffres significatifs..10) ∂fN ∂x1 R 6. on forme e ` la s´quence e ∆1 (x). ∆n (x) Si |∆k (x)| ∝ |∆k−1 (x)| approximativement.8) Notez que le conditionnement est particuli`rement mauvais lorsque la tangente e a la courbe au point r est presque horizonale.. on peut facilement se convaincre que la recherche de la racine sera d’autant plus facile que la fonction sera sensible a tout changement de la variable x. le “bon” nombre de conditione ` nement est 1 (6.4 Taux de convergence On peut contrˆler la convergence du processus de recherche de racine en anao lysant le comportement de l’erreur d’une ´tape a l’autre. ∆2 (x). Le nombre pertinent sera plutˆt ` e o 1 |f (r)| (6. et en particulier pour une racine ` double (c’est-`-dire lorsque f (r) = f (r) = 0). car la fonction s’annule au niveau de la racine. Plus g´n´ralement. 6..11) . . C’est par exemple le cas des a fonctions du type f (x) = xp .

bien que racine r est simple lorsque f (r) = 0. la convergence est lin´aire.ABS(b)) ENDDO PRINT*. e e e Enfin. 6.’ROOT. b(1) ] (s’est soit [a. elle est quadratique pour ζ = 2. u e ` Pour ζ = 1. e D’une part.2. mais f (n) (r) = 0 pour n ≥ 2. Une racine r est multiple lorsque f (r) = f (r) = f (2) (r) = · · · = f (k) (r) = 0. b] contient plusieurs racines.relerror.13) E Par exemple. mais f (n) (r) = 0 pour n ≥ 1. pour deux raisons au moins. soit f (b)×f (c) < 0 et la racine se trouve alors sur l’intervalle [c. Lorsque la pr´cision est jug´e suffisante. Il est mˆme imparable. b(i) ].00D-04 WHILE (relerror>=epsilon) DO midvalue=a+b(-a)/2 IF (f(a)*f(midvalue)<=0) THEN a=midvalue ELSE b=midvalue ENDIF relerror=ABS(b-a)/MAX(ABS(a).4 × ln (6. Il garantit toujours de e e e trouver une racine. 1 Une . pour un intervalle initial de largeur unit´ et une pr´cision relative e e de 10−6 . b]. D’autre part.1 Probl`mes ` une dimension e a M´thode de bissection e Supposons que l’on connaisse un intevalle [a. mais d’autres m´thodes e e donne un r´sultat aussi pr´cis avec quelques it´rations seulement. c] soit [c. la racine vaut e e ` e r ≈ a(n) ≈ b(n) . soit 1 (b(n) −a(n) ). a l’´tape n. n ∼ 21 it´rations.2). etc. Au bout de i bissections. b]) sur lequel nous pouvons a nouveau op´rer un d´coupage en deux. la fonction peut avoir une racine double1 . La racine est dite encadr´e. deux situations peuvent se pr´senter: soit e f (a)×f (c) < 0. nous disposons d’un intervalle plus petit [a(1) . on obtient. En e ` effet. on a mˆme ` e r≈ f (a(n) )(a(n) − b(n) ) + a(n) f (b(n) ) − f (a(n) ) (6.2 6.2. le nombre d’it´ration n´cessaire pour encadrer la racine a la pr´cision E e e ` e pr`s est e b−a n ≈ 1. e avec c comme abscisse du point milieu. c].(a+b)/2. Si l’intervalle [a. b] contennant la racine r de l’´quae tion du type (6. e 2 En assimilant la fonction a une droite sur cet intervalle. e e l’intervalle courant a une largeur b−a et la racine est localis´e sur l’intervalle e 2i [a(i) . Quelqu’il en soit. Si l’on coupe l’intervalle en deux. cubique e (c’est plus rare) pour ζ = 3. mentionnons qu’il peut ˆtre dangereux de chercher une racine avec e comme seul crit`re le signe du produit f (a) × f (b). mais f (k) (r) = 0 pour n ≥ k + 1. PROBLEMES A UNE DIMENSION 61 o` |C| ≤ 1 (sinon l’erreur augmente d’une ´tape a l’autre et le processus diverge).12) Ce sch´ma est tr`s efficace. Cela semble peu. la racine se trouve alors sur l’intervalle [a. Un exemple de programmation de cette m´thode est e epsilon=1. Une racine r est double lorsque f (r) = f (r) = 0.` ` 6. ERROR::’. la m´thode e parviendra toujours a en isoler une. Mais elle est tr`s lente a converger.(b-a)/2 La pr´cision est de l’ordre de la largeur du demi-intervalle.ABS. & REL.

ici. ZERO D’UNE FONCTION. et ainsi de suite jusqu’` convergence.2) peut ˆtre explicitement ramen´e a une forme du type (6. 6. il s’agit de trouver l’intersection d’une fonction g avec la premi`re bissectrice des axes e d’´quation y = x. intersection du segment [AB] joingnant les points A(a. a l’on puisse avoir f (a) × f (b) < 0. e puis connaissant x(1) .14) e e e ` en posant g(x) = f (x) + x. c] ou [c. f (a)) et B(b. En d’autres termes.´ ` ´ 62CHAPITRE 6.2). c’est-`-dire g(x(n) ) ≈ x(n) avec une a ´quation du type (6.2. f (c) et f (b). comme indiqu´ a la figure 6. au lieu de prendre le point milieu. on calcule g(x(1) ) = x(2) . Toutefois. f (b)) et l’axe des abscisses. 2 Toute . Le sch´ma associ´ est simple et intuitif: on part d’une abe e e scisse initiale x(0) proche de la racine r cherch´e puis l’on calcule g(x(0) ) = x(1) . e 1 la racine vaut r ≈ c(n) ± 2 (b(n) − a(n) ). b] (c’est par exemple ` 1 le cas de la fonction f (x) = x en x = c = 0) et chercher une racine sur cet intervalle serait vain.2.2 M´thode des “fausses positions” e C’est une m´thode de r´solution proche de la pr´c´dente car ´galement bas´e e e e e e e sur la comparaison des signes de la fonction f aux deux bornes de l’intervalle de recherche. A l’´tape n. Selon le signe des produits f (a) × f (c) et f (c) × f (b). SYSTEMES NON-LINEAIRES y racine y ETAPE n-1 ETAPE n f(x) f(c) B b x a A c f(c) a A c B f(x) x b Figure 6.3. lorsque la taille de l’intervalle de recherche est “suffisamment” petit. on selectionne le nouvel intervalle de recherche. On peut se convaincre de l’efficacit´ de e cette m´thode par rapport a la m´thode de bissection (et donc a sa plus grande e ` e ` rapidit´) sur une fonction lin´aire par exemple. selon le signes de f (a). mais l’emploi de la m´thode du point fixe serait dans ce cas une e erreur. on cherche le point C(c.3 M´thode du “point fixe” e La m´thode du point fixe concerne la r´solution d’´quations du type e e e g(x) − x = 0 (6.14) qui constituent un sous-ensemble2 de (6. e e 6. On r´it`re le processus sur e` e e un intervalle plus petit [a.3: Dans la m´thode des fausses positions. b]. on peut se trouver en pr´sence d’une fonction e qui diverge a l’infini de part et d’autre d’une valeur c ∈ [a. et ainsi de suite jusqu’` ce que a l’on obtienne une stabilisation du processus. on cherche l’intersection e du segment [AB] avec l’axe y = 0. 0).

` ` 6. e ` e pr´cision donn´e.16) est e ` e une condition sur la d´riv´e en la solution. On trace alors la tangente a la courbe en ce point. plus proche de la racine que M(0) . Ceci d´finit e un nouveau point M(1) (x(1) ).15) La m´thode du point fixe n’est pas toujours stable (et donc utilisable).16). non au point de d´part x(0) .2. e e e 6.3). devient e e f (x)f (x) f 2 (x) <1 r (6.16) est satisfaite.2. et ainsi de suite. d´duite de (6. Comme nous l’avons soulign´ plus haut.14) si g est e d´finie par e f (x) g(x) = x − . L’int´rˆt de cette d´finition est imu e e e m´diat: on se ram`ne ainsi a le m´thode du point fixe (voir §6.18) L’interpr´tation graphique de la m´thode des gradients est la suivante. le choix du point de e d´part x(0) est crucial: il peut tr`s bien conduire a une racine autre que celle e e ` souhait´e ou bien a une divergence du sch´ma.19) . (6. puis son intersection avec l’axe y = 0 d´fini un ` e troisi`me point. On ´crit e e e e donc ce sch´ma e x(n+1) = g(x(n) ) (6. PROBLEMES A UNE DIMENSION 63 y ETAPE n-1 racine A f(x) f(c) c y ETAPE n A f(x) x c x tangeante tangeante Figure 6. f (x(n) ) (6. En e e un point de d´part M(0) (x(0) ). On peut e e en effet montrer que le sch´ma (6.15) ne converge que lorsque la condition −1 ≤ g (r) ≤ 1 (6.4: Construction graphique associ´e a la m´thode des gradients. La racine r cherch´e n’est alors autre que r ≈ xn .17) f (x) o` g est la fonction de Newton-Raphson.2) co¨ e ıncide avec la solution d’une ´quation du type (6. Notez que la relation (6. alors la solution de ` ` l’´quation (6. on construit la tangente a la courbe y = f (x) et e ` on cherche l’intersection de cette tangente avec l’axe des abscisses. La condition e e ` e de convergence du sch´ma.4 M´thode des gradients e Si l’on a a faire a une racine simple pour f (voir la note 1).2. On peut montrer que cette d´marche produit e e le sch´ma num´rique suivant e e x(n+1) = x(n) − f (x(n) ) .

e. e e e e ne converge pas dans certaines situations.22) sin x(k) − cos x(k) Pour x0 = 0. ´galement appel´e m´thode de Newton-Raphson. SYSTEMES NON-LINEAIRES y y ETAPE n-1 ETAPE n f(x) B A c x f(c) f(c) A racine c B f(x) x Figure 6.0000000000000000D+00 +3.8539817599970183D-01 f(x) +0.8204190153913800D-01 +7.´ ` ´ 64CHAPITRE 6.0000000000000000D+00 +1. on peut rencontrer des s´quences cycliques.0000000000000000D+00 -1. 1].20) η d’o` u g (x) = 1− 1 η + x dη η 2 dx (6. par exemple si la fonction a une racine multiple (on peut partiellement y rem´dier en considerant. ZERO D’UNE FONCTION.0000000000000000D+00 +7. des e e s´quences p´riodiques ou mˆme divergentes. L’ordre de la m´thode e ` e e est quadratique (i.0116867893975678D-01 -4. e e la fonction x × f (x)) ou bien si x(0) est mal choisi (trop loin de la racine cherch´e).17) fait apparaˆ le nombre de conditionnement η ıtre d´finit auparavant e 1 g(x) = x 1 − . la r´solution num´rique donne e e k 0 1 2 3 x +0. Plus rarement.7464621278041701D-03 .21) Nous en d´duisons que la condition de convergence de la m´thode est li´e a sa e e e ` d ln |η| sensibilit´ au niveau de la racine et en particulier a d ln x . ` e e ` La m´thode des gradients. avec pr´caution. ζ = 2). e ` Exemple Soit a trouver le z´ro de la fonction f (x) = sin x − cos x sur [0. (6. e e ce qui nous ram`ne bien a la fonction g d´finie plus haut. e e e Notez que la relation (6. Le sch´ma ` e e it´ratif est donc e sin x(k) + cos x(k) x(k+1) = x(k) − (6.5: Illustration de la m´thode des s´cantes. c’est-`-dire que le nombre de chiffres significatifs a double a peu pr`s d’une it´ration a l’autre.

` ` 6.8539816339744828D-01 +7. 6.2. soit le point M(2) (x(2) ) comme nouveau point et l’on r´it`re l’op´ration avec les point M(1) et M(2) e e e (voir la figure 6. f (x(2) )) pr´alablement choie sis et l’on cherche l’intersection de la parabole avec l’axe horizontal.7464621278041701D-03 +1. On recommence le processus avec M(1) . f (x(n) ) − f (x(n−1) ) (6.8539817599970183D-01 +7.8539816339744828D-01 +7.3313876790795902D-17 65 Notez que seulement 5 it´rations sont n´cessaires pour atteindre la pr´cision e e e de la machine et que la convergence est bien quadratique. f (x(3) )).25) . f (x(0) )). elle ne guarantit pas que les points encadrent toujours la solution. M(n) ) au triplet suivant (M(n−1) . 6. ` e e Toutefois.6 M´thode de M¨ller e u Cette m´thode est semblable a la m´thode des s´cantes mais avec 3 points.23) Cette m´thode pr´sente l’avantage de ne faire appel qu’` l’´valuation de la e e a e fonction f et non a sa d´riv´e qui n’est pas toujours accessible analytiquement.0000000000000000D+00 +7. Elle peut de se fait diverger dans certains cas. M(n) .7822277877512036D-08 -4.7822277877512036D-08 5 +7.8539816339744828D-01 +1.2. a e M(n−1) . e ` e e On commence par construire une parabole passant par 3 points de la courbe M(0) (x(0) . f (x(1) )) et M(2) (x(2) . M(2) et M(3) jusqu’` convergence.on obtient k 0 1 2 3 4 5 x +1. M(1) (x(1) .3313876790795902D-17 Pour x0 = 1.5 M´thode des s´cantes e e Cette m´thode est identique a la m´thode des gradients a ceci pr`s que l’on e ` e ` e choisit non pas la tangente a la courbe en un point initial mais une droite ` d´finie par 2 points M(0) (x(0) ) et M(1) (x(1) ) de la courbe.2.8204190153913800D-01 +7. Le sch´ma faisant passer du triplet (M(n−2) .0000000000000000D+00 +3.0116867893975678D-01 -4. Le sch´ma associ´ est e e x(n+1) = x(n) − f (x(n) )(x(n) − x(n−1) ) . Ceci donne un nouveau point M(3) (x(3) .8539816339744828D-01 -4.5). M(n+1) ) est x(n+1) = x(n) − o` u α= (x(n−2) − f (x(n−2) ) − f (x(n) ) − x(n) )(x(n−2) − x(n−1) ) 2f (x(n) ) β2 ± β 2 − 4αf (x(n) ) (6.3313876790795902D-17 -4. On utilise alors le e point d’intersection de cette droite avec l’axe y = 0.8539816339744828D-01 f(x) +0. PROBLEMES A UNE DIMENSION 4 +7.24) f (x(n−1) ) − f (x(n) ) (x(n−1) − x(n) )(x(n−2) − x(n−1) ) (6.

. La convergence est souvent e plus d´licate. . ıtre On peut g´n´raliser ce type de m´thode en utilisant un interpolant polynˆmial e e e o de degr´ sup´rieur a 2. x N       x(n+1) = g x(n) .28) = g 3 x1 . . le sch´ma est e  (n+1) (n) (n) (n) (n)  x1 = g 1 x1 . e e ` 6. x(n) .1). soit e ` e ` e ∂gi < 1. . la fonction interpolante est quadratique en x. On e u peut aussi chercher une fonction interpolante quadratique en y. x 2 . . ZERO D’UNE FONCTION.. De ce fait. x 3 . .´ ` ´ 66CHAPITRE 6. x N  x3      . Notez que les points n’encadrent pas n´cessairement la racine mais peue vent ˆtre tous au dessous ou au dessus de l’axe y = 0. . x(n)  2 2  1 2 3 N   (n+1) (n) (n) (n) (n) (6.1 G´n´ralisation de la m´thode du point fixe e e e Pour la m´thode du point fixe e G(X) = X. ∂xk i = 1. .     (n) (n) (n) (n)  x(n+1) = g N x1 . Le taux de convergence est 2 si cette quantit´ est nulle. g´n´ralis´es a e e e e e ` N fonctions coupl´es des variables x1 . e . N (6. . xN . x 2 . . x(n) . Sa convergence est ´galement quadrae e tique. x N N k=1.27) Une condition n´cessaire a la convergence de ce sch´ma est que le rayon spectral e ` e de la matrice jacobienne associ´e a G soit de norme inf´rieure a l’unit´.. des s´quences e e divergentes peuvent apparaˆ dans certains cas. . .3 Syst`mes non-lin´aires e e Nous nous sommes int´ress´ jusqu’` pr´sent a des m´thodes permettant de troue e a e ` e ver le z´ro d’une fonction d’une variable.26) o` il conviendra de choisir le signe correspondant a la solution la plus proche u ` de la racine cherch´e. SYSTEMES NON-LINEAIRES et β= (x(n−1) [f (x(n−1) ) − f (x(n) )](x(n) − x(n−2) )2 − x(n) )(x(n−2) − x(n) )(x(n−2) − x(n−1) ) − [f (x(n−2) − f (x(n) )](x(n−1) − x(n−2) )2 (x(n−1) − x(n) )(x(n−2) − x(n) )(x(n−2) − x(n−1) ) (6. x2 . on peut en principe utiliser les m´thodes d´crites plus haut. . x 3 . e 6. Pour r´soudre une ´quation du type e e e (6. . . C’est l’esprit de la m´thode de Van Wijngaarden-Bekker. x 3 . . .3. e Dans la m´thode de M¨ller. . x 2 .N qui n’est que la g´n´ralisation a N dimensions de la condition (6. .16) rencontr´e e e ` e plus haut. .

= g3 (x1 . soit x2 puis x3 (n+1) (n+1) = g2 (x1 . Il met en jeu une e ` inversion de matrice. ..x . x(n) . x3 .29) a partir de x1 ` x3 (n+1) (n+1) . 2 Combien d’it´rations sont n´cessaires pour trouver la racine a pr`s d’une e e ` e fonction du type f (x) = ax + b pr`s avec la m´thode des fausses positions ? e e Mˆme question si f est un polynˆme de degr´ n > 1.4. soit (n+1) = g2 (x1 (n+1) .     (n+1) (n+1) (n+1) (n+1) (n+1) (n) x = g (x .30) et ainsi de suite jusqu’au dernier. x3 .` 6.. . x3 . x N ) (n) (n) (6.4 Exercices et probl`mes e Calculez (` la main) a 10−4 pr`s la racine r positive de l’´quation g(x) = x a ` e e 1 pour g(x) = x + x . . .3. . .4. . x(n) .3 M´thode de Newton g´n´ralis´e e e e e Autre adaptation possible a N dimensions. . . x2 . EXERCICES ET PROBLEMES 67 6. le cas ||J(X (n) || = 0 est e probl´matique.. x2 . e . Le sch´ma devient donc e   x(n+1) = g1 (x(n) .. . . Notez que dans de nombreux cas pratiques. .. e e e e 6.x ) N −1 N 6. x3 .31) dont l’´quivalent a une dimension est la relation (6. Elle fait intervenir la matrice jacobienne du syst`me. . e o e Quels sont le taux de convergence ζ et la constante C pour la m´thode de e bissection ? et pour la m´thode des fausses positions ? et pour la m´thode des e e s´cantes ? et pour la m´thode de M¨ller ? e e u Quels sont le taux de convergence ζ et la constante C pour la m´thode e du point fixe ? Mˆme question lorsque g (r) = 0. . . les e e d´riv´es partielles ´tant ´valu´es au point courant X(n) . x N )   (n+1) (n+1) (n+1) (n) (n) N N 1 2 3 C’est la m´thode de Seidel du point fixe. . x N )  x3    . Comme nous l’avons soulign´. .19). x(n) )  1 1 2 3 N    (n+1) (n+1) (n) (n) (n) x  2 = g2 (x1 . Le sch´ma it´ratif est e e e e e e e X (n+1) = X (n) − J −1 (X (n) )F (n) (6.2. .x .x . xN ) et x2 (n+1) (n) (n) (n) (n) (6. . Elle est sens´e conduire a une am´lioration e e ` e du traitement car elle “anticipe” dans n − 1 directions.. celle de la m´thode des gradients ` e expos´e au §6. .3. x2 . x2 . il faut allors proc´der num´riquement pour estimer J.2 M´thode de Seidel e On peut am´liorer la convergence du sch´ma pr´c´dent de la fa¸on suivante: on e e e e c (n+1) (n) (n+1) calcule x2 non pas a partir de x1 mais a partir de x1 ` ` . on n’a pas acc`s au e e d´riv´es analytiques.

e u . e 2 D´montrez la relation (6. SYSTEMES NON-LINEAIRES Quels sont le taux de convergence ζ et la constante C pour la m´thode e des gradients en pr´sence d’une racine multiple ? e Calculez (` la main) a 10−4 pr`s la racine r positive de l’´quation g(x) = x a ` e e 1 e pour g(x) = x + x et comparer avec la m´thode de bissection. 2 D´montrez la relation (6. ZERO D’UNE FONCTION.´ ` ´ 68CHAPITRE 6. En d´duire que la m´thode du point fixe pour une fonction e e √ A g(x) = x + 2x est un moyen de d´terminer A.23) e Etablissez les sch´mas de M¨ller et de Van Wijngaarden-Bekker.19) e 1 Montrez que la fonction g(x) = x + x consid´r´e dans les exercices e e 2 pr´c´dents est la fonction de Newton-Raphson d’une certaine fonction f que e e l’on explicitera.

x n dxn−1 dx dx =0 (7.. x nN nN −1 dx dx dx =0 . . .2) o` f englobe toute forme explicite de x et de y.Chapitre 7 Equations aux d´riv´es e e ordinaires 7. ou ODEs en anglais (pour “ordinary e differential equations”). Elles sont de la forme e e F dn y dn−1 y dy . celui des syst`mes d’´quations diff´rentielles ordinaires a plusieurs e e e e ` 69   .1).1). soit sup{ni }.y ≡ ..         FN  dyN dnN yN dnN −1 yN . Un tel syst`me s’´crit e e    F1         F 2 dn1 y1 dn1 −1 y1 dy1 . . g1 (x). . y2 . . . x) dx (7. . y1 ≡ . y2 ≡ ... g2 (x). La forme la plus simple u e sur laquelle nous discuterons largement dans ce chapitre est dy = f (y.. yN . . Elle repr´sente en fait. y. y1 . gN (x). . x n2 n2 −1 dx dx dx =0 =0 Son ordre est l’ordre le plus ´lev´. le champ des pentes de la fonction y (voir la figure 7. yN ≡ . . y). x n1 n1 −1 dx dx dx dn2 y2 dn2 −1 y2 dy2 . .1) o` g est une fonction de x (n est l’ordre de l’´quation). On trouve ´galement des syst`mes d’´quations diff´rentielles ordinaires o` il e e e e u y a Fi fonctions du type (7. sont des ´quations mettant en jeu une fonction y de la variable x et au moins l’une de ses d´riv´es. dans le u e plan (x. g(x). Autre vari´t´ possible de e e ee probl`me.. . . . .1 D´finitions e e e Les ´quations diff´rentielles ordinaires. .

1). e e ` En contraste avec les ´quations aux d´riv´es partielles ou PDEs (pour “pare e e tial differential equations” en anglais). e e il pourra finalement ne pas exister de solution au probl`me pos´ ou. . x2 = 0 . g1 (x1 ). g2 (x2 ). d . en e e exister une et une seule.. . . . multiples). on se retrouve face a N probl`mes e e ` e d´coupl´s du type 7. . Du point de vue purement math´matique. . Compte-tenu de ces contraintes impos´es par le mod`le physique. x1  dx1 dx1 1     n2 n2 −1  y2 dy2   F2 d y2 . . y1 .. . de ce fait. par exemple une condition sur la valeur de la fonction et/ou la valeur de sa ou ses d´riv´e(s) en certains points de intervalle d’´tude [a. xN dxnN dxN N N =0 L’aspect complexe de ce syst`me est trompeur. d  1 =0  n1 n1 −1 . les ´quations diff´rentielles ordinaires e e e (ou les syst`mes) ne font intervenir qu’une seule variable et sont. n−1 . . gN (xN ).1 et on utilisera de ce fait les mˆmes m´thodes que pour e e e e r´soudre une ´quation a variable unique. En raison du carat`re ind´pene e e dant des variables (chaque fonction yi est toujours d´riv´e par rapport a la e e ` mˆme variable xi et ne d´pend que d’elle). . y2 ≡ n2 dx2 dx2 dxn2 −1 2    . beaucoup plus simples a r´soudre. .e. Dans certains cas.70 ´ ´ CHAPITRE 7. ` e e plusieurs fonctions y (souvent une infinit´) peuvent ˆtre solution de l’´quation e e e (7. mieux. yN . les solutions math´matiques ne correspondront pas forc´ment e e a la situation physique recherch´e. . il s’agira de s´lectionner ` e e les fonctions qui satisfont un certain nombre de contraintes appel´es conditions e aux limites. Pour le Physicien. Toutefois. y1 ≡ dx . . il faut n´cessairement n conditions aux limites pour d´ e finir une solution y(x). b].      dyN dnN yN dnN −1 yN    FN . Pour e e e une ´quation diff´rentielle ordinaire d’ordre n (ou d’un syst`me de n ´quations e e e e d’ordre 1). les solutions resteront d´g´n´r´es e e e e (i. y2 . EQUATIONS AUX DERIVEES ORDINAIRES solutions y x Figure 7. yN ≡ dx .1: Illustration de la notion de champ de pentes. variables ind´pendantes du type e  n1 −1 n1 y1 dy1  F d y1 .

les conditions aux limites sont impos´es au mˆme endroit. Pour majorit´ des e e techniques. la relation (7.6) (f d´pend de y !) rend en principe impossible le calcul directe de y de cette mani`re. l’´quation non-lin´aire e e e du second ordre a coefficients non constants ` f + f − xf = sin(x) se r´-´crira sous la forme d’un syst`me coupl´ ee e e y1 = xy0 − y1 + sin(x) y0 = y 1 avec y0 ≡ f . une diff´rence fondamentale est que la fonction y n’est pas connue e e e au pr´alable.2 Le “splitting” Quand l’ordre n de l’´quation diff´rentielle est strictement sup´rieur a un. e ` e e e Ceci est toujours r´alisable en faisant appel a n − 1 fonctions interm´diaires y j . a partir d’un point de ` d´part (a. La forme implicite de la relation (7.7. Les contraintes sont cette fois donn´es a deux endroits diff´rents (au moins). en x = a ou en x = b. b] o` s’appliquent les conditions aux limites (voir la figure 7. Tout la difficult´ sera alors de e e e calculer le plus pr´cis´ment possible l’incr´ment δi . e ` e .5) Toutefois.4) y(x) = a f (x . y(a)) ou d’un point d’arriv´e (b.2) s’´crit e e e e aussi x (7. (7. On r´alise alors un splitting. Dans ce cas. n − 1 (7. permettant depasser de yi e e e a yi+1 . e e • les probl`mes aux conditions aux contours encore appel´s (T)BVPs (pour e e “(Two) Boundary Value problems” en anglais). LE “SPLITTING” 71 7. soit ` yi+1 = yi + δi (7.3 7. y(b)). y)dx + y(a).1 Les conditions aux limites Valeurs initiales et conditions aux contours On distingue habituellement trois classes de probl`mes selon l’endroit de l’intere valle d’´tude [a. dx j = 1.6) 7. en a et en b.3) avec y0 ≡ y.3.2): e u • les probl`mes aux conditions initiales ou encore IVPs (pour “Initial Value e Problems” en anglais). on e e e ` aura fortement int´rˆt (du moins dans l’objectif d’une recherche de solutions e e num´riques) a former un syst`me de n ´quations diff´rentielles du premier ordre. la construction y se fera de proche en proche.2. e ` e par exemple en posant dyj−1 ≡ yj . Par exemple. En effet. On peut voir le probl`me de r´solution d’une ´quation diff´rentielle ordinaire e e e e comme un probl`me d’int´gration et l’on peut l´gitimement envisager d’utiliser e e e les m´thodes d´di´es au calcul des quadratures.

e . EQUATIONS AUX DERIVEES ORDINAIRES Conditions initiales y y(b) solution calculee solution exacte f(y(a). conditions aux (deux) contours (au milieu) et condition au contour interm´diaire (en bas).2: Trois types de conditions aux limites dans les probl`mes aux d´riv´es e e e ordinaires: conditions initiales (en haut).72 ´ ´ CHAPITRE 7.a) a y(a) x b Conditions aux contours y y(b) y(a) x a b Condition au contour intermediaire matching point y y(b) y(a) x a c b Figure 7.

voir §7. c(x) dx =0 en x = a. De ce point de vue. b] appel´ matching point. Le choix de la m´thode d’int´gration sera alors guid´ par la e e e recherche d’un compromis entre rapidit´ et pr´cision. En e e e ` . Une condition aux contours s’´crit de mani`re g´n´rale e e e e C y. On peut ´videmment voir la relation (7. mais une solution approch´e.8) o` l’on a pos´ h = xi+1 − xi .7) o` c(x) est une fonction quelconque. aussi propre soit-elle. la solution ´tant contrainte de part et d’autre de l’intervalle e [a. b]. Notez que ces distinctions n’ont de sens que si l’´quation est au moins du e second ordre. b ou c (7. Avec une (ou plusieurs) condition(s) e interm´diaire(s). xi ).4. b]) et assurer leur jonction correcte en c.4 7. dy .6). dans e e un probl`me aux conditions initiales. c] et l’autre pour e e x ∈ [c.7). soit distribu´es sur tout l’intervalle (cas des m´thodes eme e ployant les diff´rences finies. ne donnera jamais la solution e e exacte. METHODES “MONO-PAS” 73 • les probl`mes avec condition au contour interm´diaire o` une condition e e u est donn´e a l’int´rieur de l’intervalle d’int´gration en un point d’abscisse e ` e e x = c ∈ [a. dans un probl`me aux condie e e tions aux contours.1 M´thodes “mono-pas” e M´thode d’Euler e La m´thode d’int´gration la plus intuitive et la plus simple aussi est la m´thode e e e d’Euler qui reprend la notion de taux d’accroissement sans passage a la limite.2. car il faudra en prae e e e tique d´couper le probl`mes en deux (l’un pour x ∈ [a. u 7. e e ` 7. lorsqu’elles portent sur la d´riv´e. Au contraire.2 Conditions de Dirichlet et de Neumann Les conditions aux limites qui portent sur la fonction sont dites de conditions de Dirichlet. les ´carts a la solution exacte seront g´n´ralement moindres.3. xi ) (7. Il est important de r´aliser que. et les erreurs e ` e e seront soit localis´es dans les r´gions de fortes variations (cas des m´thodes e e e de tir. On peut bien-sˆr rencontrer des situations o` les deux types de u u conditions co-existent. entach´e en chaque point d’une certaine e e erreur ∆y(x). L’incr´ment est tr`s simple a calculer: δi = hf (yi . comme dans toute approche num´rique. on augmente les contraintes et l’on limite l’accumulation des e erreurs (on permet a la solution de repartir sur des bases saines a chaque match` ` ing point). on parle de conditions de conditions e e de Neumann. x. Ces consid´rations sont illustr´es a la figure 7.8) comme u e e le d´veloppement de Taylor de y a l’ordre le plus bas. On pourrait classer ce type de e probl`me dans l’une des deux cat´gories pr´c´dentes.´ 7. voir §7. En e e raison de l’accumulation in´vitable des erreurs. d’autant plus que l’intervalle e e d’int´gration sera grand et que la fonction pr´sentera de fortes variations. e e la r´solution de probl`me. ` soit yi+1 = yi + hf (yi .4. Elle implique un sch´ma e ` e aux diff´rences finies. on aura facilement tendance a s’´carter e ` e de la solution exacte (g´n´ralement inconnue). la pr´cision ne pourra que se e e d´grader au fil de l’int´gration.

9) o` f (x. c’est-`-dire les e e a xi . xi ) + f (yi+1 . . On peut en effet choisir. y2 . Le sch´ma pr´dicteur donne une estimation de y i+1 e e e qui permet d’intuiter ou de pr´dire la valeur de la fonction en xi+1 . La premi`re ´tape consiste a ´crire e e e e `e xi+1 yi+1 = yi + xi f (yi . au moins en premi`re approximation.b] (7.b] est la pente moyenne de f sur l’intervalle d’´tude. On trouve une ` valeur approch´e de f (yi+1 . C’est la seconde e a ` e ´tape.10) e e e en estimant l’int´grale par la m´thode des trap`zes. elle suffira. de r´duire l’intervalle. xi+1 )) 2 (7. on parvient alors a xN ≡ b e e e ` apr`s avoir calcul´ successivement y1 . l’erreur croˆ lin´airement avec la distance d’int´gration.11) Cette formule est une formule implicite en yi+1 et elle n’est g´n´rallement pas e e inversible. qui conviendra si la fonction n’est pas trop variable et si l’intervalle de variation n’est pas trop grand. on ´value e e e e e l’incr´ment en deux ´tapes. soient tous ´quidistants. xi )dx (7. ou de e l’agrandir.14) pourra utiliser la d´riv´e seconde de y. y) 2 [a. la m´thode d’Euler est une m´thode simple. Notez qu’il n’est pas sp´cifi´ ici que les points de la grille. e 7. on ne connait encore pas yi+1 a ce stade. y) [a. a pas fixe. . ıt e e ` Toutefois.13) La m´thode de Heun met en jeu ce que l’on appelle classiquement un sch´ma de e e type pr´dicteur/correcteur. soit f . xi ) + f (yi + hf (yi .12) (7. en consid´rant que cette erreur est donn´e par l’erreur de troncae e e ture a chaque pas. soit yi+1 = yi + h (f (yi . . xi+1 )] 2 (7. soit ` ∆y ∼ h2 2 N i=1 f (xi . On r´alise alors une m´thode au pas adaptatif. Il est simple u e e e e de voir par cette analyse tr`s approch´e que si la fonction pr´sente une variation notable. selon la variation locale e de la fonction y que l’on est en train de calculer1 . xi+1 ) grˆce a la m´thode d’Euler. on a donc e e yi+1 = yi + 1 On h [f (yi . de pr´cision modulable e e e (∆y ∝ h2 ). pour obtenir une premi`re id´e des solutions d’un e e e probl`me. e e La m´thode d’Euler n’a pas bonne r´putation car elle propage tr`s bien e e e les erreurs et les amplifie g´n´reusement.11). pour tracer ces zones de forts gradients. yi ) ≈ N h2 f (x.74 ´ ´ CHAPITRE 7. Le sch´ma e e correcteur associ´ est donn´ par la relation (7. sachant y0 (la condition inie e tiale). l’erreur totale ∆y produite en x = b a l’issue de e ` l’int´gration.2 M´thode de Heun e Dans cette m´thode (encore appel´e m´thode de Newton modifi´e). yN . On a e pi+1 = yi + hf (yi . Dans bien des cas. Globalement. . xi ) ≈ yi+1 (7. On peut s’en convaincre en estie e mant. e e .4. du moins grossi`rement. xi ). De ce fait. EQUATIONS AUX DERIVEES ORDINAIRES partant de x0 ≡ a et en r´p´tant ce sch´ma N fois.

10 0.´ 7.7 0.9 1.0 0.6 0. .1 0.3 0.4: Comparaison de la m´thode d’Euler et des m´thode de Taylor e e d’ordre 2 et 3 pour l’´quation telle que f (y.4.4 0.2 0.05 Euler (Taylor ordre 1) Taylor ordre 2 Taylor ordre 3 −0.1. METHODES “MONO-PAS” 75 y p i+1 Euler y i+1 solution calculee solution exacte f(y i .1] pour une ` pas h = 0. x) = y.3: Dans la m´thode de Heun. e e e ` 0. la fonction y est d’abord estim´e en xi +h e e grˆce a la m´thode d’Euler. avec y(0) = 1. La valeur retenue pour yi+1 est a ` e alors calcul´e par la m´thode des trap`zes a partir de yi et de pi+1 .0 Figure 7.5 xi 0.00 ∆yi=yi−e x −0.8 0. soit yi+1 ≈ pi+1 . xi ) y i x x i+1 xi Figure 7. Est donn´ e e ici l’erreur absolue par rapport a la solution exacte y = ex sur [0.

ce qui n’est pas toujours le cas.21) .15) xi . etc.76 ´ ´ CHAPITRE 7. donc de f que l’on connaˆ De mˆme. on u e e c trouve y (3) = sin y x3 sin y + (3x + x3 ) cos y ≡ f (x. Prenons un exemple. a l’ordre 3 inclus. on calcule d’abord f = y .8) correspond a e ` l’omission des termes d’ordre n ≥ 2 de la s´rie de Taylor associ´e et d´pend e e e donc des d´riv´es seconde. On augmente ainsi consid´rablement la e pr´cision de l’estimation. f est une fonction de y et de f . donc de f . troisi`me. A l’ordre 2.19) et aisni de suite jusqu’` l’ordre voulu. elle e coincide avec la m´thode de Heun. Reste a ´crire le d´veloppement de Taylor a `e e associ´. y) (7.17) ce qui permet de produire un sch´ma du mˆme type que celui d’Euler. on obtient le sch´ma suivant e ` e yi+1 = yi + hxi sin yi + + h2 sin yi (1 + x2 cos yi ) i 2 (7. puis f = y (3) .yi ∞ n=3 hn d n y n! dxn (7.yi Par cons´quent. c’est-`-dire. De ıt.4). on peut a vraiment se passer de m´thode num´rique !).3 M´thode des s´ries enti`res e e e On voit que l’erreur commise dans l’´criture de la relation (7. f est une fonction de y . en tout rigueur e e e yi+1 = yi + f (yi . la m´thode d’Euler n’est rigoureusement exacte que lorsque la e e fonction f est une constante. Pour r´soudre y = x sin y par e e cette m´thode.18) o` l’on a remplac´ y par son expression. x) + dx dx dy n ∂ ∂ f (y. En l’occurrence. mais e e incluant autant de terme que l’on veut. De la mˆme fa¸on.4 M´thodes de Runge-Kutta e L’id´e g´n´rale qui sous-tend les m´thodes de Runge-Kutta d’ordre N repose e e e e sur la possibilit´ d’exprimer l’incr´ment yi+1 − yi sous la forme suivante e e N yi+1 − yi = h wj fj j=1 (7. EQUATIONS AUX DERIVEES ORDINAIRES 7.4. on a e e e dn f = dxn = dy ∂ ∂ f (y. soit e y = sin y + xy cos y = sin y + x(x sin y) cos y = sin y(1 + x2 cos y) ≡ f (x. en pratique. e mani`re g´n´rale.16) (7. 7. y) (7. x) +f dx dy n (7. jamais (sinon. xi )h + h2 df 2 dx + xi . On a en effet.20) h3 sin yi x3 sin yi + (3xi + x3 ) cos yi i i 6 La m´thode de Taylor est assez efficace (voir la figure 7. L’id´e de la m´thode de Taylor e e e e est simple: comme f est une fonction de y.4. Elle ne peut en revanche ˆtre mise en place e e que lorsque l’on peut effectivement calculer la d´riv´e d’ordre n de la fonction e e y.

5: Interpr´tation graphique de la m´thode de Runge-Kutta d’ordre 4.c)=f1 x b 3 Seconde estimation de y(c) et de la pente en x=c a partir de f(y(c).´ 7. e e 1 Calcul de la pente en x=a. et estimation de y(c) y 2 Premiere estimation de la pente en x=c. a partir de l’estimation de y(c) y pente f(y(a). METHODES “MONO-PAS” Figure 7.4.a) y(a) a c b x a y(a) c pente f(y(c).c) 4 premiere estimation de y(b) et de la pente en x=b a partir de f2 pente f 3 y pente f(y(c).c)=f 2 y f1 a y(a) c b x f2 a y(a) c b x 77 .

on doit introduire a la main l’un des e ` coefficients.4.6.21) soit ´quivalent e e e e a celui qui est associ´ a la m´thode des s´ries enti`res d’ordre N . par construction. d’une meilleure souplesse qu’avec la m´thode de Tay` e e e lor. EQUATIONS AUX DERIVEES ORDINAIRES o` fj = f (Yj . avec 0 ≤ αj ≤ 1 et u j−1 Yj = y i + k=1 βjk Yk (7. ` e e .78 ´ ´ CHAPITRE 7. . c’est-`-dire pour n → ∞.25) (7.5 M´thode de Burlish-Stoer e C’est probablement la m´thode la plus fiable. e` (7. autant de ` e m´thode de Runge-Kutta qu’on le souhaite. a pr´cision ´gale. h3 = .5). xi + ) 2 2 f3 = f (yi + hf2 . le syst`me d’´quations qui relient les coefficients αj . puis l’on calcule une pente moyenne (c’est le terme wj fj ) qui sert alors a calculer l’incr´ment par la m´thode d’Euler. xi ). βjk et e e e e wi entre-eux est sous-d´termin´ (il y a une ´quation de moins par rapport au e e e nombre d’inconnues). xi ) + 2f1 + 2f2 + f3 ] 6 (7. . h4 = . pour un ordre donn´. Les coefficients αj .27) h [f (yi . h n = 2 4 6 n par exemple en utilisant la m´thode de Runge-Kutta. xi ). xi + hαj ). Le nombre effectif n d’int´gration n’est e e e ` e pas connu a l’avance. Cette e e a proc´dure est r´sum´e a la figure 7. en particulier parce qu’il s’agit uniquement d’´valuer la fonction et pas ses e d´riv´es.24) 7. car il d´pend du taux de convergence de la s´rie {δ i }n . xi + h) f1 = f (yi + Un exemple est donn´ a la figure 7. l’incr´ment δi est calcul´ pour diff´rents pas d’int´gration e e e e e h1 = h. on estime la pente de la fonction y en N points de l’intervalle [xi . ce qui revient a pouvoir construire. On ben´ficie ` e` e e e e ainsi. Pour un intervalle d’int´gration e e donn´ [xi . . xi + h]. h2 = h h h h .23) Le sch´ma de Runge-Kutta d’ordre 4 est e yi+1 = yi + o` u h h f (yi . xi + ) 2 2 h h f2 = f (yi + f1 . Existe aussi la m´thode dite de Newton-Cauchy e modifi´e ou m´thode du point milieu qui a pour sch´ma e e e yi+1 = yi + hf yi + h h f (yi .7. e Les m´thodes de Runge-Kutta les plus utilis´es sont celle d’ordre 2 et celle e e d’ordre 4 (dont l’interpr´tation graphique est propos´e a la figure 7. xi + 2 2 (7. La e e ` m´thode de Runge-Kutta d’ordre 2 “classique” est ´quivalente a la m´thode e e ` e de Heun. βjk et ` e e les poids wi sont d´termin´s en imposant que le sch´ma (7. xi+1 ]. En cons´quence.26) (7. En fait.22) En d’autres termes. . puis on cherche la limite e de l’incr´ment quand le pas tends vers z´ro.

5 xi 0. on cherche la valeur de la fonction yi+1 dans la limite d’un pas d’int´gration nul.6: Comparaison de la m´thode de Runge-Kutta d’ordre 4 avec des e e e e m´thodes de Taylor d’ordre inf´rieur.2 0.8 0.4. Par approximations e successives.6 0.´ 7. METHODES “MONO-PAS” 79 0 −1 −2 −3 −4 −5 −6 −7 −8 Euler (Taylor ordre 1) Taylor ordre 2 (Heun) Taylor ordre 3 Taylor ordre 4 (Runge−Kutta) log10|∆yi=yi−e | x 0. Mˆme conditions de calcul que pour la figure 7. e .3 0.9 1.4 0.7 0.1 0. xi ) y solution exacte i x x i+1 y i+1 -y i increment exact n 1 2 3 4 xi Figure 7.4.7: Princide de l’int´grateur de Burlish-Stoer.0 Figure 7. y y i+1 n=1 n=2 n=3 n=4 f(y i .

quand le nombre de points est suffisant. yi−4 ). L’id´e est de repr´senter la pente de la fonction y (soit e e la fonction f elle-mˆme) par un polynˆme PN de degr´ N (par exemple par e o e l’approximation de Lagrange). xi−1 )) 2 (7. yi−3 ). xi−1 ) + 5f (yi−2 .30) h (23f (yi . xi−3 )) (7. fi−2 ). elles peuvent ˆtre instables et conduire a des oscillations. On peut les stabiliser en choississant e un pas plus petit. ` e u Par exemple.31) (7. Il en existe d’autres . a un sch´ma ` e multi-pas. on introduit le point (xi+1 .29) En pratique.80 ´ ´ CHAPITRE 7.33) 24 Les formules (7. xi−(N +1−k) ). on travaille a bas ordres. o u (xi−1 . xi ) − 59f (yi−1 . . (xi .33) constituent le sch´ma pr´dicteur-correcteur de e e Adams-Bashforth-Moulton d’ordre 4. EQUATIONS AUX DERIVEES ORDINAIRES 7.32). et ´vene e e tuellement (xi−4 .6) devient int´grable analytiquement e xi+1 yi+1 = yi + xi PN (x )dx (7. pour ´viter le ph´nom`ne de Runge. (xi−3 . pi+1 ) et on e e construit un second polynˆme qui met en jeu les quatre points (xi−2 . . Notez que l’on ne peut jamais utiliser une m´thode multie pas d`s le d´but de l’int´gration. le pr´dicteur est donn´ par la relation (7. la relation (7. Pour N = 2. fk ). par exeme ` ple si l’intervalle d’int´gration est grand. on impose donc PN (xi−(N +1−k) ) = f (yi . N + 1 (7. xi ) − 16f (yi−1 . Elles e e e e constituent ce que l’on appelle des m´thodes mono-pas. ` e e e Pour N = 1.5 M´thodes “multi-pas” e Les m´thodes d´crites pr´c´demment permettent d’estimer la fonction en xi+1 e e e e connaissant uniquement la fonction et sa d´riv´e au point pr´c´dent xi .28) Ainsi. 3 et 4 on trouve les e formules d’Adams-Bashforth • pour N = 2 yi+1 = yi + • pour N = 3 yi+1 = yi + • pour N = 4 yi+1 = yi + h (3f (yi . xi ) + f (yi−1 . Pour e e produire un sch´ma correcteur associ´. xi−2 )) 12 h (55f (yi . fi ) et (xi+1 . k = 1. yi−2 ). fi+1 ) o` fi+1 ≡ f (pi+1 . yi+1 = yi + Les m´thodes multi-pas sont tr`s pr´cises. les e m´thodes multi-pas permettent d’acc´der a yi+1 a partir de toute l’information e e ` ` disponible sur y. xi+1 ). xi−2 ) − 9f (yi−3 .32) et (7. (xi−2 . . Pour N + 1 points successifs (xk . e e e g´n´ralement 3 ou 4. On peut alors d´marrer avec un sch´ma de e e e e e Runge-Kutta puis passer. yi−1 ). on retrouve la m´thode d’Euler. Par opposition. e e e En revanche.32) Un variante consiste a utiliser ces formules comme pr´dicteurs o` pi+1 ≈ yi+1 . On obtient sur le mˆme principe e h (fi−2 − 5fi−1 + 19fi + 5fi+1 ) (7. On utilise un certain nombre de points calcul´s pr´c´demment. pour N = 4. g´n´ralement plus pr´cises que les e e e e e e m´thodes mono-pas (exception faite peut-ˆtre de l’int´grateur de Burlish-Stoer). xi−1 ) 24 +37f (yi−2 . fi−1 ). soientt (xi−1 .

´ 7. Si c’est le cas. par exemple si la vitesse de tir est limit´e ou/et l’angle impos´. L’exemple du tir ballistique permet de fixer les id´es: on sait les conditions tr`s particuli`res qu’il faut r´unir simultan´ment pour e e e e qu’un projectile partant d’un point A(a.6 M´thodes de tir e a e e e Jusqu’` pr´sent. on cherchera y + (a) et y − (a) (ou des conditions sur la d´riv´e en e e x = a). 7. on proc´dera par dichotomie en cherchant d’abord e e deux jeux de conditions initiales qui permettront d’encadrer la condition “finale” souhait´e. une diffie cult´ qui n’est pas pr´sente pour les probl`mes aux conditions initiales.6. e il faudra “r´gler” la vitesse ou/et l’angle de tir.8.8: Dans la m´thode de tir simple. on int`gre l’´quation a partir d’un e e e ` contour en cherchant a atteindre la condition a l’autre contour. on voit que le probl`me aux conditions aux contours peut-ˆtre assez nae e turellemnt converti en un probl`me aux conditions initiales devant satisfaire une e condition finale. si yb d´signe la condition a la limite en x = b que doit e e ` satisfaire y. e illustr´e a la figure 7. nous avons essentiellement parl´ des m´thodes relatives aux probl`mes aux conditions initiales. Par exemple. Cela se con¸oit facilement si l’on souvient que la fonction est contraintes par sa valeur ou par la valeur de sa d´riv´e e e e en x = a et en x = b. D’autre e e e part. Les choses se compliquent un peu pour les e e c probl`mes aux conditions aux contours. Il n’est d’ailleurs pas garanti que l’on puisse toujours atteindre l’objectif. y(b)). Deux aspects fondamentaux des probl`mes de conditions aux contours e sont illustr´s ici.34) . une fois a int´gr´es jusqu’en x = b. On peut ` ` ´galement int´grer des deux cot´s simultan´ment en cherchant a “joindre les e e e e ` e deux bouts” en un point interm´diaire. Il y a d’une part la non-existence possible de solution. e ` Pour trouver la solution d’un probl`me avec conditions aux contours a l’aide e ` d’une m´thode de tir simple. METHODES DE TIR 81 solution y tir 2 y tir 2 solution y(b) tir 3 y(b) tir 2 tir 1 tir 1 tir 1 y(a) x a b a b y(a) x Figure 7. elles satisfassent e e (y + (b) − yb )(y − (b) − yb ) ≤ 0 (7. on e e r`glera progressivement l’angle de tir (respectivement la vitesse) afin d’atteindre e la cible. on op`rera en pratique par approxe e e imations successives: pour une vitesse initiale donn´e (ou un angle donn´). C’est justement ce que l’on appelle une m´thode de tir simple. y(a)) parvienne en un point B(b. c’est-`-dire finallement deux fonctions y − et y + telles que.

EQUATIONS AUX DERIVEES ORDINAIRES y(b)-y b solution y. consiste a ´crire le sch´ma aux e e e `e e diff´rence finies associ´ a l’´quation diff´rentielle en N points de grille x i (r´gue e` e e e li`rement) r´partis sur [a. comme indiqu´ e e e a la figure 7. Par exemple. N − 1]  h2    2φN − 5φN −1 + 4φN −2 − φN −3   − sN = 0.(a) 0 y+ (a) y(a) Figure 7. e ` φ (x) − s(x) = 0 (7. A l’ordre 2 inclus (sur les bords comme au e e e centre). e ` e On peut ´galement proc´der a un double tir. on commence par ´crire u e le sch´ma aux diff´rences associ´. o` x d´signe une condition sur un contour et f l’erreur sur u e la valeur de la condition a l’autre contour. ` Des tirs de plus en plus ress´r´s autour de y + et y − permettront alors d’approcher e e la solution. On pourra alors utiliser toutes sortes de strat´gies d´di´es a la ` e e e ` recherche de z´ro ou a la minimisation de fonctions ou de syst`me de fonctions. plus c e rapide aussi. l’un correspondant a une e e ` ` int´gration depuis x = a vers b et l’autre a une int´gration dans le sens ine ` e verse. pour une ´quation d’ordre 2 telle que e e e l’´quation de Poisson a une dimension. b]. i=1    h2   φi−1 − 2φi + φi+1 − si = 0. i=N h2 . mais g´n´ralement moins pr´cise. 7. i ∈ [2.82 ´ ´ CHAPITRE 7.7 Sch´mas aux diff´rences finies e e Une autre fa¸on d’aborder les probl`mes aux conditions aux contours.35) o` φ est le potentiel et s une fonction source connue. Ici x ≡ y(a) et f ≡ y(b) − yb . e e e e e En pratique. on est amen´ a r´soudre une fonction e e` e du type f (x) = 0. sous r´serve que l’´quation diff´rentielle soit suffisamment r´guli`re.9: Dans la m´thode de tir simple. on a   2φ1 − 5φ2 + 4φ3 − φ4 − s1 = 0. de minimiser) l’´cart ene tre la condition souhait´e sur l’autre contour et cette calcul´e.9. en cherchant un point de raccordement quelque part sur l’intervalle. il s’agira finalement d’annuler (du moins.

` Ecrivez un sch´ma de type pr´dicteur/correcteur en ´valuant l’int´grale e e e e dans la formule (7.   On ´crira ce syst`me sous forme matricielle e e ¯ Aφ = B (7.      −2φ2 + φ3 = s2 h2 − φ1 . e Construisez votre propre int´grateur de type Burlish-Stoer. On ´limine alors 2 ´quations. N − 3] et on d´terminera les solutions du syst`me par des m´thodes appropri´es.` 7.. e e e e 7. par la m´thode d’Euler. i ∈ [3.       φN −2 − 2φN −1 = sN −1 h2 − φN . Comparez la m´thode pour diff´rents e e pas. Come e e e parez a la solution exacte. i=N −1     2 −5φN −1 + 4φN −2 − φN −3 = sN h − 2φN .23). le syst`me pr´c´dent se e e e e e r´-´crit ee   −5φ2 + 4φ3 − φ4 = s1 h2 − 2φ1 . i=2      . la r´solution est souvent facilit´e par le fait que la e e e matrice est nulle sauf sur.8 Exercices et probl`mes e Estimez la trajectoire d’une plan`te en orbite circulaire autour d’une e ´toile.   φi−1 − 2φi + φi+1 = si h2 . pour ` e obtenir  3φ3 − 2φ4 = (2s1 − 5s2 )h2 + φ1 ..8. Dans ce type de m´thode. Pour e e e e les sch´mas de bas ordre. N − 1]). −2φN −1 + 3φN = (2sN − 5sN −1 )h2 + φN . Programmez la e e m´thode et comparez les r´sultats a la solution exacte.24) et (7... e l’erreur est donn´e par la pr´cision du sch´ma aux diff´rences. On aboutit alors a un syst`me de N ´quations lin´aires dont les inconnues ` e e e sont les N − 2 valeurs φi (avec i ∈ [2.10) par la m´thode de Simpson. e Programmez l’exemple ci-dessus. et autour de la diagonale. i ∈ [3. EXERCICES ET PROBLEMES 83 Si le potentiel φ est sp´cifi´ aux deux bords x1 et xN . Ecrivez le sch´ma d’ordre 4 correspondant a un d´veloppement de Taye ` e lor pour l’´quation diff´rentielle suivante: y (x) = 1 + y 2 (x). e .36)   φi−1 − 2φi + φi+1 = si h2 . e e celles correspondant a i = 2 et i = N − 1 que l’on r´-injecte sur les bords. N − 3]    . en utilisant diff´rents pas d’int´gration. e e ` Etablissez les relations (7. Etablissez un sch´ma de Runge-Kutta d’ordre 5.

EQUATIONS AUX DERIVEES ORDINAIRES Montrez que m´thode d’Adams-Bashforth obtenue pour N = 1 coincide e effectivement avec la m´thode d’Euler. .84 ´ ´ CHAPITRE 7. Mˆme question concernant les relations (7.32) e et (7. e En vous inspirant de la d´marche suivie D. Comparez avec la solution e e dx exacte en fonction du nombre de points de grille. ´tablissez les formules d’Adamse e Bashforth-Moulton pour N = 3.33). 1] avec ρ(x) = 1 − x2 et r´soudre le probl`me pour dΨ (0) = 0 et Ψ(1) = 0. Ecrire le sch´ma aux diff´rences finies pour l’´quation de Poisson a une e e e ` dimension ∆Ψ(x) = 4πGρ(x) sur l’intervalle x ∈ [−1.

On d´terminera ensuite le spectre ´mis e e e e par le disque dans deux cas limites: i) le disque ´met en chaque point un spece tre de corps noir.1 Structure interne des ´toiles e Il s’agit de r´soudre les ´quations “les plus e e simples” r´gissant la structure interne des e ´toiles a sym´trie sph´rique et chimiquement e ` e e homog`nes. Giuli R. Techniquement. quatre e e ´quations forment un syst`me diff´rentiel e e e ordinaire du premier ordre hautement nonlin´aire que l’on propose de r´soudre par e e la m´thode du tir. production d’´nergie. e 85 .2 Image et spectre d’un disque autour d’un trou noir de Schwarzschild Il s’agit de calculer l’apparence d’un disque d’accr´tion autour d’un trou noir de e Schwarz-schild tel que le verrait un observateur situ´ a l’infini. a r´aliser la continuit´ des quatre ` e e fonctions int´gr´es en un point interm´diaire. par it´ration e ` e successives sur les quatre conditions aux limites (deux sont donn´es au centre.Chapitre 8 Applications astrophysiques 8.. Cette m´thode consiste e e a int´grer simultan´ment les ´quations du ` e e e syst`me a partir du centre et de la surface e ` de l’´toile puis a chercher. e e e Diff´rents niveaux de r´alisme dans la description physique peuvent ˆtre ene e e visag´s (´quation d’´tat. in “Principles of stellar structure.T. I”. etc. e` il “suffit” de r´aliser un programme de trac´ de rayons dans un espace courbe e e d´crit par la m´trique de Schwarzschild. opacit´. et ii) le disque ´met en chaque point une raie infiniment mince. “Structure et ´volution des ´toiles” e e e • Cox J.) e e e e e R´f´rences ee • P´quignot D. Gordon & Breach 8. Cours de DEA. 1968.. convection. et deux e en surface).P. Vol. En r´gime stationnaire..

Toutefois. c’est-`-dire que les trajectoires de la mati`re autour de l’objet central sont des orbites k´pl´riennes. Astron. l’analyse globale montre que le disque peut survivre a l’instabilit´ thermique en adoptant un comportement ` e non-stationnaire. Il faudra dans un premier temps construire un mod`le num´rique de disque e e stable et stationnaire (Taam & Lin. polycopi´ e . 1994.. 287. 1979. 1984. & Astrophys. Sunyaev R. A&A.. Marck. 553 • Hameury.. Astrophys.N. J.E.... APPLICATIONS ASTROPHYSIQUES • Luminet J. Pelat.I. 761 • Shakura N. J. Astrophys.3 Instabilit´ thermique d’un disque d’accr´tion e e de Sakura-Sunyaev Un disque d’accr´tion est une structure applatie dans laquelle la mati`re est e e transport´e vers le centre et le moment cin´tique dans la direction oppos´e. il a e se r´chauffe plus vite qu’il ne se refroidit.-M.A. Dans beaucoup de cas.E. c’est-`-dire que lorsque sa temp´rature augmente. 349.C. 1990. On augmentera ensuite le taux d’accr´tion jusqu’au seuil d’instabilit´ et on adaptera le mod`le num´rique de e e e e fa¸on a pouvoir suivre le comportement dynamique du disque.. 1973). R. Un tel comportement devrait cone ` duire a la destruction du disque..-A. D’un point de c ` vue num´rique. & Astrophys. on suppose que le disque est e e e a e k´pl´rien. 1973... Dans e e e le mod`le “standard” (Shakura & Sunyaev. Astron.. 1984).P. 337 • Pelat D... il faudra s’initier a la r´solution de syst`mes d’´quations aux e ` e e e d´riv´es partielles par des m´thodes aux diff´rences finies suivant les sch´mas e e e e e implicites et/ou explicites. 75. 287.86 R´f´rences ee CHAPITRE 8. ee R´f´rences • Taam. J. le disque devient localement thermiquement instable. & Lin D. 24. J. cela est une tr`s bonne e e e e approximation. Pour certains taux d’accr´tion. D. R. 795 Cas d’un trou noir de Kerr 8. 228 • Fu & Taam.

statione` e e naire. le probl`me stationnaire met en jeu la e e r´solution d’une ´quation diff´rentielle ordinaire mono-dimensionnelle (ODE) e e e avec franchissment d’une singularit´ (correspondant en fait au passage du point e sonique). non-magn´tis´.8. les ´toiles. MNRAS. on abordera le cas d´pendant du e temps et en particulier l’installation de l’´coulement ainsi que la sensibilit´ de e e la dynamique du vent aux conditions aux limites.4..J. On traitera d’abord le cas stationnaire et on ´tudiera en pare ticulier la topologie des solutions en fonction des param`tres de contrˆle que e o sont la vitesse du vent a la base de ` la couronne et la temp´rature du gaz. e e Il est acc´l´r´ a la base de la couronne et s’´tend dans tout le syst`me solaire ee e` e e fouettant notamment les plan`tes sur son passage. 1960. 195 8. A e e cause de ce ph´nom`ne. la vitesse du e vent est faible. etc. les gaz sont non-d´g´n´r´s et quasie e e e e ment a l’´quilibre thermodynamique local (ETL). Le probl`me d´pendant du temps est un probl`me aux d´riv´es pare e e e e tielles (PDEs) avec conditions aux contours (TBVP). R´f´rences ee • Philips K.N. 1995. 1952.4 Vent solaire C’est a Parker que l’on attribue les id´es fondatrices de la th´orie du vent solaire ` e e dont l’existence fut d´finitivement ´tablie dans les ann´es 1950 par l’observation e e e des com`tes puis confirm´e par les mesures de la sonde spatiale Mariner-2 la e e d´cennie suivante. les disques e e ` e e d’accr´tion. e Vents de Parker (d’apr`s I. Initialement.. CUP • Parker E.5 Equation de Saha La connaissance de l’´quation d’´tat des gaz est fondamentale pour comprene e dre la nature des fluides astrophysiques comme ceux qui composent le milieu interstellaire. ApJ. e Puis. Zouganelis. Le vent emporte avec lui le champ magn´tique de Soleil. in ‘Guide to the sun”. de l’ordre de 10−14 M /an (aujourd’hui). mais celle-ci croˆ au fur et a mesure qu’il s’´coule dans l’espace ıt ` e interplan´taire pour atteindre plusieurs centaines de kilom`tres par seconde. 132.. VENT SOLAIRE 87 8. et isotherme (on e e pourra toutefois envisager une solution polytropique). 1952).H. les ´toiles a neutrons. On ´tudiera l’´coulement du vent soe e laire d’apr`s le mod`le hydrodynamique e e simplifi´ de Parker (1960): le fluide est e suppos´ a sym´trie sph´rique. 2001/2002) e Du point de vue m´thodologique. DEA prom. On pourra ainsi voir comment un vent peut se transformer en une accr´tion (Bondi. a un taux e e ` toutefois relativement faible. Dans nombre de situations. 112. le Soleil perd inexorablement de sa masse. les plan`tes g´antes. 821 • Bondi H. C’est notamment le cas du ` e .

Par exemple. Soc. 18. 1964a et 1964b. . On pourra ensuite impl´menter une e ` e m´thode de type PM. . . Ann. pere e mettant d’augmenter le nombre de particules (et ainsi d’accroˆ le degr´ de ıtre e r´alisme de l’exp´rience) sans augmenter le temps de calcul de mani`re proe e e hibitive.. etc. le gaz peut revˆtir diff´rents aspects physico-chimiques: totalement e e e ou partiellement ionis´.P.. Par ailleurs. De nombreuses extensions sont possibles. P ) donn´. Tokyo Astron. Cox & Giuli. l’´nergie interne. Il faudra construe ` ire un int´grateur de mouvement particuli`rement fiable et traiter soigneusement e e le probl`me des rencontres a deux corps. On envisagera tout d’abord une mod´lisation de type e “PP” ou les interactions sont calcul´es “particule a particle”.. ceci par e e le biais de la m´canique statistique (Tsuji. etc. Japan. neutre. a partir d’un m´lange initial e e ` e d’´l´ments (H:He:C:N:O:. Gordon & Breach 8. APPLICATIONS ASTROPHYSIQUES gaz de l’interieur du Soleil. le probl`me consiste essentiellement a e e ` r´soudre une ´quation vectorielle du type F (X) = 0. . jouent alors un rˆle cl´ dans l’´quilibre ou l’´volution o e e e du milieu lui-mˆme. ). Dans ce projet. Pub. e e e Dans ce projet. Vol. 1964b. R´f´rences ee • Tsuji T. s’il peut ˆtre juse e e tifi´ par ailleurs. 127 • Tsuji T. Dans le cadre de l’ETL.. la d´termination des composants chimiques d’un gaz de type e e parfait pour une temp´rature T et une pression P donn´es est grandement fae e cilit´e par le fait que l’on peut s’affranchir de la connaissance des m´canismes e e microscopiques qui forment et d´truisent les esp`ces individuellement. l’entropie.6 Dynamique des disques stellaires On peut simuler les instabilit´s spirales ou de barres d’un disque d’´toiles par e e une mod´lisation num´rique de type N-corps et comprendre ainsi certains ase e pects de la dynamique galactique. On pourra ´ventuellement traiter la condensaee e e e e tion (´quilibre gas/grain) et en d´duire des quantit´s thermodynamiques fondamentales comme le poids mol´culaire moyen. in “Principles of stellar structure. Il sera int´ressant de pouvoir modifier a loisir le e ` m´lange d’´l´ments (H:He:C:N:O:. Obs. ´missif.88 CHAPITRE 8. le syst`me e e e est “raide”. e e e Les propri´t´s globales qui en d´coulent.) e e e qu’un milieu compl`tement ionis´. mol´culaire ou condens´ sous forme de grains. e ee Du point de vue m´thodologique. un milieu froid constitu´ majoritairement e e de mol´cules H2 n’aura pas le mˆme comportement (dynamique. . 2nd Ser. I”. 1965). 1 • Cox J. 9. ).. 1968. notamment les propri´t´s radiatives ee e ee et thermodynamiques. Selon la temp´rature du milieu et sa pression (ou e sa densit´). 1964a. il s’agira d’´tudier l’´volution e e temporelle d’un ensemble de N particules mat´rielles (les ´toiles) ´voluant dans e e e un champ comprenant ´ventuellement un champ central (trou noir) et le champ e propre du disque stellaire. Giuli R. voire une structure hi´rarchique de type “tree-code”. on mettra en place un outil permettant de r´soudre l’´quilibre de Saha (´quilibre ions/neutres) et l’´quilibre de dissociation (´quilibre neue e e tres/mol´cules) pour un couple (T. les e e gradients adiabatiques.T.

. 61 Instabilit´s dans les disques galactiques e (d’apr`s Semelin & Combes.A... 715 • Selwood J. ApJ. New-York.7.7 Fluide cosmologique et formation des grandes structures La formation des galaxies dans l’Univers primordial a ´t´ d´termin´e par la ee e e structuration de la mati`re a grande ´chelle. 64. On pourra e e e ainsi. FLUIDE COSMOLOGIQUE ET FORMATION DES GRANDES STRUCTURES89 Du point de vue m´thodologique. observer l’effondrement ou la diffusion de structures a petite ´chelle. Carlberg R. 2002) e 8. selon les conditions initiales. e e e R´f´rences ee • Hockney R. ApJ.W. 1981.8.G... Eastwood J.W. 282. Mc Graw Hill • Hernquist L. ` e Du point de vue m´thodologique. r´gul´e par les param`tres cosmologiques “habituels”. 1984. le probl`me consiste essentiellement a e e ` r´soudre des ´quations aux d´riv´es partielles (PDEs). L’originalit´ de e ` ` e l’´tude vient du fait que les ´quations du mouvement doivent inclure l’expansion e e de l’Univers. 1987. in “Computer simulations using particles. e e e e . On mettra en place un outil permettant la simulation d’un fluide de e mati`re noire (non-collisionnelle) a une puis a deux dimensions. On peut en ´tudier le m´canisme e ` e e e grˆce a un suivi de l’´volution spatio-temporelle de perturbations initiales de a ` e densit´. le probl`me consiste essentiellement a e e ` r´soudre des ´quations diff´rentielles ordinaires (ODEs).

.. APPLICATIONS ASTROPHYSIQUES Distribution spatiale de la matire noire a diff´rents redshit ` e dans un scnario ΛCDM (Courty. 2002).W. 241 • Courty S. ApJ..W. in “Computer simulations using particles. R´f´rences ee • Hockney R. New-York. 1985. Mc Graw Hill • Efstafhiou G. 1981.90 CHAPITRE 8. et al. 57.. Eastwood J. polycopi´ e .

Blunn. 1995. 1961. F.M. W. de l’Ecole Polye technique de Montr´al [5] M´thodes num´riques. 1965. J. 1965. Vol.D. Z. CUP.H. Chapman & Hall LTD [8] Computing methods. Pergamon Press LTD Revues p´riodiques e [10] Computer Physics Communications [11] Computer Physics Communications [12] Computing in Science and Engineering [13] Journal of Computational Physics [14] Journal of Mathematical Physics [15] Mathematics of Computation 91 .. Blunn. 2nd edition [3] Numerical receipes. A..Bibliographie [1] Numerical methods for Mathematics Science and Engineering.B. Press-Hall International Inc. Pergamon Press LTD [9] Computing methods.. 1992. Mathews. Press-Hall International Inc. the art of scientific computing. Kopal. Fortin. 1970. Kuntzmann. J.. Booth A.H. e e e e Dunod [6] Introduction to numerical analysis. 1992. J. Hildebrand. McGraw-Hill [7] Numerical analysis. 2nd edition e e [4] Analyse num´rique pour ing´nieurs. 2nd edition [2] Numerical methods that work. Booth A. II. Vol. O.Mathews. Ed. Press et al.D. I. Interpolation — D´riv´es. 1959.M.H.. O. 1956.

92 BIBLIOGRAPHIE .

Among the packages cataloged are : the IMSL. documentation. computing matrix eigenvalues. and performing nonlinear regression. as well as other collections such as the Collected Algorithms of the ACM. NAG. This represents some 10. To find an appropriate class. and STARPAC packages. source code of proprietary software products are not available. FISHPACK. One of the products of this work is an on-line cross-index of available mathematical software. it provides centralized access to such items as abstracts. The vast majority of this software represents Fortran subprograms for mathematical problems which commonly occur in computational science and engineering. FFTPACK. and source code of software modules that it catalogs. and SLATEC libraries.nist. Search 93 . . [. the DATAPLOT and SAS statistical analysis systems. This system also operates as a virtual software repository. or enter keywords which are then mapped to problem classes. and netlib. Currently four software repositories are indexed: three maintained for use by NIST staff (but accessible to public).gov/. All cataloged problem-solving software modules are assigned one or more problem classifications from a tree-structured taxonomy of mathematical and statistical problems. one can utilize the taxonomy as a decision tree. the BLAS.000 problem-solving modules from more than 100 software packages. solving nonlinear systems of differential equations. this system provides transparent access to multiple repositories operated by others. The Guide to Available Mathematical Software project of the National Institute of Standards and Technology (NIST) studies techniques to provide scientists and engineers with improved access to reusable computer software which is available to them for use in mathematical modeling and statistical analysis. PORT. EISPACK. Users can browse through modules in any given problem class. LAPACK. That is. Note that although both public-domain and proprietary software is cataloged here. although related items such as documentation and example programs often are. ]. however. such as solution of systems of linear algebraic equations. a publically accessible software collection maintained by Oak Ridge National Laboratory and the University of Tennessee at Knoxville (netlib in Tennessee) and Bell Labs (netlib at Bell Labs). LINPACK. finding minima of nonlinear functions of several variables.Appendice A GAMS: Project Summary Extrait de http://gams. . FNLIB. evaluating the special functions of applied mathematics. rather than operate a physical repository of its own.

94 APPENDICE A. users can browse through all modules in a given package. In addition. ] . . [. . GAMS: PROJECT SUMMARY filters can be declared which allow users to specify preferences such computing precision or programming language. or all modules with user-supplied keywords in their abstracts. all modules with a given name.

2N − 1. . Il y a 2N inconnues dans cette formule: les N abscisses xi u (ou noeuds) et les N coefficients wi (les poids). . . Ceci permet d’augmenter le degr´ de pr´cision des o e ee e e e m´thodes associ´es. On a en effet: e e e   2   k + 1 si k est pair . pour k = 0. Choisissons par exemple la base Qk (x) = xk . La difficult´ majeure est que ce syst`me n’est pas lin´aire.Appendice B Quadrature de Gauss-Legendre L’id´e g´n´rale de la m´thode de Gauss est d’imposer des contraintes sur les x i e e e e o` la fonction f est ´valu´e. on calcule l’int´grale e e e e 1 d´finie −1 f (x)dx a l’aide de N ´valuations de f aux points x1 . . de fa¸on a ce que la m´thode soit exacte pour des u e e c ` e polynˆmes de degr´s ´l´v´s. Q2N −1 une base des polynˆmes de degr´ 2N − 1. Il est donc. Dans la m´thode de Gauss-Legendre. . . Une o e condition n´cessaire et suffisante pour que la formule d’int´gration soit exacte e e jusqu’aux polynˆmes de degr´ 2N − 1 est o e 1 N Qk (x)dx = −1 i=1 wi Qk (xi ). . La formule pr´c´dente constitue un syst`me de 2N ´quations a 2N incone e e e ` nues. . Comme un polynˆme de degr´ 2N − 1 est d´fini o e e par 2N coefficients. 95 . . 1. 1 k+1 1 − (−1) k = x dt =  k+1 −1   0 si k est impair . . . soit e ` e 1 −1 N f (x)dx ≈ wi fi i=1 o` fi ≡ f (xi ). . 1. pour k = 0. en principe. xN . il semble alors possible d’exiger que la formule d’int´gration e ci-dessus soit exacte pour les polynˆmes de degr´ 2N − 1 (et donc pour tous les o e polynˆmes de degr´ k ≤ 2N − 1). 2N − 1. . . Q1 . Il faut alors r´soudre e 1 −1 N xk dx = i=1 wi Qk (xi ). . L’int´grale est facilement ´valu´e. x2 . o e Soit Q0 . . donc difficile a e e e ` inverser. possible de s’imposer 2N contraintes.

96 APPENDICE B. si n = m Cette propri´t´ fait que PN est orthogonal a tous les polynˆmes de degr´ ee ` o e k < N .. . c’est-`dire e e a 1      2  = . .. ` Dans ces conditions. Si l’on suppose les xi connus.. i=1 . le syst`me a r´soudre s’´crit maintenant e ` e e  N     wi = 2 . 2N − 1. QUADRATURE DE GAUSS-LEGENDRE Ce qui conduit au syst`me suivant e N wi = 2 .     i=1      . Les polynˆmes de Legendre sont orthogonaux sur le domaine d’int´gration qui nous int´resse. . permet de d´terminer les e e e e e e wi . Prenons e o en effet Qk (x) = xk pour k = 0. les N premi`res ´quations forment un e e syst`me lin´aire qui.     i=1    N     w i xi = 0 . N wi x2N −2 i i=1 N wi x2N −1 i i=1 dont la r´solution n’est pas triviale..     N N  1 − (−1) N −1 (B.2) = w i xi . o` PN est le polynˆme de Legendre de degr´ N . . . . sous r´serve de r´gularit´.1) Pn (x)Pm (x)dx = −1 0. . . . N − 1 et Qk (x) = xk−N PN (x) pour k = N. 2 2n+1 si n = m. . i=1 N w i xi = 0 . 2N − 1. Il est toutefois possible d’aboutir a un e ` syst`me plus simple par un choix judicieux des polynˆmes de base Qk .                       (B. En particulier. w i xi   i=1 Ce syst`me de 2N ´quations a 2N inconnues se scinde en deux sous-syst`mes e e ` e 1..  N  i=1     N     wi PN (xi ) = 0 . ils forment o e e o e o une base des polynˆmes de degr´ 2N − 1. . . par cons´quent. 1..     N    N −1  PN (xi ) = 0 . PN (x) est orthogonal a xk−N pour k = N.  2N − 1            = 0. .     i=1      . . Il est clair u o e que les Qk sont des polynˆmes de degr´ k et que.

Ce d´terminant n’est pas nul car les xi sont tous distincts. 1  x1 x2 .. e Nous allons d´montrer d’une part que le premier sous-syst`me est r´gulier e e e et d’autre part que la condition suffisante Pn (xi ) = 0 est aussi n´cessaire.. PN (xi ) = 0 et le sous-syst`me sera toujours satisfait. i Cette derni`re formule montre que les wi sont des r´els strictement positifs. a o Soient Li les polynˆmes de Lagrange correspondants aux points xi . e Premier sous-syst`me. e e Second sous-syst`me. .. Le premier sous-syst`me admet alors une solution unique qui e e peut ˆtre calcul´e en inversant la matrice de Vandermonde. . . Supposons les xi connus (par exemple les solutions e de PN (x) = 0 ). Raisonnons par l’absurde et supposons qu’il existe au moins un xi tel . .. N − 1... . Il se trouve e que ces racines sont r´elles. x2  . Les N derni`res ´quations sont toutes de la forme i=1 wi xk PN (xi ) = 0 e e i pour k = 0.. Le mˆme e e e raisonnement s’applique et on trouve alors 1 wi = −1 L2 (x) dx . reste a montrer que cette solution est ` unique. le syst`me lin´aire e e e est donc r´gulier. xN    2  x1 x2 . . . Nous avons vu que ce sous-syst`me est satisfait si les e e xi sont les N solutions de PN (x) = 0. Mais on a Li (xj ) = δij d’o` u 1 wi = −1 Li (x) dx . Il vient 1 N Li (x)dx = −1 j=1 wi Li (xj ) ...  N N N x1 −1 x2 −1 . 2 N    . .97 2.. il en est de mˆme de Li (xj ) et comme le polynˆme L2 e o i est de degr´ 2N − 2. Si les xi sont les N racines de PN (t).. xN −1 Il s’agit d’une matrice de Vandermonde dont le d´terminant D vaut : e D= i<j N (xi − xj ) . Il est cependant e e possible de trouver une expression plus utile grˆce aux polynˆmes de Lagrange. 2 Mais si Li (xj ) = δij . la matrice de ce syst`me lin´aire s’´crit alors: e e e   1 1 . en e d’autres termes que la solution du syst`me (B... . distinctes et comprises entre −1 et 1.. il est lui-aussi int´grable par Gauss-Legendre. on aura pour tout i.2) est unique. Le o polynˆme Li est de degr´ N −1 son int´gration par la formule de Gauss-Legendre o e e est donc exacte.

N j=1 N −1 wj Li (xj )PN (xj ) = 0 .88888 88888 88889 = 8/9 0.18343 46424 95650 0 0.53846 93101 05683 0 0. 6 4.17132 44923 79170 0. 3 1. 5 3. Il e resterait a d´montrer que les xi sont bien des r´els distincts compris entre −1 ` e e et 1. wj δij PN (xj ) = 0 .47862 86704 99366 0. Il s’agit en fait d’une propri´t´ classique des polynˆmes de Legendre! ee o . 6 3.98 N 1 2 3 4 5 APPENDICE B.79666 64774 13627 0.36268 37833 78362 poids wi 6 7 8 ´e Table B. 7 2.57735 02691 89626 0. 5 2. il vient alors 1 Li (x)Pn (x)dx = 0 .34785 48451 37454 0.10122 85462 90376 0.33998 10435 84856 0.56888 88888 88889 0. Le polynˆme Li (x)PN (x) est de degr´ 2N − 1.36076 15730 48139 0.41795 91836 73469 0.94910 79123 42759 0.40584 51513 77397 0 0.77459 66692 41483 noeuds xi 2 1 0. 5 4 1. il est int´grable o e e par Gauss-Legendre. 4 1.55555 55555 55556 = 5/9 0.31370 66458 77887 0.23692 68850 56189 0. j=1 wi PN (xi ) = 0 . que PN (xi ) = 0.27970 53914 89277 0.22238 10344 53374 0.90617 98459 38664 0.74153 11855 99394 0.1: El´ments pour le calcul de la formule de Gauss-Legendre pour N ≤ 12. 4 3 1.93246 95142 03152 0.96028 98564 97536 0. 5 0 0.66120 93864 66265 0.46791 39345 72691 0. 8 2.12948 49661 68870 0.52553 24099 16329 0.65214 51548 62546 0.86113 63115 94053 0. Mais cette derni`re condition est contradictoire puisque wi > 0 et que l’on e a suppos´ que PN (xi ) = 0. Il n’existe donc pas de xi tels que PN (xi ) = 0. 3 2 1. 6 2. 4 2. 2 1.23861 91860 83197 0. QUADRATURE DE GAUSS-LEGENDRE i 1 1. 7 3.38183 00505 05119 0.

12 2.97390 65235 17172 0. 9 0. 10 4.18064 81606 94857 0.58731 79542 86617 0.26061 06964 02935 0.14887 43389 81631 poids wi 0. .06667 13443 08688 0. 11 0.26954 31559 52345 6 0 1. 9 2.32425 34234 03809 0 0.23319 37645 91990 0. 8 3.99 N 9 i 1. 11 3.23349 25365 38355 0. 7 0.04717 53363 86512 0. 6 noeuds xi 0.16007 83285 43346 0. 9 5. 8 0.90411 72563 70475 0.97822 86581 46057 2.21908 63625 15982 0.05566 85671 16172 0.61337 14327 00590 0.24914 70458 13403 10 11 1.31234 70770 40003 0.36783 14989 98180 0.12523 34085 11469 12 ´e Table B. 7 0.88706 25997 68095 3. 7 4.43339 53941 29247 0.96816 02395 07626 0. 9 3. 8 4.98156 06342 46719 0.2: El´ments pour le calcul de la formule de Gauss-Legendre pour N ≤ 12 (suite).73015 20055 74049 4.26280 45445 10247 0.29552 42247 14753 0. 6 5 1.67940 95682 99024 0.26926 67193 09996 0. 7 5. 10 2.33023 93550 01260 0.51909 61292 06812 5.14945 13491 50581 0.76990 26741 94305 0.10693 93259 95318 0.08127 43883 61574 0.86506 33666 88985 0.12558 03694 64905 0. 8 6. 10 0.83603 11073 26636 0.18629 02109 27734 0.20316 74267 23066 0.27292 50867 77901 0.

QUADRATURE DE GAUSS-LEGENDRE .100 APPENDICE B.

Cette e expression d´pend d’une fonction K(t) appel´e noyau de Peano. Dans cet intervalle. 1 (x − t)3 dx = + t 1 (x − t)3 dx = 4 (1 − t)4 . + Le noyau K(t) est d´fini pour t quelconque mais seul le domaine d’int´gration e e t ∈ [−1. si x < t . Soit une m´thode d’int´gration num´rique conduisant a e e e ` l’erreur de quadrature R.Appendice C Formule de Peano Peano a donn´ une expression exacte de l’erreur de quadrature R(f ). e e Noyau de Peano. Le noyau de Peano s’´crit alors o e e e ` e : K(t) = 1 R x → (x − t)3 . 1] est utile. Par d´finition e` e e de R on a : 1 1 4 R(f ) = 3 f (−1) + 3 f (0) + 1 f (1) − 3 f (x) dx . o` n est le plus grand degr´ des polynˆmes pour lesquels l’int´gration num´rique u e o e e est exacte. + 6 = 1 6 1 3 (−1 − 4 t)3 + 3 (0 − t)3 + 1 (1 − t)3 − + + + 3 1 −1 (x − t)3 dx . la notation R x → (x − t)n veut e ` e e + dire que dans l’expression de R. la fonction a int´grer est (x − t)n et que la ` e + variable d’int´gration est x. + 0 −t3 si t ≥ 0 . 101 . + (−t)3 = + 1 −1 (1 − t)3 = (1 − t)3 . Le noyau de Peano associ´ a cette m´thode est une e` e fonction K(t) ainsi d´finie : e K(t) = 1 R x → (x − t)n . Conform´ment a la remarque pr´c´dente. il vient : (−1 − t)3 = 0 . e Calculons le noyau de Peano associ´ a la m´thode de Simpson. + n! (x − t)n = + (x − t)n 0 si x ≥ t . si t < 0 . −1 e e ` Il s’agit d’une m´thode d’int´gration a trois points qui est exacte pour les plynˆmes de degr´ inf´rieur ou ´gal a trois.

le noyau de Peano est sym´trique et positif. pour une m´thode d’int´gration num´rique donn´e. on a : b R(f ) = a f (n+1) (t)K(t) dt . 1] . b] . donn´ par l’expression : e e K(t) = 1 72 (1 1 72 (1 − t)3 (1 + 3t) si 0 ≤ t ≤ 1 . (n + 1)! Pour la m´thode de Simpson et pour l’intervalle d’int´gration [−1. 1]. on peut utiliser e le th´or`me de la moyenne et obtenir : e e R(f ) = f (n+1) (θ) a b K(t) dt . ` e e Le plus simple est de prendre la fonction xn+1 . u e e Si K(t) ne change pas de signe dans l’intervalle d’int´gration. dans ce cas. FORMULE DE PEANO Finalement le noyau de Peano associ´ a la m´thode de Simpson est. on e e trouve : R(x4 ) 1 = 4! 24 4 1 3 (−1) 4 + 3 (0)4 + 1 (1)4 − 3 1 −1 x4 dx = 1 . θ ∈ [a. b]. 90 Finalement pour toute fonction f .102 APPENDICE C. il vient : R(f ) = R(xn+1 ) (n+1) f (θ) . . on d´termine l’erreur de quadrature. 90 θ ∈ [−1. L’int´grale portant sur K ne d´pend pas de f et peut tre ´valu´e en substituant e e e e a f n’importe quelle fonction telle que sa d´riv´e d’ordre n + 1 n’est pas nulle. l’erreur de quadrature e e e e correspondante R est nulle pour tous les polynˆmes de degr´ n. alors pour toutes o e les fonctions f ∈ C n+1 [a. D’o` il ressort que. 1] : 1 4 1 3 f (−1) + 3 f (0) + 1 f (1) − 3 f (x) dx = −1 1 (n+1) f (θ) . o` f (n+1) est la d´riv´e d’ordre n + 1 de f . f ∈ C n+1 [−1. 1]. e e e Si. dans e` e l’intervalle d’int´gration [−1. + t)3 (1 − 3t) si −1 ≤ t ≤ 0 . u e A l’aide de K et du th´or`me suivant.

Appendice D

Formules d’AdamsBashforth-Moulton
Pour obtenir le sch´ma pr´dicteur/correcteur d’Adams-Bashforth-Moulton d’ore e dre 2, on suppose connue la fonction y en 2 points (x1 , y1 ) et (x2 , y2 ), ce qui permet de calculer un interpolant polynˆmial du premier degr´ P1 (x) pour y = f . o e Pour former cet interpolant, on passe naturellement par les formes de Lagrange (voir la relation (4.8)). Ainsi, l’interpolant s’´crit-il e
2

L2 (x) =

k=1

yk L2,k (x) = P1 (x) ≡ f (x, y)

(D.1)

o` L2,1 (x) et L2,2 (x) sont les coefficients de Lagrange d´finis par u e  x − x2 x − x2  L2,1 (x) = =−  x1 − x 2 h   L2,2 (x) = x − x1 = x − x1 x2 − x 1 h

o` h = x2 − x1 . Le pr´dicteur y3 , c’est-`-dire une premi`re estimation de y3 , u e ˜ a e est obtenu en calculant l’incr´ment sur l’intervalle [x2 , x3 ], soit e
x3

δ=
x2

f (x, y)dx
x3 x3

(D.2) L2,2 (x)dx
x2

= y1
x2

L2,1 (x)dx + y2 y1 h
x3 x2

(D.3) (D.4) (D.5)
x2

=− =− =− soit

(x − x2 )dx +
x3

y2 h

x3 x2

(x − x1 )dx
x3

y1 (x − x2 )2 h 2

+
x2

y2 (x − x1 )2 h 2

y2 (2h)2 − h2 y 1 h2 + h 2 h 2 h 3h δ = − y1 + y2 2 2 103

(D.6)

(D.7)

104

APPENDICE D. FORMULES D’ADAMS-BASHFORTH-MOULTON

Nous obtenons donc pour le pr´dicteur e y3 = y2 − ˜ 3h h y1 + y2 2 2 (D.8) (D.9) Pour obtenir le sch´ma correcteur associ´, on utilise les 2 points suivants e e (x2 , y2 ) et (x3 , y3 ) pour former un second interpolant polynˆmial du premier ˜ o degr´ Q1 (x) pour f . Grˆce aux formes de Lagrange, on a e a L2 (x) = y2 L2,2 (x) + y3 L2,3 (x) = Q1 (x) ≡ f (x, y) ˜ avec  x − x3 x − x3  L2,2 (x) = =−  x2 − x 3 h x − x2 x − x2   L (x) = = 2,3 x3 − x 2 h f (x, y)dx
x2 x3 x3

(D.10)

o` h = x3 − x2 . Sur l’intervalle [x2 , x3 ], l’incr´ment vaut u e
x3

δ= = y2

(D.11) L2,3 (x)dx
x3 x2

x2

L2,2 (x)dx + y3 ˜
x3 x2

(D.12) (D.13) (D.14)
x2

x2

=− =− =− soit

y2 h

(x − x3 )dx +
x3

y3 ˜ h

(x − x2 )dx
x3

y2 (x − x3 )2 h 2 y 3 h2 ˜ y 2 h2 + h 2 h 2

+
x2

y3 (x − x2 )2 ˜ h 2

(D.15)

h h δ = − y2 + y 3 ˜ 2 2 Nous obtenons donc pour le correcteur y3 = ˜ h h y2 + y 3 ˜ 2 2

(D.16)

(D.17) (D.18)

Liste des tables
2.1 2.2 5.1 B.1 B.2 Mimimum et maximum r´els adressables. . . . . . . . . . e Les 20 entr´es principales de l’arbre de d´cision du GAMS e e Quelques quadratures standards. . . . . . . . . . . . . . . Formule de Gauss-Legendre pour N ≤ 12. . . . . . . . . . Formule de Gauss-Legendre pour N ≤ 12 (suite). . . . . . . . . . . . . . . . . . . . . . . . . . 17 24 52 98 99

105

106 LISTE DES TABLES .

. . . . o Exemple d’erreur commise sur le calcul de P2k (1). . . . . . . . . .8 4. . . . . . e ` Int´grale elliptique compl`te de premi`re esp`ce K(x). . . .1 5. . . . . . John L. . . . . . . .4 4.2 5. .9 5. . . . . . . . Int´grale d´finie d’une fonction. . . . . . . . . e e Interpr´tation de la m´thode de Runge-Kutta d’ordre 4. . . .3 5. . . . . . . . . . . . .2 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Regression. . . . Alan Turing et Colossus. . e M´thode d’Euler et m´thodes de Taylor. e M´thode de tir simple. . . . . . . . . . . . .7 7. . . Page d’accueil du site Internet du GAMS. . . . . . . . . . . . . . . . . . . . . . . .2 2. . . . . . . . . . . . . . . .8 7. . . . . . .1 2. . . . . . . . . . . . . e e e e Formule ouverte ou semi-ouverte. . . .3 3. . . . . . 1]. . e e e e Racines r1 et r2 d’une fonction f de la variable x. . . . . . . . . . . . . . . . . .Liste des figures 1.5 7. . . . . .6 4. . . . .7 4. . . . . . . . . .5 4.2 6. . . Sensibilt´ et nombre de conditionnement. . . . . . . . . .3 3. e Illustration de l’adimensionnement et du choix des variables. Ajustement et oscillations. .4 6. . . . . . . . . . . . . . . Conditions initiales et conditions aux (deux) contours. . . . . . e e e Polynˆmes de Chebyshev de premi`re esp`ce Tk (x) sur [−1. . . .3 2. . . . . e e Princide de l’int´grateur de Burlish-Stoer. m´thodes compos´e et adaptative. . . . . . . . . . Interpolation lin´aire et ligne bris´e. e M´thode des fausses positions. . . . .1 3.4 7. . . . . . . . . . . e e Approximation de Lagrange. . . . . . D´riv´es et ´chantillonage. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2 4. 12 13 13 21 22 23 28 30 31 32 33 37 37 38 39 40 41 42 43 44 47 49 50 52 54 58 59 62 63 64 70 72 75 75 77 79 79 81 82 107 . . . . . e e Illustration de la notion de champ de pentes. Int´gration de Gauss-Legendre a 2 points. . . . . . . . . . . . o e e Polynˆmes de Legendre Pk (x) sur [−1. . . . . . . Crit`re de convergence. . . . e e M´thode de Runge-Kutta d’ordre 4 et m´thodes de Taylor. .1 4. . . . . . . . . . . . . . . . . . . . e e Exemple illustrant l’existence d’un pas optimum. von Neumann et le Cray I. . . . . . . .4 5. . . . . e Construction graphique associ´e a la m´thode des gradients.3 6. .1 6. . M´thode de Heun. . .5 6. . .2 7. . . . . . . . . . . . . . . . . . . . . e e e Approximation polynˆmiale. . . . o Pas optimum hopt pour la d´riv´e. Calcul de la d´riv´e de ex en pour diff´rents pas. . . . . . . . . . . . .5 4. . . .2 3. . . . . . . . . . . . . . .1 1. . . . . . . . . . . . . . . .3 4. . . . . . . . . e e M´thode des trap`zes. . . . . . . approximation polynomiale et spline cubique. . . . . . . . . .6 7. . . . . . Principe de l’ajustement. . . . . . . . . . . e M´thode de tir simple (2). . . . 1]. . . .5 7. . . . . . . . . 2]. e . . . . e ` e Illustration de la m´thode des s´cantes. . . . . . o Polynˆmes de Hermite Hk (x) sur [−2. . . . . . . . . . . . . . . . . . . . . . .4 3. . .3 7. . . .1 7. . . .9 Charles Babbage et la DENO. .

33 binaire. e 79 condition initiale. 90 e diff´rences divis´es. 94 e ´quations aux d´riv´es partielles. 93 conditions initiales. 45. 46 e e diff´rences finies. 93 calcul symbolique. 21 erreur de repr´sentation. 87 approximation de Newton. 73 e e d´riv´es. 31 calculateur ´lectronique. 94 e ´quation de la chaleur. 94 e ´quation de diffusion. 21 e erreur de troncature. 89. 93 ´quations lin´aires. 94 e ´quation non-lin´aire. 55 e e ´chelle caract´ristique. 52 e e d´terminant. 13 base sexag´simale. 14 erreur. 93 conditions aux limites. 24 aire. 24 e e ´quation de Laplace. 89 diff´rence centr´e. 77 108 Colossus. 14 Enigma. 33 encadrement. 46 astronomie. 21. 90 dynamique. 13 base. 65 ENIAC. 52 condition au contour interm´diaire. 35 algorithme. 93 conditions de Dirichlet. 93 conditions contours. 67. 94 e ´quation de Poisson. 94 e ´quation des ondes. 76 e e e ´quations diff´rentielles ordinaires. 19 BVP. 14 combinaisons linaires. 65 correcteur. 117 coefficients non constants. 90. 51 ajustement. 40 ch´mas ouvert. 45. 53 erreur absolue. 35 e ´chantillonnage r´gulier. 65 e convergence quadratique. 22 erreur d’arrondi. 65 bits. 13 Babyloniens. 80. 93 conditions de Neumann. 45. 81 Cray I. 77 e e ´quation parabolique. e e 52. 79. 14 e centres. 75 code de calcul. 33 e diff´rence finies. 93 contraintes. 24 effet de bord. 79. 80 e double tir. 94 e e ´quation elliptique. 13 e BDF. 43 e erreur de sch´ma. 72 convergence lin´aire. 61 e adimensionnement. 89. 79. 33 e e diff´rence finie. 79. 76. 21 . 34. 17 annulation soustractive. 80 conditions aux contours. 18 coefficients de Lagrange.Index ´chantillon. 16 crit`re de convergence. 65 e dichotomie. 21. 61 e d´riv´e partielle. 91 e e ´quations vectorielles. 76 convergence. 94 ´quation hyperbolique. 40. 19 bissection. 77. 58 e champ de pentes. 43 approximation de Lagrange.

81 e e m´thode de Newton-Cauchy mode ifi´e. 81. 56 e m´thode de Burlish-Stoer. 33 fonction de lissage. 69 e m´thode de Seidel. 85 e m´thode de Newton-Raphson. 19 Fortran 90. 89 e m´thode de Van Wijngaarden-Bekker. 48 e m´ga-flops. 73 IVP. 81 e e m´thode du point. 55 e m´thode de Taylor. 56 e m´thode de Simspon. 43 extrapolation de Richardson. 65 e m´thode de Boole. 87 e m´thodes des rectangles. 43 interpolation lin´aire. 52 e fonction source. 17 . 85 e m´thode de Aitken. 81. 55 e e 109 m´thode compos´e. 71 e m´thode du point milieu. 44. 80. 87 e Machine de Babbage. 53 e e m´thode d’Euler. 109 nombre d’it´rations. 43. 79. 66 e m´thode des gradients. 22 exposant. 88 Fortran 77. 35 e m´thode de Bernouilli. 77 formule de Bessel. 55. 67. 109 e m´thode de Heun. 79. 83. 58. 51 e e int´grale ind´finie. 72 e m´thode de Simpson. 58 ODE. 93 J. 43 forme de Lagrange. 77. 47 formules d’Adams-Bashforth. 45. 75 ordinateur. 88 formules d’Adams-Bashforth-Moulton. 40 forme de Taylor. 85. 72 e m´thode des s´cantes. e 71 m´thode des “fausses positions”. 64. von Neumann. 35 inversion de matrice. 68 fonction interpolante. 47 fonction lin´aire. 46 fonction de Newton-Raphson. 16 e m´thode compos´. 77. 40 forme imbriqu´e. 19 Fortran I. 51 e e int´gration. 68. 72 matrice de Vandermonde. 117 formules de Adams-Bashforth-Moulton. 90 matrice. 36 FDF. 83 e m´thode de Newton modifi´e. 66 e nombre de conditionnement. 58. 20 e machines a calculer. 58 e forme de Horner. 35 e m´thode de Bessel. 69 nombres n´gatifs. 13 ` mantisse. 14 Jacobien. 90 e int´gration de Romberg. 47 formule de Everett. 72 langage de programmation. 13 e noyaux. 91 fonction sp´ciale. 52. 85 e m´thodes de Runge-Kutta. 54 hardware. 88 e m´thode de Everett. 41. 111 matrice jacobienne. 48 e interpolations. 14 matching point. 14 implicite. 43 e forme implicite. 19 extrapolation. 23. 13 machine parall`le. 35 e m´thode de bissection. 87. 85. 87 e m´thodes multi-pas. 81 incr´ment. 80. 19. 81. 68 e m´thode du point fixe. 87 e int´grale d´finie. 52 e m´thodes mono-pas. 56 e interpolation. 40 forme de Newton. 83 e m´thode de tir. 14 gradients. 17 ligne bris´e. 56. 22 Mark I. 35 e m´thode de Gauss-Legendre. 79.INDEX erreur relative. 65 noeuds. 55. 70 e e m´thode des trap`zes.

56 e seconde r`gle de Simpson. 34 e e sch´mas explicites. 41. 65 TBVP. 66 racine multiple. 62 racine double. 95 e singularit´. 77 primitive. 58. 58 variables ind´pendantes. 76 e z´ro. 81 e e sch´ma pr´dicteur/correcteur. 56. 83 e s´ries enti`res. 88. 88 e e poids. 62 e . 33 e sch´ma de runge-Kutta. 13. 55. 61. 43 e e sch´ma semi-ouvert. 13 PDE. 17 e programmation. 79 temps de calcul. 22 ph´nom`me de Runge. 33. 35. 85 e sch´ma divergent. 53 e ` sch´ma a 4 points. 14 premier ordre.110 ordre. 56 e e second ordre. 81 e premier ordinateur. 55 e sh´ma. 21. 69 racines. 20 e oscillations. 17 programmation parall`le. 77 ordre de la m´thode. 76. 41 o polynˆme de Hermite. 45 points de grille. 40 o portabilit´. 83. 43. 55 r´gression lin´aire. 58 e sch´mas excentr´s. 85 e e sch´ma. 53–56 spline. 88 e e sch´ma r´cursif. 17 e pouvoir amplificateur. 75. 90 polynˆme de Chebyshev. 26 s´ries de Taylor. 55 e ` sch´ma arri`re. 77 quadratures de Newton-Cotes. 48 e e racine. 80 pas d’int´gration. 51 proc´dure. 46 e e ph´nom`ne de Runge. 39. 13 e e syst`me lin´aire. 53. 75 e e syst`me d´cimal. 93 perte d’information. 95 e sch´ma ouvert. 16 e propagation des erreurs. 87. 88 param`tre d’entr´e. 77 e e e e sous-intervalles. 93 seconde m´thode de Simpson. 23 pr´cision. 21. 44 e e t´ra-flops. 89 translation de Gauss-Legendre. 54. 16 e taux de convergence. 68–70 e INDEX sch´ma implicte. 54. 33 e e sch´ma avant. 109 points de collocation. 58 e sofware. 67. e 83. 48 splitting. 19 routines. 54 e sch´ma pr´dicteur. 94 e sch´mas instables. 22 quadratures. 55. 52. 54 tir simple. 110 o polynˆmes de Taylor. 73. 91 e Pascaline. 77 stabilit´. 41 relation d’incertitude. 23 e pas adaptatif. 80. 65 e pr´dicteur. 80. 35. 23 e e param`tre de sortie. 90 sch´ma a 2 points. 23 e syst`me d’´quations. 41 o polynˆme de Legendre. 88 e sch´mas r´cursifs. 14 solutions d´g´n´r´es.

Sign up to vote on this title
UsefulNot useful