Professional Documents
Culture Documents
Polycours Vecteurs Et Matrice
Polycours Vecteurs Et Matrice
Notation : pour définir un cadre général non limité aux vecteurs, dans
tout ce paragraphe E représente un espace vectoriel sur R
1.1 Vecteurs
Définition 1 On appelle vecteur x un élément de l’espace vectoriel Rn sur
R. C’est un ensemble ordonné d’élements de R, souvent noté des manières
suivantes : ⎛ ⎞
x1
⎜ x2 ⎟
⎜ ⎟
x = (x1 , x2 , · · · , xn )t
x=⎜ . ⎟
⎝ .. ⎠
xn
Comme Rn est un espace vectoriel sur R, il est donc muni des propriétés
classiques d’un espace vectoriel : soit x et y ∈ Rn et α, β ∈ R alors :
– (αβ)x = α(βx)
– (α + β)x = αx + βx
– α(x + y) = αx + αy
– 1x = x
où
1
2 CHAPITRE 1. INTRODUCTION AUX VECTEURS ET MATRICES
– x, x ≥ 0
– x, x = 0 ⇒ x = 0
– x, y = y, x
– x, y + z = x, y + x, z
– x, αy = αx, y ∀α ∈ R
Corollaire 1 Le produit scalaire est une forme bilinéaire symétrique sur E.
Définition 3 On appelle norme sur E une application de E dans R+ :
x→ x
qui possède les propriétés suivantes :
– x =0⇔x=0
– αx = |α| x ∀α ∈ R
– x+y ≤ x + y
Définition 4 On appelle un espace euclidien un espace vectoriel muni d’un
produit scalaire qui permet de définir une norme par la relation :
2
x = x, x
Théoreme 1 (Inégalité de Cauchy-Schwartz)
Quelque soit x et y appartenant à un espace euclidien, on a
|x, y| ≤ x y
Preuve
Définition 5 (Norme euclidienne sur Rn ) Dans l’espace vectoriel Rn , on
définit la norme euclidienne d’un vecteur x par :
n
2
x = x, x = x2i
i=1
le produit scalaire associé étant :
n
x, y = xi yi
i=1
x→ x p = xpi ∀p ≥ 1
i=1
les cas les plus usités étant :
n
x 1 = |xi | x ∞ = max |xi |
i=1···n
i=1
Définition 7 On appelle base canonique la base composée des vecteurs {ei }i=1···n
telle que le j-ième élément de ei vaut 0 sauf si i = j dans ce cas, il vaut 1.
⎛ ⎞
0
⎜ .. ⎟
⎜ . ⎟
⎜ ⎟
ei = ⎜ ⎟
⎜ 1 ⎟ ← i-ème élément
⎜ .. ⎟
⎝ . ⎠
0
1.2 Matrices
Définition 8 Une matrice d’éléments de R est un tableau à deux dimen-
sions composé de m lignes et n colonnes où chaque élément appartient à R.
L’ensemble des matrices de R de dimensions m, n est noté Mm,n et forme
un espace vectoriel sur R.
αX = [αxi,j ]m,n 1 ≤ i ≤ m, 1 ≤ j ≤ n
Définition 9 On appelle transposé de X, la matrice X t telle que :
[X t ]i,j = xj,i 1 ≤ i ≤ m, 1 ≤ j ≤ n
det(A) ou |A|
⎛ ⎞
a1,1 ··· a1,j−1 a1,j+1 ··· a1,n
⎜ .. .. .. .. .. .. ⎟
⎜ . . . . . . ⎟
⎜ ⎟
⎜ ai−1,1 ai−1,2 ai−1,j−1 ai−1,j+1 ··· ai−1,n ⎟
A|i,j| =⎜
⎜ ai+1,1 ai+1,2 ai+1,j−1 ai+1,j+1
⎟
⎜ ··· ai+1,n ⎟
⎟
⎜ .. .. .. .. .. .. ⎟
⎝ . . . . . . ⎠
am,1 ··· am,j−1 am,j+1 ··· am,n
et
Le théorème suivant permet d’avoir une règle principale pour calculer les
valeurs propres et vecteurs propres.
7
8CHAPITRE 2. VECTEURS PROPRES ET VALEURS PROPRES DE MATRICES
Définition 17 une matrice A est dite diagonalisable s’il existe une matrice
non-singulière P telle que la matrice D = P −1 AP soit diagonale, c’est à
dire si A est semblable à une matrice diagonale D.
A = U DU ∗
où D est la matrice diagonale formée de valeurs propres. Autrement dit, une
matrice normale est diagonalisable et les vecteurs propres sont orthogonaux.
Applications linéaires
f :A→B
x → x2 ou f (x) = x2
11
12 CHAPITRE 3. APPLICATIONS LINÉAIRES
si a = a ⇒ f (a) = f (a )
Imf = {y ∈ F : f (x) = y, ∀x ∈ E}
le noyau de f noté Kerf est l’ensemble des élements de E dont l’image par
f est 0U .
Kerf = {x ∈ E : f (x) = 0}
Exemple 3
dimE = n
14 CHAPITRE 3. APPLICATIONS LINÉAIRES
1. g ◦ (f + f ) = g ◦ f + g ◦ f
2. (g + g ) ◦ f = g ◦ f + g ◦ f
3. α(g ◦ f ) = αg ◦ f = g ◦ αf α∈K
16 CHAPITRE 3. APPLICATIONS LINÉAIRES
Chapitre 4
Matrices et Applications
linéaires
17
18 CHAPITRE 4. MATRICES ET APPLICATIONS LINÉAIRES
Théoreme 16 Soit P la matrice de passage d’une base {ei } vers une base
{ei } et Q la matrice de passage de {fi } vers {fi } alors pour une application
linéaire quelconque A de E dans F , on a :
[A]fe = Q−1 [A]fe P
En d’autres termes si la matrice A représente une application relativement
à des bases données la matrice B = Q−1 AP représente la même application
dans deux autres bases avec P et Q les matrices de passages.
4.2. OPÉRATEURS LINÉAIRES ET MATRICES 19
1. Soit E l’espace vectoriel des fonctions réelles engendrés par {ea1 t , · · · ean t ,
et soit D l’opérateur de différentiation, on peut montrer que ces fonc-
tions sont des fonctions propres de D associés aux valeurs propres ak
2. Soit S un système linéaire défini par sa réponse impulsionelle h(t) qui
à un signal x(t) associe y(t) = h(t) ∗ x(t). Soit E l’espace vectoriel
n
réelles engendrés par {ei2π T t }. Ces fonctions sont vecteurs propres de
S associés aux valeurs propres H(n/T ) où H est la transformée de
Fourier de h(t).
Chapitre 5
5.1 Introduction
Les problèmes de résolution de système linéaire est un problème clas-
sique en science et en ingénierie. Beaucoup de problèmes physiques nécessite
la résolution d’un système linéaire (par exemple, un problème électrique
avec loi de Kirchoff ou alors un problème de dispersion de la chaleur dans
une barre). Nous allons dans ce chapitre faire le lien entre les applications
linéaires, les matrices et les méthodes de résolution d’un système linéaires.
rang A
Propriété
– rang A = rang At
– si A ∈ Mpn (R) alors rang A ≤ inf(n,p)
– i A ∈ Mnn (R) alors A inversible ⇔ rang A = n
B = {ai,j }i∈I,j∈J
21
22CHAPITRE 5. RÉSOLUTION D’UN SYSTÈME LINÉAIRE : MÉTHODES DIRECTES
Corollaire 4 Soit A ∈ Mnn (R) une matrice carrée, une condition nécessaire
et suffisante pour que le système Ax = b est que det(A) = 0 (ce qui est
équivalent à A inversible, ou A bijectif, ou rang A = n). On parle alors d’un
système de Cramer et la solution s’obtient par x = A−1 b
aij = 0 ∀i > j
alors le système admet une solution unique et cette solution x∗ est telle que :
bk − n ∗
j=k+1 akj xj
x∗k = k ∈ {n, · · · , 1}
akk
Les étapes suivantes consistent à faire de même sur les colonnes suivantes.
Ainsi,l’étape k consiste à éliminer l’inconnu xk dans les équations k + 1, · · · n. Ceci
conduit aux formules suivantes définies pour les lignes i = k + 1, · · · , n en
(k)=0
supposant que akk :
(k)
aik (k)
ak+1
ij ← akij − a
(k) kj
j ∈ [k, n + 1]
akk
à la dernière étape k = n, on obtient le système équivalent suivant :
⎛ (1) (1) (1) (1) ⎞
a11 a12 ··· a1n | b1
⎜ 0 (2)
···
(2)
|
(2) ⎟
⎜ a22 a2n b2 ⎟
⎜ ⎟
⎜ .. .. .. ⎟
⎜ ··· ··· . . | . ⎟
⎜ (n−1) (n−1) (n−1) ⎟
⎜ 0 0 an−1,n−1 an−1,n | bn−1 ⎟
⎜ ⎟
⎝ 0 ··· 0
(n)
ann |
(n)
bn ⎠
la matrice U est donc définie comme étant la matrice A(k) et y le vecteur b(k)
Remarque 9
5.6 Méthodes LU
5.6.1 Principes
La première phase de la méthode de Gauss consiste à transformer le
système Ax = b en un système triangulaire U x = y avec U une matrice tri-
angulaire supérieure. Supposons qu’aucune permutation n’ait été effectuée,
on peut alors montrer que U et y ont été obtenues à partir de A et b en les
multipliant par une même matrice R triangulaire et inversible, ie :
U = RA y = Rb
26CHAPITRE 5. RÉSOLUTION D’UN SYSTÈME LINÉAIRE : MÉTHODES DIRECTES
Ax = b
LU x = b
Ly = b avec y = Ux
5.6.2 Décomposition LU
Définition 32 Une matrice non-singulière A admet une factorisation trian-
gulaire si il existe une matrice L et U respectivement triangulaire inférieure
et triangulaire supérieure telles que :
A = LU
L’hypothèse du théorème précédent est trop forte pour pouvoir être ap-
pliquée à une large classe de système linéaire, car il existe des problèmes
simples pour laquelle un des pivots est nul. Le théorème suivant permet
d’étendre la factorisation LU à un cadre plus générale.
5.7 Algorithmes
5.7.1 Méthode de Gauss : Triangularisation du système
pour k = 1 à n − 1
pivot ← akk (stratégie de pivot)
si pivot = 0 alors
pour i = k + 1 à n
bi ← bi − pivot
aik
bk
pour j = k à n
aij ← aij − aik
pivot akj
finpour
finpour
sinon “problème”
finsi
finpour
pour i = n − 1 à 1
somme ← bi
pour j = i + 1 à n
somme ← somme - aij xj
finpour
xi ← somme
aii
finpour
28CHAPITRE 5. RÉSOLUTION D’UN SYSTÈME LINÉAIRE : MÉTHODES DIRECTES
pour i = 2 à n
somme ← bi
pour j = 1 à i − 1
somme ← somme - aij xj
finpour
xi ← somme
aii
finpour
5.7.4 Décomposition LU
pour k = 1 à n − 1
pivot ← akk (stratégie de pivot)
si pivot = 0 alors
kk = 1
pour i = k + 1 à n
aik
ik = pivot
pour i = k + 1 à n
aij ← aij − ik akj
finpour
finpour
sinon “problème”
finsi
finpour
U ←A
Chapitre 6
6.1 Introduction
Parmi les systèmes linéaires auxquels les ingénieurs sont confrontés lors
de la résolution d’un problème physique, certains présentent des propriétés
particulières. Par exemple, les matrices associées à ces systèmes peuvent
être : symétrique, à bande, etc ... L’objectif de ce chapitre est d’étudier
la résolution de système linéaire pour lequel la matrice associée est définie
positive
∀x ∈ Rn et x = 0, xt Ax > 0
29
30CHAPITRE 6. RÉSOLUTION D’UN SYSTÈME LINÉAIRE : MÉTHODES DIRECTES II
– aii > 0
– a2ij < aii ajj ∀i = j
– maxj,k |ajk | ≤ maxi |aii |
Preuve
Exemple 6
1 2
• soit M = alors comme det M = −2, la matrice A = M M t
3 4
5 11
est définie positive avec A =
11 25
• Soit ⎛ ⎞
1 0 0
M =⎝ 1 1 0 ⎠
1 1 1
alors la matrice ⎛ ⎞
1 1 1
A = MMt = ⎝ 1 2 2 ⎠
1 2 3
est définie positive
Le théorème qui suit est un résultat important dans la mesure où elle
caractérise les matrices définies positives.
A = GGt
où G est une matrice triangulaire inférieure avec des élements diagonaux
positifs.
6.3. ALGORITHME DE DÉCOMPOSITION DE CHOLESKI 31
⎛ ⎞ ⎛ ⎞⎛ ⎞
a11 a12 · · · a1n g11 0 0 0 g11 g21 · · · gn1
⎜ a21 a22 · · · a2n ⎟ ⎜ g21 g22 0 0 ⎟⎜ 0 g22 · · · gn2 ⎟
⎜ ⎟ ⎜ ⎟⎜ ⎟
⎜ .. .. .. .. ⎟=⎜ .. .. .. .. ⎟⎜ .. .. .. .. ⎟
⎝ . . . . ⎠ ⎝ . . . . ⎠⎝ . . . . ⎠
an1 an2 · · · ann gn1 gn2 · · · gnn 0 0 ··· gnn
En remarquant que aij est le produit de la colonne ligne i de G et la colonne
j de Gt alors on a :
n
n
ai1 = t
gik gk1 = gik g1k = gi1 g11 + gi2 g12 + · · · gin g1n = gi1 g11
k=1 k=1
√
En particulier si i = 1, on a g11 = a11 ( g11 est bien positif). La connais-
sance de g11 permet de calculer les gi1 car :
ai1
gi1 =
g11
Si on raisonne de la meme manière pour la deuxième colonne de G, on a :
n
ai2 = gik g2k = gi1 g21 + gi2 g22
k=1
et si on prend i = 2 alors a22 = g21 2 + g 2 . La seule inconnue dans cette
22
équation étant g22 , on obtient :
g22 = a22 − g212
32CHAPITRE 6. RÉSOLUTION D’UN SYSTÈME LINÉAIRE : MÉTHODES DIRECTES II
et par conséquent :
j−1
aij − k=1 gik gjk
gij = i = j + 1, · · · , n (6.2)
gjj
Remarque 13
– L’unicité de la décomposition s’obtient par la contrainte gjj > 0.
– L’algorithme de décomposition sert également de test de symétrique
definie positivité d’une matrice car les théorèmes (29) et (30) démontre
l’équivalence entre la symétrie définie positivité et la décomposition
enn GGt .
– Si on compare les coûts de l’algorithme de Gauss et la méthode de
Choleski, on a :
– Gauss :(n3 −n)/3 additions, (n3 −n)/3 multiplications et (n(n−1)/2
divisions, soit un coût de l’ordre de 2n3 /3
– Choleski : ≈ n3 /6 additions, ≈ n3 /6 multiplications , ≈ n2 /2 divi-
sions et n extraction de racines soit un coût de l’ordre de n3 /3.
6.3. ALGORITHME DE DÉCOMPOSITION DE CHOLESKI 33
7.1 Introduction
Les méthodes directes de résolution de systèmes linéaires fournissent une
solution x au problème Ax = b en un nombre fini d’opérations. Si l’ordre
n de la matrice A est élevée, le nombre d’opérations est élevé et de plus, le
résultat obtenu n’est pas rigoureusement exact.
Par ailleurs, il existe des cas où les structures du système linéaire ne
sont tirés à profit par les méthodes directes. C’est par exemple le cas des
systèmes où la matrice A est très creuse.
C’est la raison pour laquelle, dans ce cas, on préfère utiliser des méthodes
itératives. L’objectif est de construire une suite de vecteurs {x(k) }k=1···n qui
tend vers un vecteur x̄, solution exacte du problème Ax = b. Souvent, on
part d’une approximation {x(0) } de x̄ obtenue en général par une méthode
directe.
A=M −N
de sorte que M soit inversible. Ainsi, le système devient :
Mx = Nx + b
et nous cherchons par récurrence une suite de vecteur x(i) obtenu à partir
d’un vecteur x(0) et de la relation :
M xk+1 = N xk + b
35
36CHAPITRE 7. RÉSOLUTION D’UN SYSTÈME LINÉAIRE : MÉTHODES ITÉRATIVES
c’est à dire
xk+1 = M −1 N xk + M −1 b
Cette relation est une relation de récurrence du premier ordre. Nous pouvons
en déduire une relation reliant e(k) = x(k) − x̄ à e(k−1) = x(k−1) − x̄ :
A = D+E +F
(k+1)
n
aij (k) bi
xi =− x + , pour i = 1, · · · n
aii j aii
j=1,j=i
i
(k+1)
n
(k)
aij xj =− aij xj + bi
j=1 j=i+1
d’où
1 1
i−1 n
(k+1) (k+1) (k) bi
xi =− aij xj − aij xj +
aii aii aii
j=1 j=i+1
pour i = 1 · · · n.
d’où
⎛ ⎞
(k+1) w
i−1
(k+1)
n
(k)
xi = (1 − w)x(k) + ⎝− aij xj − aij xj + bi ⎠
aii
j=1 j=i+1
Définition 7.3.0.1 Soit A une matrice avec A ∈ Mm,n (R). Etant donnée
une norme vectorielle sur Rn , on définit la norme matrice induite (ou su-
bordonnée), une norme matricielle définie par :
Ax
A = max
n
x∈R x=0 x
AB ≤ A B
pour toute norme induite
n
|z − akk | ≤ |akj |
j=1,j=k
(I − C)x = d
n
∀i, 1 ≤ i ≤ n, |aii | ≥ |aij |
j=1,j=i
n
∀i, 1 ≤ i ≤ n, |aii | > |aij |
j=1,j=i
La convergence de la méthode est d’autant plus rapide que ρ(M (−1) N ) est
petit. Or cette matrice B = M (−1) N dépende de w. Une étude théorique
des valeurs propres de B montre que l’allure de la courbe ρ(B) en fonction
de B est décroissant entre 0 et wopt et croissant entre wopt et 2. Par ailleurs,
on a toujours 1 < wopt < 2. On a interet à choisir w le plus proche possible
de wopt .
r(x) = b − Ax
Si on pose x(1) = x(0) − y (0) , x(1) est une nouvelle approximation de x̄,
et en itérant les calculs précédents, on obtient :
et,
k−1
(k) (k−1) (k−1) (0)
x =x −y =x − y (i)
i=0
8.1 Introduction
Supposons que l’on veuille résoudre le problème linéaire suivant :
⎧
⎪
⎪ a11 x1 + a12 x2 + · · · + a1n xn = b1
⎪
⎨ a21 x1 + a22 x2 + · · · + a2n xn = b2
.. .
⎪
⎪ . = ..
⎪
⎩
ap1 x1 + ap2 x2 + · · · + apn xn = bp
où il s’agit de déterminer x connaissant les aij et les bi . En général, on
suppose que p est grand devant n, et on se retrouve donc dans le cas d’un
système surdéterminé.
Ce genre de problème intervient lorsque l’on cherche à modéliser par exemple
un système physique, et pour cette raison, les coefficients aij et bi sont
souvent des résultats d’expériences ou de mesures, pouvant être entachés
d’erreurs.
La mise sous forme matricielle du problème donne :
Ax = b
r(x) = Ax − b
43
44CHAPITRE 8. APPROXIMATION AU SENS DES MOINDRES CARRÉES
la norme utilisée est la norme euclidienne x = 2
i xi et par conséquent,
on définit le problème des moindres carrées de la façon suivante.
min xt Gx − 2ht x
x∈Rn
avec G = At A et h = At b
∇x u = (B + B t )x et ∇x v = h
8.3. LE PROBLÈME DES MOINDRES CARRÉES COMME UN PROBLÈME DE PROJECTION45
At Ax = At b
Théoreme 38 Si A une matrice de Mpn est une matrice telle que RangA =
n alors le problème des moindres carrées admet une solution unique x̄ veri-
fiant :
At Ax̄ = At b
Preuve Etapes :
1. RangA = n implique que G est définie positive (donc inversible),
2. le système At Ax = At b admet donc une unique solution x̄,
3. x̄ est un minimum de xt At Ax − 2(At b)t x.
et
y t z = 0, ∀y ∈ S, z ∈ S ⊥
x − x̂ ∈ S ⊥
Preuve
On a :
2 2
x−y = x − ŷ − (y − ŷ)
2 2
= x − ŷ + y − ŷ − x − ŷ, y − ŷ
2 2
= x − ŷ + y − ŷ
2
min Ax − b
x∈Rn
At (Ax̄ − b) = 0
9.1 Introduction
La résolution d’un problème de moindres carrées peut être effectué à
partir de l’équation normale :
At Ax = At b
Cependant, l’approche algébrique permet de présenter le problème des moindres
carrée comme un problème de projection orthognale et de résolution d’un
problème de pré-image ensuite. Cette dernière méthode ouvre une autre
perspective à la résolution des problèmes des moindres carrées.
49
50CHAPITRE 9. RÉSOLUTION DES PROBLÈMES DE MOINDRES CARRÉES
Qt Ax = Qt b
A = QR
Rx = Qt b
H = I − 2yy t
avec y ∈ Rn et y = 1
9.3. FACTORISATION QR PAR LA MÉTHODE DE HOUSEHOLDER51
Propriété H est une symétrie par rapport à l’ensemble des vecteurs z ∈ Rn tels
que z t y = 0.
Hy = y − 2yy t y = −y
si z t y = 0 alors,
Hz = z − 2yy t z = z
9.3.2 Factorisation QR
Théoreme 43 Soit A ∈ Mp,n avec p ≥ n, alors il existe une matrice or-
thogonale Q ∈ Mp,p et une matrice triangulaire supérieure R ∈ Mn,n telle
que
R
A=Q
0
yk ykt
H (k) = Ik − 2
ykt yk
avec yk = vk ± vk e1k .
On définit alors U (k) comme :
(k) Ik−1 0
U =
0 H (k)
2 2 2
Ax − b = Qt (Ax − b) = Qt Ax − Qt b
Définissions c ∈ Rn et d ∈ Rp−n par :
t c
Qb=
d
alors, on a :
R Rx − c
Q Ax − Q b =
t t
x−Q b= t
0 d
et par conséquent :
2 2 2
Ax − b = Rx − c + d
9.4. APPLICATION DE LA FACTORISATION QR AUX MOINDRES CARRÉES53
Rx = c