[PDF] [PDF] ALGEBRE LINEAIRE NUMERIQUE - Université de Rennes 1

A est dite inversible ou réguli`ere si il existe une matrice B telle que AB = BA = I La matrice B est alors notée A−1 et appelée inverse de A I désigne la matrice 



Previous PDF Next PDF





[PDF] ALGEBRE LINEAIRE NUMERIQUE - Université de Rennes 1

A est dite inversible ou réguli`ere si il existe une matrice B telle que AB = BA = I La matrice B est alors notée A−1 et appelée inverse de A I désigne la matrice 



[PDF] Algèbre linéaire et bilinéaire

On peut remarquer que les propriétés (a) et (b) des conditions 1 et 2 respectivement sont analogues simplement maîtriser quelques outils d' algèbre linéaire



[PDF] Livret de l agrégatif - Préparation à lagrégation externe de

les rapports de jury 击 Site de la prépa de Rennes : http://agreg-maths univ- rennes1 fr/ 13 4 Approximation de fonctions numériques 13 5 Équations Mansuy et Mneimé, Algèbre linéaire, réduction des endomorphismes, Vuibert Groupes



[PDF] Métaplans dAlgèbre pour lAgrégation - ENS Rennes

[1] Grégoire ALLAIRE et Sidi Mahmoud KABER, Algèbre Linéaire Numérique nn ENS Rennes - Université de Rennes 1 37 Pierre Le Barbenchon 



[PDF] Analyse numérique

13 avr 2020 · Université de Rennes 1, année 2019/2020 Méthodes numériques Dans ce cas, la formulation « algèbre linéaire »revient à inverser la 



[PDF] Mes leçons dagrégation

Applications 70 Adrien LAURENT 1 ENS Rennes - Université de Rennes 1 linéaire par les matrices de permutations donne lieu à des représentations dont il est facile de Références : Arnaudiès, Fraysse, Cours de mathématiques 1 - Algèbre Di Menza, Analyse numérique des équations aux dérivées partielles



[PDF] Les problèmes posés par lapprentissage de lalgèbre linéaire

Département de mathématiques et informatique, université de Rennes, l' algèbre linéaire doit être acquise très tôt par les étudiants en Exemple de questions posées : 1) quelles sont pour vous les difficultés de ce domaine des par exemple : passage du graphique à l'algébrique (au numérique ou au symbolique ) et



[PDF] DOSSIER SCIENTIFIQUE ∗ Sébastien Martin Table des matières

24 mar 2021 · Villetaneuse, 6 juin 2014 ◦ Séminaire d'Analyse Numérique de l'IRMAR ENS Cachan, INSA de Rennes Université de Rennes 1 Rennes 



[PDF] lalgèbre linéaire

et de la physique dans la transition lycée-université : continuité ou rupture ? L'algèbre linéaire a émergé historiquement pour unifier plusieurs Rennes 1, 2013, M -P Lebaud Déficit dans les compétences numériques et algébriques

[PDF] Introduction à la décomposition en éléments simples des fractions

[PDF] le calcul et l'analyse des ecarts - AUNEGE

[PDF] numeration decomposer des nombres - Eklablog

[PDF] Décomposer et recomposer les nombres au cycle 1 - Groupe

[PDF] Introduction à la décomposition en éléments simples des fractions

[PDF] Fractions rationnelles - Exo7

[PDF] Exo7 - Exercices de mathématiques

[PDF] Introduction à la décomposition en éléments simples des fractions

[PDF] Introduction à la décomposition en éléments simples des fractions

[PDF] INSA de Toulouse, spécialité AEI 4`eme année MATLAB - LAAS

[PDF] Introduction à la décomposition en éléments simples des fractions

[PDF] Introduction à la décomposition en éléments simples des fractions

[PDF] Tutoriel Sage - SageMath Documentation

[PDF] Introduction à la décomposition en éléments simples des fractions

[PDF] Fractions rationnelles - Exo7

[PDF] ALGEBRE LINEAIRE NUMERIQUE - Université de Rennes 1

Universit´e de Rennes 12006 - 2007

U.F.R. Math

´ematiquesSupport de cours

Licence MathF04

ALGEBRE LINEAIRE NUMERIQUE

Eric DARRIGRAND, Gr´egory VIAL

2

Table des mati`eres

1 ALG `EBRE LIN´EAIRE : RAPPELS ET COMPLEMENTS 5

1.1 Notations et Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . 5

1.1.1 Quelques d´efinitions et notations . . . . . . . . . . . . . . . .. . . . . . 5

1.1.2 Th´eorie spectrale - Premi`eres r´eductions . . . . . . .. . . . . . . . . . . 7

1.1.3 Normes et suites de matrices . . . . . . . . . . . . . . . . . . . . . .. . 11

1.2 D´ecompositions usuelles . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . 12

1.2.1 D´ecomposition polaire . . . . . . . . . . . . . . . . . . . . . . . . .. . 13

1.2.2 D´ecompositions LU, LDU, de Cholesky . . . . . . . . . . . . . .. . . . 13

1.2.3 D´ecomposition QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

1.2.4 D´ecomposition en valeurs singuli`eres . . . . . . . . . . .. . . . . . . . 15

1.3 Th´eorie Spectrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . 16

1.4 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 20

1.4.1 Imagerie num´erique . . . . . . . . . . . . . . . . . . . . . . . . . . . .20

1.4.2 La corde vibrante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2 R

´ESOLUTIONS NUM´ERIQUES23

2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 23

2.2 M´ethodes directes pour la r´esolution de syst`emes lin´eaires carr´es . . . . . . . . . 24

2.2.1 M´ethode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

2.2.2 D´ecomposition LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

2.2.3 M´ethode de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

2.2.4 Notion de stabilit´e num´erique . . . . . . . . . . . . . . . . . .. . . . . 30

2.2.5 Factorisation QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

2.3 Syst`emes sur-d´etermin´es . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . 30

2.3.1 R´esultats pr´eliminaires . . . . . . . . . . . . . . . . . . . . . .. . . . . 31

2.3.2 R´esolution de l'´equation normale . . . . . . . . . . . . . . .. . . . . . 31

2.3.3 M´ethode de factorisation QR . . . . . . . . . . . . . . . . . . . . .. . . 31

2.3.4 Algorithme de Householder - Une autre mise en oeuvre de la m´ethode de

factorisation QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

2.4 M´ethodes it´eratives . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . 34

2.4.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

2.4.2 M´ethode de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

2.4.3 M´ethode de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . .. 37

2.4.4 M´ethode de relaxation (SOR - Successive Over Relaxation) . . . . . . . 38

2.4.5 Comparaison des m´ethodes sur des matrices tridiagonales . . . . . . . . 39

2.4.6 Programmation dans le cas g´en´eral . . . . . . . . . . . . . . .. . . . . . 39

2.5 M´ethodes variationnelles . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . 40

2.5.1 La m´ethode du gradient `a pas fixe . . . . . . . . . . . . . . . . . .. . . 40

2.5.2 Interpr´etation graphique . . . . . . . . . . . . . . . . . . . . . .. . . . 41

2.5.3 M´ethode du gradient `a pas optimal . . . . . . . . . . . . . . . .. . . . . 42

2.5.4 Espaces de Krylov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

3

2.5.5 M´ethode du gradient conjugu´e . . . . . . . . . . . . . . . . . . .. . . . 43

3 APPROXIMATION SPECTRALE45

3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 45

3.1.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

3.1.2 Analyse de sensibilit´e . . . . . . . . . . . . . . . . . . . . . . . . .. . 45

3.2 M´ethodes de la puissance . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . 45

3.2.1 M´ethode de la puissance . . . . . . . . . . . . . . . . . . . . . . . . .. 45

3.2.2 M´ethode de la puissance inverse . . . . . . . . . . . . . . . . . .. . . . 48

3.2.3 M´ethode de la puissance inverse avec translation . . .. . . . . . . . . . 48

3.3 M´ethode de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 48

3.4 M´ethode de Givens-Householder . . . . . . . . . . . . . . . . . . . .. . . . . . 49

3.5 M´ethode QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

4

Chapitre 1ALG`EBRE LIN´EAIRE : RAPPELS ET

COMPLEMENTS

1.1 Notations et Rappels

Nous nous plac¸ons dans le corpsK, en g´en´eralRouC.

1.1.1 Quelques d

´efinitions et notations

D

´efinition 1.

On notera

K dl'ensemble des vecteurs de tailled. K m×pouMm,p(K)l'ensemble des matrices carr´ees de taillem×p(`amlignes etpco- lonnes). M m(K) =Mm,m(K)l'ensemble des matrices carr´ees de taillem×m.

Propri

´et´e 1.

M m,p(K)muni de l'addition et du produit par un scalaire d´efinit un espace vectoriel (cad, ?A,B? Mm,p(K)etα?K,αA+B? Mm,p(K)).

Propri

´et´e 2.

M m(K)muni de plus du produit entre matrices d´efinit une alg`ebre. Rappel sur le produit : la matriceC=ABest d´efinie parCij=m? k=1A ikBkj. D

´efinition 2.

SoitAune matrice deMm(K).Aest dite inversible ou r´eguli`ere si il existe une matriceB telle queAB=BA=I. La matriceBest alors not´eeA-1et appel´ee inverse deA.

Id´esigne la matrice identit´e deMm(K):Iij=δijo`uδijest le symbole de Kronecker (il vaut 1

sii=jet 0 sinon).

Propri

´et´e 3.

SoitAune matrice deMm(K). Les propositions suivantes sont´equivalentes :

1.Aest inversible,

2.kerA={0},

3.ImA=Km,

4. il existeB? Mm(K)telle queAB=I,

5. il existeB? Mm(K)telle queBA=I,

5

D´efinition 3. (et Propri´et´e)

L'ensemble des matrices deMm(K)inversibles est not´eGLm(K)et constitue un groupe pour la multiplication dansMm(K)qu'on appelle groupe lin´eaire. L'ensemble des matrices deMm(K)inversibles et de d´eterminant ´egal `a 1 est not´eSLm(K)et constitue un groupe pour la multiplication dansMm(K)qu'on appelle groupe sp´ecial lin´eaire. D

´efinition 4.

SoitAune matrice deMm,p(K). On appelle respectivement matrice transpos´ee deA, not´ee A T, et matrice adjointe deA, not´eeA?, les matrices deMp,m(K)d´efinies par A T ij=Aji?(i,j)? {1,...,m} × {1,...,p}et?A?=ATsiK=R, A

ATsiK=C.

Proposition 1.

SoitAune matrice deMm,p(K). Alors :

dim ImA= dim ImA?, kerA?= (ImA)?,

ImA?= (kerA)?.

D

´efinition 5.

SoitAune matrice deMm(K). La matriceAest dite

·diagonale siAij= 0pour tout(i,j)tel quei?=j

(on d´esigne alorsApar diag(λ1,···,λm), o`uλi=Aiipour touti? {1,...,m}),

·sym´etrique siA=AT,

·orthogonaleA-1=AT,

·unitaire siA-1=A?,

·normale siAA?=A?A,

·hermitienne siA=A?etK=C,

·auto-adjointe siA=A?,

·sym´etrique positive, lorsqueK=R, siAest sym´etrique et si pour tout vecteurvdeKm, v

TAv≥0,

·sym´etrique d´efinie positive, lorsqueK=R, siAest sym´etrique et si pour tout vecteurvde

K m\ {0},vTAv >0. ·hermitienne positive, lorsqueK=C, siAest hermitienne et si pour tout vecteurvdeKm, vTAv≥0, ·hermitienne d´efinie positive, lorsqueK=C, siAest hermitienne et si pour tout vecteurv deKm\ {0}, vTAv >0. ·triangulaire inf´erieure siaij= 0pour tout(i,j)tel quei < j. ·triangulaire sup´erieure siaij= 0pour tout(i,j)tel quei > j.

Quelques exemples de matrices

·Une matrice sym´etrique non hermitienne :

?1i i1?

·Une matrice hermitienne non sym´etrique :

?1i -i1?

·Une matrice sym´etrique et hermitienne :

?2 11 2? 6

·Matrice de Householder :Soitvun vecteur non nul. On d´efinit la matrice de Householder associ´eeH(v)parH(v) =

I-2vvT

?v?2. Cette matrice est sym´etrique et orthogonale. Elle est associ´ee `a la sym´etrie or- thogonale par rapport `a l'hyperplan orthogonal `av. Sixest un vecteur quelconque etule vecteur de cet hyperplan tel quex=αv+u, alorsH(v)x=-αv+u.

Elle a les bonnes propri´et´es suivantes :

Sieest un vecteur unitaire v´erifiantv?=±?v?e, alors

H(v+?v?e)v=-?v?eetH(v- ?v?e)v= +?v?e .

On peut d´ej`a constater queH(v+?v?e)transforme un vecteurvqui a priori peut ne pas avoir de composantes nulles, en un vecteur qui n'aura qu'unecomposante non nulle poure dans la base canonique. Les matrices de Householder nous permettront ainsi de mettre en place des m´ethodes de r´eduction des matrices (voir les chapitres suivants).

·Matrice de Givens :La matrice de Givens est une matrice de rotation. Soitθun angle. La matrice associ´ee `a la

rotation d'angleθest la matrice de Givens :(((((((((((((((((((((1 1 c s 1 1 -s c 1

1)))))))))))))))))))))

avecc= cos(θ)ets= sin(θ). Les ´el´ements non diagonaux non repr´esent´es sont nuls.

Cette matrice est orthogonale et v´erifie des propri´et´es semblables `a celles de la matrice de

Householder.

1.1.2 Th

´eorie spectrale - Premi`eres r´eductions

SoientA,B? Mm(C);tr(A): trace deA;det(A): d´eterminant deA. D

´efinition 6.

On appelle permutation d'ordrem, toute bijection de l'ensemble{1,···,m}dans lui-mˆeme. L'ensemble des permutations d'ordremest not´eSm. On appelle signature d'une permutation

σ? Sm, le nombre

ε(σ) = (-1)p(σ)avecp(σ) =?

σ(i,j),

1siσ(i)≥σ(j).

D

´efinition 7.

On appelle trace deAet on notetrAla somme de ses ´el´ements diagonaux. On appelle d´eterminant deAle nombre detA=?

σ?Smε(σ)m?i=1a

iσ(j). 7

Propri´et´e 4.

La trace et le d

´eterminant v´erifient les propri´et´es suivantes : tr(AB) = tr(BA), det(AB) = detAdetB= det(BA),

La trace et le d

´eterminant sont invariants par changement de base.

Propri

´et´e 5.

D ´esignons parδm-1(i,j)le d´eterminant de la matrice carr´ee de taille(m-1)×(m-1) extraite deApar suppression de lai-`eme ligne et de laj-`eme colonne. Alors, pour touti? {1,···,m} detA=m? j=1(-1)i+jaijδm-1(i,j).

Cette relation offre une premi`ere technique de calcul d'und´eterminant. Mais le coˆut en temps

de calcul d'une telle m´ethode est r´edhibitoire : de l'ordre de(m!). La programmation de cette

technique est alors fortement d´econseill´ee d`es lors quemn'est plus de l'ordre de l'unit´e.

D

´efinition 8.

On appelle polynˆome caract´eristique et on notePA(λ)(ouχA(λ)) le polynˆome

A(λ) =PA(λ) = det(A-λI).

Sesnracines complexes sont appel´ees valeurs propres deA. Soitλiune valeur propre deA. On

dit queλiest une valeur propre de multiplicit´enisiλiest une racine dePA(λ)de multiplicit´eni.

L'ensemble des valeurs propres deAest appel´e spectre deAet est not´eσ(A). D

´efinition 9.

Soitλune valeur propre deA. On dit quexest un vecteur propre deAassoci´e `aλsix?= 0 etAx=λx. D

´efinition 10.

Soitλune valeur propre deA. On appelle sous-espace propre associ´e `aλ, le sous-espace E

λ= ker(A-λI). On appelle sous-espace spectral ou caract´eristique associ´e `aλle sous-espace

F

λ=?k≥1ker(A-λI)k.

Remarque 1.

D

´efinition 11.

SoitP(X) =d?

i=1α iXiun polynˆome surC. On noteP(A), polynˆome de la matriceA, la matrice d? i=1α iAi.

Remarque 2.

SoientP(X)etQ(X)deux polynˆomes surC. AlorsP(A)Q(A) =Q(A)P(A). Siλest valeur propre deAalorsP(λ)est valeur propre deP(A).

D´emonstration : Soitxvecteur propre associ´e `aλ. Alors,A2x=A(λx) =λ2x. Par r´ecurren-

ce, on montre queApx=λpxet ainsiP(A)x=P(λ)x. Th

´eor`eme 1. (lemme des noyaux)

Soientλ1,···,λplespvaleurs propres distinctes deA? Mm(K). On notenileurs multi- plicit C m=?pi=1Fλio`uFλi= ker(A-λi)ni, ni= dimFλi,etPA(λ) =p? i=1(λi-λ)ni. 8

D´efinition 12.

A? Mm(C)est toujours triangularisable, cad : Il existeTtriangulaire etP? Mm(C) inversible telles quePTP-1=A. A? Mm(C)est diagonalisable (cad, il existeDdiagonale etP? Mm(C)inversible telles que PDP -1=A) ssiFλi=Eλi(autrement dit,dim (Eλi) =ni) pour toute valeur propreλideA. D´emonstration de la premi`ere partie (par r´ecurrence surla taillemde la matrice) : P

Aadmet une racine dansCnot´eeλ.Aadmet un vecteur proprevassoci´e `a la valeur propreλ. Il

existe alors une matrice de changement de baseP1contenantvtelle queA=P1?AP-11, avec?A de la forme

A=(((((λ α

2···αm

0 .B

0)))))

o`uBest une matrice de dimension(m-1)×(m-1). Hypoth`ese de r´ecurrence :B=P2TBP-12avecTBtriangulaire etP2inversible. En posant finale- mentP=P1P3avecP3d´efinie par P

3=(((((1 0···0

0 .P2

0)))))

et(β2,···,βm) = (α2,···,αm)P2, on obtient P -1AP=(((((λ β

2···βm

0 .TB

0)))))

Th

´eor`eme 2. (th´eor`eme de Cayley-Hamilton)

P

A(A) = 0.

D´emonstration : SiAest diagonalisable : Soitxun vecteur propre etλla valeur propre as- soci´ee. Alors on aPA(A)x=PA(λ)x= 0. On en d´eduit que tout vecteur propre deAest dans le noyau dePA(A), ce qui implique quePA(A) = 0, puisqu'on peut trouver une base de vecteurs propres.

SiAest non diagonalisable, on utilise deux r´esultats non triviaux : Densit´e de l'ensemble des

matrices diagonalisables dans l'ensemble des matrices et continuit´e de l'applicationA?→PA(A).

D

´efinition 13.

On appelle polynˆome minimal deAle polynˆome de plus petit degr´e et de coefficient de plus haut degr´e ´egal `a 1, qui s'annule enA.

Remarque 3.

SiAadmetmvaleurs propres distinctes deux `a deux, alors le polynˆomeminimal est ´egal au polynˆome caract´eristique. La r´eciproque est fausse.

Exercice : Qu'en est-il de la matrice?1 00 1?

9

Remarque 4.

SoitBiune base deFλi, alorsB=?pi=1Biest une base deCm. NotonsPla matrice de changement de base associ´ee, alors P -1AP=(((A 10

0Ap)))

o`uAiest une matrice carr´ee de tailleniayant pour unique valeur propreλiavec la multiplicit´eni,

et pouvant ˆetre r´eduite selon la forme de Jordan. ChaqueAipeut s'´ecrire sous la forme iε10 ...εni-1 i)))))) avecεk? {0,1}pourk= 1,···,ni-1. Si la matrice est diagonalisable, la forme de Jordan donne lamatrice diagonale. Sinon, cette forme peut ˆetre qualifi´ee "forme diagonalis´ee des matrices non diagonalisables". Th

´eor`eme 3. (th´eor`eme de Schur)

Pour toutA? Mm(C), il existeUunitaire (U-1=U?) telle queU?AUsoit triangulaire. D´emonstration :?Pmatrice de changement de base etTtriangulaire telles queA=PTP-1. Soientviles vecteurs colonnes deP. Soientuiles vecteurs obtenus par orthonormalisation desvi

respectant la relationVect{v1,···,vk}= Vect{u1,···,uk}pour toutk. Une telle op´eration est

toujours possible, par le proc´ed´e d'orthonormalisationde Gram-Schmidt par exemple. La matrice

Uengendr´ee par lesuiest donc unitaire etU?AUest triangulaire. En effet,?Ttriangulaire telle queAP=PT??Vect{Av1,···,Avk} ?Vect{v1,···,vk} =?Vect{Au1,···,Auk} ?Vect{u1,···,uk} ?? ?Rtriangulaire telle queAU=UR.

Autre d´emonstration : On aurait pu reprendre la d´emonstration relative `a la d´efinition des

matrices triangularisables en compl´etantvpar une famille de vecteurs orthogonaux `av. Th

´eor`eme 4.

La matriceA, de valeurs propresλ1,···,λm, est normale (AA?=A?A) si et seulement s'il existe une matrice unitaireUtelle queA=Udiag(λ1,···,λm)U?. De plus,Apeut s'´ecrire A=m? i=1λ iuiu?i, o `u lesuid´esignent les colonnes deU, autrement dit, les vecteurs propres deA.

Remarque 5.

Cette ´ecriture permet la mise en place d'une technique de r´eduction de matrice lorsque cer- taines valeurs propres sont petites par rapport `a d'autres. Th

´eor`eme 5.

La matriceA, de valeurs propresλ1,···,λm, est auto-adjointe (A=A?) si et seulement s'il

existe une matrice unitaireUtelle queA=Udiag(λ1,···,λm)U?, avecλi?R. D´emonstration : corollaire du pr´ec´edent. 10

Th´eor`eme 6.

SoitAune matrice auto-adjointe (A=A?).Aest positive si et seulement si toutes ses valeurs

propres sont positives ou nulles.Aest d´efinie positive si et seulement si toutes ses valeurs propres

sont strictement positives. Th

´eor`eme 7.

SoitAune matrice auto-adjointe positive. Alors?Bnot´eeA1/2telle queA=B2. D´emonstration : Existence :A=UDU?avecDpositive. On prend alorsΔtelle queD= Δ2.

Imm´ediat puisqueDest diagonale `a ´el´ements positifs. On a alorsΔ = Δ?et on peut ´ecrire

A=B2avecB=UΔU?. L'unicit´e sera vue en TD.

1.1.3 Normes et suites de matrices

D

´efinition 14.

Une norme surCmest une application, not´ee?·?, deCmdansR+qui v´erifie les propri´et´es

suivantes

1.?x?Cm,?x?= 0 =?x= 0,

2.?x?Cm,?λ?C,?λx?=|λ|?x?,

Quelques normes usuelles :

La norme euclidienne :?x?2=?

m? i=1|xi|2? 1 2

La normelp:?x?p=?

m? i=1|xi|p? 1 p , p≥1, C mest de dimension finie donc toutes les normes surCmsont ´equivalentes. En particulier, rappelons les relations d'´equivalence : m?x?2. D

´efinition 15. (Norme matricielle)

Une norme?·?surMm(C)est dite matricielle si elle v´erifie pour toutes matricesA,B? M m(C) D

´efinition 16. (Norme subordonn´ee)

Soit?·?une norme vectorielle surCm. On lui associe surMm(C)une norme matricielle dite subordonn´ee `a cette norme vectorielle et d´efinie par : pour toute matriceA? Mm(C) ?A?= sup x?Cm,x?=0?Ax? ?x?. Quelques relations d'´equivalence pour les normes subordonn´ees usuelles : m

Proposition 2.

Soit?·?une norme matricielle subordonn´ee surMm(C). Alors 11

1. Pour toute matriceA, la norme?A?est aussi d´efinie par

?A?= sup x?Cm,?x?=1?Ax?= sup

2. Il existexA?Cm,xA?= 0tel que

?A?=?AxA? ?xA?,

3. La matrice identit

´e v´erifie

?I?= 1,

4. Une norme subordonn

´ee est bien une norme matricielle.

D

´efinition 17. (Norme de Frobenius)

?A?F=? La norme de Frobenius est une norme matricielle non subordonn´ee. D

´efinition 18. (Conditionnement)

SoitAinversible. On appelle conditionnement deArelativement `a la norme?·?, le nombre cond(A) =?A???A-1??.

Propri

´et´e 6.

SiAest carr´ee sym´etrique d´efinie positive,cond2(A) =λmax(A)

λmin(A), o`uλmax(A)etλmin(A)

d ´esignent respectivement la plus grande et la plus petite valeurs propres deA.

Remarque 6.

Le conditionnement est une quantit´e qui joue un rˆole important dans la r´esolution num´erique

des syst`emes lin´eaires. En effet, on verra qu'il est un indicateur de la stabilit´e num´erique des

m´ethodes directes et de la vitesse de convergence des m´ethodes it´eratives. D

´efinition 19. (Rayon spectral)

On appelle rayon spectral deA:ρ(A) = maxλ?σ(A)|λ|. Th

´eor`eme 8.

Pour toute norme subordonn

R

Proposition 3. (Autres r

´esultats)

-?(An)?1/n-→ρ(A)quandn→ ∞. -(An)nconverge ssiρ(A)<1. -exp(tA)-→0quandt→ ∞ssi?λ?σ(A),?e(λ)<0

Ce type de r´esultat intervient dans la r´esolution des syst`emes d'´equations diff´erentielles `a

coefficients constants.

1.2 D´ecompositions usuelles

Nous avons jusqu'`a pr´esent introduit quelques objets relatifs `a la th´eorie de l'alg`ebre lin´eaire.

Nous proposons ici quelques premiers outils qui joueront unrˆole fondamental dans la r´esolution

de syst`emes lin´eaires.

Une matrice peut souvent ˆetre difficile `a inverser. Il est donc appr´eciable de pouvoir la d´ecom-

poser en plusieurs matrices dont les propri´et´es sont plusavantageuses. 12

1.2.1 D´ecomposition polaire

Th

´eor`eme 9.

Hhermitienne d´efinie positive, etUunitaire (U-1=U?), tel queA=HU. D´emonstration : Supposons que l'on peut ´ecrireA=HUavecUunitaire etHhermi- tienne alorsAA?=HUU?H=H2. On en d´eduit queHest unique et hermitienne positive n´ecessairement donn´ee parH= (AA?)1/2. On peut toujours choisirH= (AA?)1/2et poserA=HU. Il suffit de prendreU=H-1A. Montrons alors queH-1Aest unitaire :UU?=H-1AA?(H-1)?=H-1H2(H-1)?, orHest hermitienne doncUU?=I. L'unicit´e deHimplique celle deU.

Remarque 7.

SiAest non inversible, on a existence deHetU(il suffit de regarderAε=A+εI). Mais on n'a pas l'unicit´e.

Remarque 8.

En dim 1, pourz?C?,?!ρ >0etutels que|u|= 1etz=ρu. Il existe un uniqueθ?[0,2π[ tel queu=eiθ. D'o`u le nom de la d´ecomposition.

1.2.2 D

´ecompositions LU, LDU, de Cholesky

Th

´eor`eme 10. (Factorisation LU)

Soit une matriceA? Mm(K)dont toutes les sous-matrices d'ordrek? {1,···,m}, de triangulaire sup ´erieure, etLtriangulaire inf´erieure`a diagonale unit´e (i.e.lii= 1), tel que A=LU.

D´emonstration : Par r´ecurrence surm.

Sim= 1, ´evident.

quotesdbs_dbs31.pdfusesText_37