[PDF] [PDF] LICENCE 3 MATHEMATIQUES - Aix-Marseille Université

Exercices proposés (avec corrigés) : 28 (Décomposition LU d'une matrice à paramètres) et 29 (Echelonnement mrs fr/ herbin/PUBLI/L1alg pdf E(n−3), etc



Previous PDF Next PDF





[PDF] Exercices Corrigés Matrices Exercice 1 – Considérons les matrices

Exercice 12 – Soit A et B deux matrices carrées de même ordre, on suppose que la matrice AB est inversible d'inverse la matrice C Montrer alors que B est 



[PDF] Épreuve de Mathématiques 1 Exercice 1 (ESC Chambéry, ECT

3 sept 2010 · Épreuve de Mathématiques 1 Correction Exercice 1 (ESC Chambéry, ECT) Mon considère les matrices carrées A et B définies par : A =



[PDF] EXERCICES ET PROBLÈMES ÉLÉMENTS DE CORRECTION

Chapite 0 : correction d'exercices 3 NB : là encore cette propriété persiste quelque soit la taille des matrices 3° Question { } 2 2 2 n − etc on obtient, en 



[PDF] Matrices

Cours de mathématiques ECT 2ème année Chapitre 1 Matrices L'ensemble des matrices à n lignes et p colonnes se note Mn,p(R) Exemples : A =



[PDF] Exercices

Exercice 1 : Introduction aux matrices - Corrigé 1 a) direction, la quantité d' eau dans un verre, un montant d'argent gagné à la loterie, etc 4 5 6 a) 3,0 cm à  



[PDF] Exercices du chapitre 3 avec corrigé succinct - UTC - Moodle

pour les matrices diagonales (ai j = 0 pour i = j) on a aussi det A = n ∏ i=1 Solution : Dans l'exercice précédent on a vu que le déterminant de ∣ ∣ ∣ σ4 : (1, 2, 3) → (2,3,1),σ4 = σ2 ◦σ3 = σ1 ◦σ2 = σ1 ◦σ3 ◦σ3 ◦σ2 etc σ5 : (1, 2 



[PDF] Exercices avec corrigé succinct du chapitre 2 - UTC - Moodle

Exercice II 2 Soit A une matrice triangulaire inférieure Écrire l'algorithme permettant de résoudre le syst`eme linéaire Ax = b (b vecteur donné) en n' oubliant pas 



[PDF] LICENCE 3 MATHEMATIQUES - Aix-Marseille Université

Exercices proposés (avec corrigés) : 28 (Décomposition LU d'une matrice à paramètres) et 29 (Echelonnement mrs fr/ herbin/PUBLI/L1alg pdf E(n−3), etc



[PDF] Exercices corrigés - IMT Atlantique

Exercices corrigés Dominique Le lecteur trouvera ici les énoncés et corrigés des exercices proposés dans "Probabilités Soit A, B, etC trois événements quelconques Calculer les matrices de covariance de [X Y ]t et de [U V ]t Solution



[PDF] Recueil dexercices corrigés de première année ECS Table - Free

2 5 Matrices et systèmes linéaires Ces exercices courts, pour la plupart donnés en colles en première année, constitue une collection dans A, etc D'où m

[PDF] matrices qui commutent definition

[PDF] MATRICES SPÉ MATH TERMINALE ES

[PDF] Matrices Spécialité Maths

[PDF] Matrices système maths spe

[PDF] matrices terminale es spé maths

[PDF] Matrices, valeurs propres et vecteurs propres

[PDF] matriochka signification

[PDF] matrix hair careers

[PDF] mattek sands blessure

[PDF] mattek sands blessure wimbledon

[PDF] mattek sands genou

[PDF] mattek sands knee

[PDF] mattek-sands wimbledon

[PDF] Maturation de l’ARN prémessager en ARN messager : l’épissage

[PDF] Mature d'un mot

Aix Marseille Université - Centre de Télé-Enseignement Sciences Case 35. 3, place Victor Hugo. 13331 Marseille Cedex 03. http://www.ctes.univ-provence.fr

LICENCE 3 MATHEMATIQUES

Expédition dans la semaine n° Etape Code UE N° d'envoi de l'UE

46 2L3MAT SMI6U01T 1

Nom de l'UE : Analyse numérique et optimisation

proposŽ dŽtudier une partie du cours, de faire des exercices (corrigŽs) et, Žventuellement, de rŽaliser un TP en

python. Les TP sont conseillŽs mais non obligatoires. Deux devoirs sont ˆ rendre afin de bŽnŽficier dune note de

contr™le continu. note finale=max(note-examen, 1/3(2 note-examen + note-contr™le-continu)). - Contenu de lenvoi : PolycopiŽ, chapitre 1, paragraphe 1 ˆ 4. TP 1 et 2 - Guide du travail ˆ effectuer

Semaine 1 :

Etudier les paragraphes 1.1 (Objectifs), 1.2.1 (rappels d'algèbre linéaire) et 1.2.2 (discrétisation d'une équation)

proposés (avec corrigés) : 3 !"#$%&'$()$*+,*'-./0, 4, 6 !1'-2*&,*3-,40*, 9 !5-*)-6'27$*8 9 0:*

L'exercice 11 !;$%<&=,62&.*+>,.* ultérieurement)

Semaine 2 :

Etudier le paragraphe 1.3 (méthodes directes) jusqu'au théorème 1.22 (décomposition de Choleski) sans la

démonstration

Exercices proposés (avec corrigés) : 19 (Vrai ou faux), 21 (5A0, 27 (Sur la méthode LLt), 28 (Décomposition

LU d'une matrice à paramètres). Faire le TP 1

Semaine 3 :

Etudier la démonstration du théorème 1.22, terminer le paragraphe 1.3.

Exercices proposés (avec corrigés) : 28 (B$%7&)@&<262&.*5A*+>,.$*)-6'27$*-(*@-'-)$(6'$<) et 29 (C7#$=&..$)$.6*$6*

3-76&'2<-62&.*5A*$6*5BA0.

Semaine 4 :

Etudier le paragraphe 1.4 (Normes et conditionnement d'une matrice) Exercices proposés (avec corrigés) : 39

(D&')$<*2.+,26$<*@-'627,=2$('$<), 42 (Matrice diagonalisable et rayon spectral), 44 (E$%'2$*+$*D$,)-..). Faire le

TP2

L'exercice 48 (F&.+262&..$)$.6*+$*=-*)-6'27$*6'-.<@& -CoordonnŽes de lenseignant responsable de lenvoi R. Herbin, I2M, 39 rue Joliot Curie, 13453 marseille cedex 13 email : raphaele.herbin@univ-amu.fr Vous pouvez aussi consulter la page web: http://www.i2m.univ-amu.fr/~herbin et me poser des questions par email

IntroductionL"objet de l"analyse numérique est de concevoir et d"étudier des méthodes de résolution de certains problèmes

mathématiques, en général issus de la modélisation de problèmes "réels", et dont on cherche à calculer la solution

à l"aide d"un ordinateur.

Les méthodes numériques pour la résolution des équations différentielles sont abordées dans le cours d"équations

différentielles. Dans le cadre de ce cours, nous aborderonsles thèmes suivants, qui font l"objet de trois grands

chapitres : - Systèmes linéaires - Systèmes non linéaires - Optimisation

On pourra consulter les ouvrages suivants pour ces différentes parties (ceci est une liste non exhaustive!) :

- A. Quarteroni,R. Sacco et F. Saleri, MéthodesNumériques:Algorithmes,Analyseet Applications,Springer

2006.

- P.G. Ciarlet, Introduction à l"analyse numérique et à l"optimisation, Masson, 1982, (pour les chapitre 1 à 3

de ce polycopié).

- L.Dumas,Modélisationà l"oraldel"agrégation,calculscientifique,CollectionCAPES/Agrégation,Ellipses,

1999.
- E. Hairer, polycopié du cours "Analyse Numérique", http ://www.unige.ch/ hairer/polycop.html - J. Hubbard et F. Hubert, Calcul Scientifique, Vuibert.

- P. Lascaux et R. Théodor, Analyse numérique matricielle appliquée à l"art de l"ingénieur, tomes 1 et 2,

Masson, 1987

- L. Sainsaulieu, Calcul scientifique cours et exercices corrigés pour le 2ème cycle et les éécoles d"ingénieurs,

Enseignement des mathématiques, Masson, 1996.

- M. Schatzman, Analyse numérique, cours et exercices, (chapitres 1,2 et 4). - D. Serre, Les matrices, Masson, (2000). (chapitres 1,2 et 4).

- P. Lascaux et R. Theodor, Analyse numérique sappliquée auxsciences de l"ingénieur, Paris, (1994)

- R. Temam, Analyse numérique, Collection SUP le mathématicien, Presses Universitaires de France, 1970.

Et pour les anglophiles...

Englewood Cliffs, NJ.

- R. Fletcher, Practical methods of optimization, J. Wiley,New York, 1980 (chapitre 3).

- G. Golub and C. Van Loan, Matrix computations, The John Hopkins University Press, Baltimore (chapitre

1). - R.S. Varga, Matrix iterative analysis, Prentice Hall, Englewood Cliffs, NJ 1962.

Pour des rappels d"algègre linéaire :

3

TABLE DES MATIÈRESTABLE DES MATIÈRES

- Poly d"algèbre linéaire de première année, P. Bousquet, R.Herbin et F. Hubert, http ://www.cmi.univ-

mrs.fr/ herbin/PUBLI/L1alg.pdf - Introduction to linear algebra, Gilbert Strang, Wellesley Cambridge Press, 2008

Ce cours a été rédigé pour la licence de mathématiques à distance (téléenseignement) du CTES de l"université

d"Aix-Marseille. Chaque section est suivie d"un certain nombre d"exercices. On donne ensuite des suggestions

pour effectuer les exercices, puis des corrigés détaillés.Il est fortement conseillé d"essayer de faire les exercices

pour toute question sur le contenu du cours ou des exercices.

Analyse numérique I, télé-enseignement, L34Université d"Aix-Marseille, R. Herbin, 11 novembre 2018

Chapitre 1Systèmes linéaires1.1 ObjectifsOn noteMn(IR)l"ensemble des matrices carrées d"ordren. SoitA?Mn(IR)une matrice inversible etb?IRn,

l"objectif est de résoudre le système linéaireAx=b, c"est-à-dire de trouverxsolution de :

?x?IRn

Ax=b(1.1)

CommeAest inversible, il existe un unique vecteurx?IRnsolution de (1.1). Nous allons étudier dans les deux

paragraphes suivants des méthodes de calcul de ce vecteurx: la première partie de ce chapitre sera consacrée

aux méthodes "directes" et la deuxième aux méthodes "itératives". Nous aborderonsensuite en troisième partie les

méthodes de résolution de problèmes aux valeurs propres.

Un des points essentiels dans l"efficacité des méthodes envisagées concerne la taille des systèmes à résoudre. La

taille de la mémoire des ordinateurs a augmenté de façon drastique de 1980 à nos jours.

Le développement des méthodes de résolution de systèmes linéaires est liée à l"évolution des machines infor-

matiques. C"est un domaine de recherche très actif que de concevoir des méthodes qui permettent de profiter au

mieuxdel"architecturedesmachines(méthodesdedécompositionensous domainespourprofiterdesarchitectures

parallèles, par exemple).

Dans la suite de ce chapitre, nous verrons deux types de méthodes pour résoudre les systèmes linéaires : les

méthodes directes et les méthodes itératives. Pour faciliter la compréhension de leur étude, nous commençons par

quelques rappels d"algèbre linéaire.

1.2 Pourquoi et comment?

Nous donnons dans ce paragraphe un exemple de problème dont la résolution numérique recquiert la résolution

d"un système linéaire, et qui nous permet d"introduire des matrices que nous allons beaucoup étudier par la suite.

Nous commençons par donner ci-après après quelques rappelssuccincts d"algèbre linéaire, outil fondamentalpour

la résolution de ces systèmes linéaires.

1.2.1 Quelques rappels d"algèbre linéaire

Quelques notions de base

Ce paragraphe rappelle des notions fondamentales que vous devriez connaître à l"issue du cours d"algèbre linéaire

de première année. On va commencer par revisiter leproduit matriciel, dont la vision combinaison linéaire de

lignes est fondamentale pour bien comprendre la forme matricielle de la procédure d"élimination de Gauss.

5

1.2. POURQUOI ET COMMENT? CHAPITRE 1. SYSTÈMES LINÉAIRES

SoientAetBdeux matrices carrées d"ordren, etM=AB. Prenons comme exemple d"illustration

A=?1 20 1?

,B=?-1 0 3 2? etM=?5 43 2? On noteai,j,bi,jetmi,j,i,j= 1,...nles coefficients respectifs deA,BetM. Vous savez bien sûr que m i,j=n? k=1a i,kbk,j.(1.2) On peut écrire les matricesAetBsous forme de lignes (notées?i) et colonnes (notéescj) : A=??? 1(A) n(A)?? etB=?c1(B)...cn(B)?

Dans nos exemples, on a donc

1(A) =?1 2?,?2(A) =?0 1?,c1(B) =?-1

3? c

2(B) =?02?

L"expression (1.2) s"écrit encore

m i,j=?i(A)cj(B),

qui est le produit d"une matrice1×npar une matricen×1, qu"on peut aussi écrire sous forme d"un produit

scalaire : m i,j= (?i(A))t·cj(B)

où(?i(A))tdésigne la matrice transposée, qui est donc maintenant une matricen×1qu"on peut identifier à un

vecteur deIRn. C"est la technique "habituelle" de calcul du produit de deux matrices. On a dans notre exemple :

m

1,2=?1(A)c2(B) =?1(A)c2(B) =?1 2??02?

= (?i(A))t·cj(B) =?12?

·?02?

= 4.

Mais de l"expression (1.2), on peut aussi avoir l"expression des lignes et des colonnes deM=ABen fonction

des lignes deBou des colonnes deA: i(AB) =n? k=1a i,k?k(B)(1.3) c j(AB) =n?k=1b k,jck(A)(1.4)

Dans notre exemple, on a donc :

1(AB) =?-1 0?+ 2?3 2?=?5 4?

ce qui montre que la ligne 1 deABest une combinaison linéaire des lignes deB. Le colonnes deAB, par contre,

sont des combinaisons linéaires de colonnes deA. Par exemple : c

2(AB) = 0?10?

+ 2?21? =?42? Il faut donc retenir que dans un produit matricielAB,

Analyse numérique I, télé-enseignement, L36Université d"Aix-Marseille, R. Herbin, 11 novembre 2018

1.2. POURQUOI ET COMMENT? CHAPITRE 1. SYSTÈMES LINÉAIRES

les colonnes deABsont des combinaisons linéaires des colonnes deA les lignes deABsont des combinaisons linéaires des lignes deB.

Cette remarque est très importante pour la représentation matricielle de l"élimination de Gauss : lorqu"on calcule

des systèmes équivalents, on effectue des combinaisons linéaires de lignes, et donc on multiplie à gauche par une

matrice d"élimination.

Il est intéressant pour la suite de ce cours de voir ce que donne la multiplication d"une matrice par une matrice de

permutation. Commençons par une exemple. SoitPetAdes matrices carrées d"ordre 2 définies par

P=?0 11 0?

, A=?a b c d? , PA=?c d a b? , AP=?b a d c?

La multiplication deApar la matricePéchange les lignes deAlorqu"on multiplieAparPà gauche, et elle

échangeles colonnesdeAlorqu"onmultiplieAparPà droite.Noter que ceci montred"ailleurs bienque le produit

matriciel n"est pas commutatif...La matricePs"appelle matrice de permutation. Les matrices de permutation

auront un fort rôle à jouer dans l"élaboration d"algorithmes de résolution des systèmes linéaires (voir l"algorithme

de Gauss avec pivot partiel).

De manière plus générale, on peut définir une matrice de permutation de la façon suivante :

Définition 1.1(Matrice de permutation).Soitn?INet soienti,j? {1,...,n}. On noteraP(i↔j)?Mn(IR)la

matrice telle que :

1. Sii=j,P(i↔j)= Idn,

2. Sii?=j,p(i↔j)

i,i=p(i↔j) j,j= 0,p(i↔j) i,j=p(i↔j) j,i= 1, et pour toutk,l? {1,...,n}tel que(k,l)/? {(i,i),(i,j),(j,i),(j,j)}, sik=l,p(i↔j) k,l= 1sinonp(i↔j) k,l= 0.

La matriceP(i↔j)est alors appelée matrice de permutation élémentaire. Une matrice de permutation est définie

comme le produit d"un nombre fini de permutations élémentaires.

Remarquons qu"une matrice de permutation possède alorsntermes égaux à1, et tous les autres égaux à 0, tels

que chaque ligne et chaque colonne comprenne exactement l"un des termes égaux à1(pour les amateurs de jeu

d"échecs, ces termes sont disposés commentours sur un échiquier de taillen×ntelles qu"aucune tour ne peut en

prendre une autre).

Pour toute matriceA?Mn(IR)et toute matrice de permutationP, la matricePAest obtenue à partir deApar

permutation des lignes deA, et la matriceAPest obtenue à partir deApar permutation des colonnes deA. Dans

un système linéaireAx=b, on remarque qu"on ne change pas la solutionxsi on permute des lignes, c"est à

dire si l"on résoutPAx=Pb. Notons que le produit de matrices de permutation est évidemment une matrice de

permutation, et que toute matrice de permutationPest inversible etP-1=Pt(voir exercice 2).

Le tableau ci-dessous est la traduction littérale de "Linear algebra in a nutshell", par Gilbert Strang1Pour une

matrice carréeA, on donne les caractérisations du fait qu"elle est inversible ou non.

On rappelle pour une bonne lecture de ce tableau les quelquesdéfinitions suivantes (s"il y a des notions que vous

avez oubliées ou que vous ne maîsez :

Définition 1.2(Pivot).SoitA?Mn(IR)une matrice carrée d"ordren. On appelle pivot deAle premier élément

non nul de chaque ligne dans la forme échelonnée deAobtenue par élimination de Gauss. Si la matrice est

inversible, elle a doncnpivots (non nuls).

1. Voir la page web de Strangwww.mit.edu/~gspour une foule d"informations et de cours sur l"algèbre linéaire.

Analyse numérique I, télé-enseignement, L37Université d"Aix-Marseille, R. Herbin, 11 novembre 2018

1.2. POURQUOI ET COMMENT? CHAPITRE 1. SYSTÈMES LINÉAIRES

AinversibleAnon inversible

Les vecteurs colonne sont indépendants Les vecteurs colonne sont liés Les vecteurs ligne sont indépendants Les vecteurs ligne sont liés Le déterminant est non nul Le déterminant est nul Ax= 0a une unique solutionx=0Ax=0a une infinité de solutions Le noyau deAest réduit à{0}Le noyau deAcontient au moins un vecteur non nul Ax=ba une solution uniquex=A-1bAx=ba soit aucune solution, soit une infinité

Aanpivots (non nuls)Aar < npivots

Aest de rang maximal : rang(A) =n. rang(A) =r < n

La forme totatement échelonnéeRdeAest la matrice identitéRa au moins une ligne de zéros L"image deAest toutIRnL"image deAest strictement incluse dansIRn L"espaceL(A)engendré par les lignes deAest toutIRnL(A)est de dimensionr < n Toutes les valeurs propres deAsont non nulles Zéro est valeur propre deA A tAest symétrique définie positive2AtAn"est que semi-définie TABLE1.1: Extrait de "Linear algebra in a nutshell", G. Strang

Définition 1.3(Valeurs propres).SoitA?Mn(IR)une matrice carrée d"ordren. On appelle valeur propre deA

toutλ?Cltel qu"il existex?Cln,x?= 0tel queAx=λx. L"élémentxest appelé vecteur propre deAassocié à

Définition 1.4(Déterminant).Il existe une unique application, notéedetdeMn(IR)dansIRqui vérifie les pro-

priétés suivantes (D1) Le déterminant de la matrice identité est égal à 1. (D2) Si la matrice ˜Aest obtenue à partir deApar échange de deux lignes, alorsdet˜A=-detA. (D3) Le déterminant est une fonction linéaire de chacune deslignes de la matriceA. (D3a) (multiplication par un scalaire) si ˜Aest obtenue à partir deAen multipliant tous les coefficientsd"une ligne parλ?IR, alorsdet(˜A) =λdet(A). 1(A) k(A) 1(A) .˜?k(A) 1(A) k(A) +˜?k(A) , alors det(B) = det(A) + det(˜A).

On peut déduire de ces trois propriétés fondamentales un grand nombre de propriétés importantes, en particulier

le fait quedet(AB) = detAdetBet que le déterminant d"une matrice inversible est le produit des pivots : c"est

de cette manière qu"on le calcule sur les ordinateurs. En particulier on n"utilise jamais la formule de Cramer,

beaucoup trop coûteuse en termes de nombre d"opérations.

On rappelle que siA?Mn(IR)une matrice carrée d"ordren, les valeurs propres sont les racines dupolynôme

caractéristiquePAde degrén, qui s"écrit : P

A(λ) = det(A-λI).

Analyse numérique I, télé-enseignement, L38Université d"Aix-Marseille, R. Herbin, 11 novembre 2018

1.2. POURQUOI ET COMMENT? CHAPITRE 1. SYSTÈMES LINÉAIRES

Matrices diagonalisables

Un point important de l"algèbre linéaire, appelé "réduction des endomorphismes" dans les programmes français,

consiste à se demander s"il existe une base de l"espace dans laquelle la matrice de l"application linéaire est diago-

nale ou tout au moins triangulaire (on dit aussi trigonale).

Définition 1.5(Matrice diagonalisable dansIR).SoitAune matrice réelle carrée d"ordren. On dit queAest

diagonalisable dansIRs"il existe une base(u1,...,un)deIRnet des réelsλ1,...,λn(pas forcément distincts)

tels queAui=λiuipouri= 1,...,n. Les réelsλ1,...,λnsont les valeurs propres deA, et les vecteurs

u

1,...,unsont des vecteurs propres associés.

Vous connaissez sûrement aussi la diagonalisation dansCl: une matrice réelle carrée d"ordrenadmet toujoursn

valeurs propres dansCl, qui ne sont pas forcément distinctes. Une matrice est diagonalisable dansCls"il existe une

base(u1,...,un)deClnet des nombres complexesλ1,...,λn(pas forcément distincts) tels queAui=λiui

pouri= 1,...,n. Ceci est vérifié si la dimension de chaque sous espace propreEi= Ker(A-λiId)(appelée

multiplicité géométrique) est égale a la multiplicité algébrique deλi, c"est-à-dire son ordre de multiplicité en tant

que racine du polynôme caractéristique.

Par exemple la matriceA=?0 01 0?

n"est pas diagonalisable dansCl(ni évidemment, dansIR). Le polynôme

caractéristique deAestPA(λ) =λ2, l"unique valeur propre est donc 0, qui est de multiplicité algébrique 2, et de

multiplicité géométrique 1, car le sous espace propre associé à la valeur propre nulle estF={x?IR2;Ax=

0}={x= (0,t),t?IR}, qui est de dimension 1.

Ici et dans toute la suite, comme on résout des systèmes linéaires réels, on préfère travailler avec la diagonalisation

dansIR; cependant il y a des cas où la diagonalisation dansClest utile et même nécessaire (étude de stabilité des

systèmes diférentiels, par exemple). Par souci de clarté, nous préciserons toujours si la diagonalisation considérée

est dansIRou dansCl. Lemme 1.6.SoitAune matrice réelle carrée d"ordren, diagonalisable dansIR. Alors

A=Pdiag(λ1,...,λn)P-1,

oùPest la matrice dont les vecteurs colonnes sont égaux à des vecteurs propresu1,...,unassociées aux valeurs

propresλ1,...,λn.

DÉMONSTRATION- Par définition d"un vecteur propre, on aAui=λiuipouri= 1,...n, et donc, en notantPla

matrice dont les colonnes sont les vecteurs propresui,?Au1... Aun?=A?u

1...un?=AP

et donc

AP=?λ

1u1... λnun?=?u

1...un??????λ

10...0

0λ2......

0...0λn?????

=Pdiag(λ1,...,λn).

Notons que dans ce calcul, on a fortement utilisé la multiplication des matrices par colonnes, c.à.d.

c i(AB) =n? j=1a i,jcj(B).

Analyse numérique I, télé-enseignement, L39Université d"Aix-Marseille, R. Herbin, 11 novembre 2018

1.2. POURQUOI ET COMMENT? CHAPITRE 1. SYSTÈMES LINÉAIRES

Remarquons quePlest aussi la matrice définie (de manière unique) parPei=ui, où(ei)i=1,...,nest la base canonique

deIRn, c"est-à-dire que(ei)j=δi,j. La matricePest appelée matrice de passage de la base(ei)i=1,...,nà la base

(ui)i=1,...,n; (il est bien clair que lai-ème colonne dePest constituée des composantes deuidans la base canonique

(e1,...,en).

La matricePest inversible car les vecteurs propres forment une base, eton peut donc aussi écrire :

P -1AP= diag(λ1,...,λn)ouA=Pdiag(λ1,...,λn)P-1.

La diagonalisation des matrices réelles symétriques est unoutil qu"on utilisera souvent dans la suite, en particulier

dans les exercices. Il s"agit d"un résultat extrêmement important.

Lemme 1.7(Une matrice symétrique est diagonalisable dansIR).SoitEun espace vectoriel surIRde dimension

finie :dimE=n,n?IN?, muni d"un produit scalaire i.e. d"une applicationquotesdbs_dbs18.pdfusesText_24