Analyse Numérique
Analyse Numérique. Corrigé du TD 5. EXERCICE 1. Méthode des Par suite d'apr`es l'exercice 1
Analyse Numérique
Un des buts de l'analyse numérique consiste Ceci montre que la méthode de Newton converge de façon quadratique...si elle converge !
Analyse Numérique - Exercices Corrigés
On a vu au cours que l'ordre de convergence de la méthode de Newton est 2 pourvu que f ne s'annule pas au zéro de f. En particulier dans notre cas : - zéro ?2
Analyse Numérique
Ce document propose un recueil d'exercices corrigés d'analyse numérique. Le Résolution de f(x)=0 par la méthode de newton :.
Devoir de révision : la méthode de Newton
(Éventuellement tracez les graphes et lisez le corrigé pour avoir les commentaires.) L'exercice 2 donne la relation de récurrence qui définit la suite de
2.3.3 Exercices (méthode de Newton)
Exercice 84 (Condition initiale et Newton). Corrigé en page 184 L'algorithme de Newton pour F(x y) = Analyse numérique I
Exercices corrigés
enseignant d'analyse numérique pour lui poser une question. Exercice 7 (ordre de convergence de la méthode de Newton) On rappelle ici la méthode de New-.
EXAMEN 1 - Corrigé
EXAMEN 1 - Corrigé. MAT-2910 : Analyse numérique pour l'ingénieur (v) [5 pts] Appliquer la méthode de Newton à l'équation de départ et faites 2 ité-.
Université Aix Marseille Licence de mathématiques Cours dAnalyse
17-Nov-2021 1.5.6 Exercicescorrigés . ... 2.3 Méthode de Newton dans IR n . ... M. Schatzman
ANALYSE NUMÉRIQUE
ANALYSE. NUMÉRIQUE. Exercices corrigés. Dr. Hafidha SEBBAGH Docteur en mathématiques option analyse numérique ... 1.3.5 Méthode de Newton modifiée .
Université Aix Marseille
Licence de mathématiques
Cours d"Analyse numérique
Raphaèle Herbin
17 novembre 2021
Table des matières1 Systèmes linéaires5
1.1 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . 5
1.2 Pourquoi et comment? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . 5
1.2.1 Quelques rappels d"algèbre linéaire . . . . . . . . . . . . . .. . . . . . . . . . . . . . . 5
1.2.2 Discrétisation de l"équation de la chaleur . . . . . . . . .. . . . . . . . . . . . . . . . . 11
1.2.3 Exercices (matrices, exemples) . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . 16
1.2.4 Suggestions pour les exercices . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . 22
1.2.5 Corrigés des exercices . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . 23
1.3 Les méthodes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . 29
1.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . 29
1.3.2 Méthode de Gauss, méthodeLU. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.3.3 Méthode de Choleski . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . 39
1.3.4 Quelques propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . 45
1.3.5 Exercices (méthodes directes) . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . 47
1.3.6 Suggestions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . 52
1.3.7 Corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . 53
1.4 Normes et conditionnement d"une matrice . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . 63
1.4.1 Normes, rayon spectral . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . 63
1.4.2 Le problème des erreurs d"arrondis . . . . . . . . . . . . . . . .. . . . . . . . . . . . . 69
1.4.3 Conditionnement et majoration de l"erreur d"arrondi. . . . . . . . . . . . . . . . . . . . 69
1.4.4 Discrétisation d"équations différentielles, conditionnement efficace" . . . . . . . . . . . 73
1.4.5 Exercices (normes et conditionnement) . . . . . . . . . . . .. . . . . . . . . . . . . . . 73
1.4.6 Suggestions pour les exercices . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . 80
1.4.7 Corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . 81
1.5 Méthodes itératives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . 90
1.5.1 Définition et propriétés . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . 90
1.5.2 Quelques exemples de méthodes itératives . . . . . . . . . .. . . . . . . . . . . . . . . . 92
1.5.3 Les méthodes par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . 98
1.5.4 Exercices (méthodes itératives) . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . 101
1.5.5 Exercices, suggestions . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . 111
1.5.6 Exercices, corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . 112
1.6 Valeurs propres et vecteurs propres . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . 121
1.6.1 Méthode de la puissance et de la puissance inverse . . . .. . . . . . . . . . . . . . . . . 121
1.6.2 Méthode QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . 122
1.6.3 Exercices (valeurs propres, vecteurs propres) . . . . .. . . . . . . . . . . . . . . . . . . 123
1.6.4 Suggestions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . 127
1.6.5 Corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . 128
1TABLE DES MATIÈRESTABLE DES MATIÈRES
2 Systèmes non linéaires134
2.1 Rappels et notations de calcul différentiel . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . 134
2.1.1 Différentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . 134
2.1.2 Différentielle d"ordre 2, matrice hessienne. . . . . . .. . . . . . . . . . . . . . . . . . . 136
2.1.3 Exercices (calcul différentiel) . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . 137
2.2 Les méthodes de point fixe . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . 138
2.2.1 Point fixe de contraction . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . 138
2.2.2 Point fixe de monotonie . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . 142
2.2.3 Vitesse de convergence . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . 144
2.2.4 Méthode de Newton dansIR. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
2.2.5 Exercices (méthodes de point fixe) . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . 147
2.3 Méthode de Newton dansIRn. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
2.3.1 Construction et convergencede la méthode . . . . . . . . . .. . . . . . . . . . . . . . . 154
2.3.2 Variantes de la méthode de Newton . . . . . . . . . . . . . . . . . .. . . . . . . . . . . 156
2.3.3 Exercices (méthode de Newton) . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . 159
3 Optimisation184
3.1 Définitions et rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . 184
3.1.1 Extrema, points critiques et points selle. . . . . . . . . .. . . . . . . . . . . . . . . . . . 184
3.1.2 Convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . 185
3.1.3 Exercices (extrema, convexité) . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . 187
3.2 Optimisation sans contrainte . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . 189
3.2.1 Définition et condition d"optimalité . . . . . . . . . . . . . .. . . . . . . . . . . . . . . 189
3.2.2 Résultats d"existence et d"unicité . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . 190
3.2.3 Exercices (optimisation sans contrainte) . . . . . . . . .. . . . . . . . . . . . . . . . . . 193
3.3 Algorithmes d"optimisation sans contrainte . . . . . . . . .. . . . . . . . . . . . . . . . . . . . 199
3.3.1 Méthodes de descente . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . 199
3.3.2 Algorithme du gradient conjugué . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . 202
3.3.3 Méthodes de Newton et Quasi-Newton . . . . . . . . . . . . . . . .. . . . . . . . . . . 206
3.3.4 Résumé sur les méthodes d"optimisation . . . . . . . . . . . .. . . . . . . . . . . . . . . 209
3.3.5 Exercices (algorithmes pour l"optimisation sans contraintes) . . . . . . . . . . . . . . . . 209
3.4 Optimisation sous contraintes . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . 230
3.4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . 230
3.4.2 Existence - Unicité - Conditions d"optimalité simple. . . . . . . . . . . . . . . . . . . . 230
3.4.3 Conditions d"optimalité dans le cas de contraintes égalité . . . . . . . . . . . . . . . . . . 232
3.4.4 Contraintes inégalités . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . 234
3.4.5 Exercices (optimisation avec contraintes) . . . . . . . .. . . . . . . . . . . . . . . . . . 235
3.5 Algorithmes d"optimisation sous contraintes . . . . . . . .. . . . . . . . . . . . . . . . . . . . . 239
3.5.1 Méthodes de gradient avec projection . . . . . . . . . . . . . .. . . . . . . . . . . . . . 239
3.5.2 Méthodes de dualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . 242
3.5.3 Exercices (algorithmes pour l"optimisation avec contraintes) . . . . . . . . . . . . . . . . 244
3.5.4 Corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . 247
4 Equations différentielles249
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . 249
4.2 Consistance, stabilité et convergence . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . 252
4.3 Théorème général de convergence . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . 254
4.4 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . 256
4.5 Explicite ou implicite? . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . 257
4.5.1 L"implicite gagne... . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . 257
4.5.2 L"implicite perd... . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . 258
4.5.3 Match nul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . 258
Analyse numérique I, télé-enseignement, L32Université d"Aix-Marseille, R. Herbin, 17 novembre 2021
TABLE DES MATIÈRESTABLE DES MATIÈRES
4.6 Etude du schéma d"Euler implicite . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . 258
4.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . 260
4.8 Corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . 267
5 Quelques problèmes supplémentaires276
5.1 Méthode de Jacobi et optimisation . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . 276
5.2 Assemblage de matrices EF . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . 278
5.2.1 Notations et rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . 278
5.2.2 Méthode des éléments finis et matrices d"assemblage . .. . . . . . . . . . . . . . . . . . 278
5.2.3 Un exemple 1D simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . 279
5.2.4 Propriétés de la matriceA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
5.2.5 Deux cas particuliers . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . 284
5.2.6 Un peu d"optimisation pour terminer... . . . . . . . . . . . .. . . . . . . . . . . . . . . . 287
Analyse numérique I, télé-enseignement, L33Université d"Aix-Marseille, R. Herbin, 17 novembre 2021
IntroductionL"objet de l"analyse numérique est de concevoir et d"étudier des méthodes de résolution de certains problèmes
mathématiques, en général issus de la modélisation de problèmes réels", et dont on cherche à calculer la solution
à l"aide d"un ordinateur.
Le cours est structuré en quatre grands chapitres : Systèmes linéaires
Systèmes non linéaires
Optimisation
Equations différentielles.
On pourra consulter les ouvrages suivants pour ces différentes parties (ceci est une liste non exhaustive!) :
A. Quarteroni,R. Sacco et F. Saleri, MéthodesNumériques:Algorithmes,Analyseet Applications,Springer
2006. P.G. Ciarlet, Introduction à l"analyse numérique et à l"optimisation, Masson, 1982, (pour les chapitre 1 à 3
de ce polycopié). M. Crouzeix, A.L. Mignot, Analyse numérique des équationsdifférentielles, Collection mathématiques ap-
pliquées pour la maitrise, Masson, (pour le chapitre 4 de ce polycopié). J.P. Demailly, Analyse numérique et équations différentielles Collection Grenoble sciences Presses Univer-
sitaires de Grenoble L.Dumas,Modélisationà l"oraldel"agrégation,calculscientifique,CollectionCAPES/Agrégation,Ellipses,
1999. E. Hairer, polycopié du cours "Analyse Numérique", http ://www.unige.ch/ hairer/polycop.html
J. Hubbard, B. West, Equations différentielles et systèmes dynamiques, Cassini. J. Hubbard et F. Hubert, Calcul Scientifique, Vuibert. P. Lascaux et R. Théodor, Analyse numérique matricielle appliquée à l"art de l"ingénieur, tomes 1 et 2,
Masson, 1987
L. Sainsaulieu, Calcul scientifique cours et exercices corrigés pour le 2ème cycle et les éécoles d"ingénieurs,
Enseignement des mathématiques, Masson, 1996.
M. Schatzman, Analyse numérique, cours et exercices, (chapitres 1,2 et 4). D. Serre, Les matrices, Masson, (2000). (chapitres 1,2 et 4). P. Lascaux et R. Theodor, Analyse numérique sappliquée auxsciences de l"ingénieur, Paris, (1994)
R. Temam, Analyse numérique, Collection SUP le mathématicien, Presses Universitaires de France, 1970.
Et pour les anglophiles...
M. Braun, Differential Equations and their applications,Springer, New York,1984 (chapitre 4).Englewood Cliffs, NJ.
4TABLE DES MATIÈRESTABLE DES MATIÈRES
R. Fletcher, Practical methods of optimization, J. Wiley,New York, 1980 (chapitre 3). G. Golub and C. Van Loan, Matrix computations, The John Hopkins University Press, Baltimore (chapitre
1). R.S. Varga, Matrix iterative analysis, Prentice Hall, Englewood Cliffs, NJ 1962.Pour des rappels d"algègre linéaire :
Polyd"algèbrelinéairedepremièreannée,P.Bousquet,R.HerbinetF.Hubert,https://www.i2m.univ-amu.fr/perso/rapha
Introduction to linear algebra, Gilbert Strang, Wellesley Cambridge Press, 2008Analyse numérique I, télé-enseignement, L35Université d"Aix-Marseille, R. Herbin, 17 novembre 2021
Chapitre 1Systèmes linéaires1.1 ObjectifsOn noteMn(IR)l"ensemble des matrices carrées d"ordren. SoitA?Mn(IR)une matrice inversible etb?IRn,
l"objectif est de résoudre le système linéaireAx=b, c"est-à-dire de trouverxsolution de :
?x?IRnAx=b(1.1)
CommeAest inversible, il existe un unique vecteurx?IRnsolution de (1.1). Nous allons étudier dans les deux
paragraphes suivants des méthodes de calcul de ce vecteurx: la première partie de ce chapitre sera consacrée
aux méthodes directes" et la deuxième aux méthodes itératives". Nous aborderonsensuite en troisième partie les
méthodes de résolution de problèmes aux valeurs propres.Un des points essentiels dans l"efficacité des méthodes envisagées concerne la taille des systèmes à résoudre. La
taille de la mémoire des ordinateurs a augmenté de façon drastique de 1980 à nos jours.Le développement des méthodes de résolution de systèmes linéaires est liée à l"évolution des machines infor-
matiques. C"est un domaine de recherche très actif que de concevoir des méthodes qui permettent de profiter au
mieuxdel"architecturedesmachines(méthodesdedécompositionensous domainespourprofiterdesarchitectures
parallèles, par exemple).Dans la suite de ce chapitre, nous verrons deux types de méthodes pour résoudre les systèmes linéaires : les
méthodes directes et les méthodes itératives. Pour faciliter la compréhension de leur étude, nous commençons par
quelques rappels d"algèbre linéaire.1.2 Pourquoi et comment?
Nous donnons dans ce paragraphe un exemple de problème dont la résolution numérique recquiert la résolution
d"un système linéaire, et qui nous permet d"introduire des matrices que nous allons beaucoup étudier par la suite.
Nous commençons par donner ci-après après quelques rappelssuccincts d"algèbre linéaire, outil fondamentalpour
la résolution de ces systèmes linéaires.1.2.1 Quelques rappels d"algèbre linéaire
Quelques notions de base
Ce paragraphe rappelle des notions fondamentales que vous devriez connaître à l"issue du cours d"algèbre linéaire
de première année. On va commencer par revisiter leproduit matriciel, dont la vision combinaison linéaire de
lignes est fondamentale pour bien comprendre la forme matricielle de la procédure d"élimination de Gauss.
61.2. POURQUOI ET COMMENT? CHAPITRE 1. SYSTÈMES LINÉAIRES
SoientAetBdeux matrices carrées d"ordren, etM=AB. Prenons comme exemple d"illustrationA=?1 20 1?
,B=?-1 0 3 2? etM=?5 43 2? On noteai,j,bi,jetmi,j,i,j= 1,...nles coefficients respectifs deA,BetM. Vous savez bien sûr que m i,j=n? k=1a i,kbk,j.(1.2) On peut écrire les matricesAetBsous forme de lignes (notées?i) et colonnes (notéescj) : A=??? 1(A) n(A)?? etB=?c1(B)...cn(B)?Dans nos exemples, on a donc
1(A) =?1 2?,?2(A) =?0 1?,c1(B) =?-1
3? c2(B) =?02?
L"expression (1.2) s"écrit encore
m i,j=?i(A)cj(B),qui est le produit d"une matrice1×npar une matricen×1, qu"on peut aussi écrire sous forme d"un produit
scalaire : m i,j= (?i(A))t·cj(B)où(?i(A))tdésigne la matrice transposée, qui est donc maintenant une matricen×1qu"on peut identifier à un
vecteur deIRn. C"est la technique habituelle" de calcul du produit de deux matrices. On a dans notre exemple :
m1,2=?1(A)c2(B) =?1(A)c2(B) =?1 2??02?
= (?i(A))t·cj(B) =?12?·?02?
= 4.Mais de l"expression (1.2), on peut aussi avoir l"expression des lignes et des colonnes deM=ABen fonction
des lignes deBou des colonnes deA: i(AB) =n? k=1a i,k?k(B)(1.3) c j(AB) =n?k=1b k,jck(A)(1.4)Dans notre exemple, on a donc :
1(AB) =?-1 0?+ 2?3 2?=?5 4?
ce qui montre que la ligne 1 deABest une combinaison linéaire des lignes deB. Le colonnes deAB, par contre,
sont des combinaisons linéaires de colonnes deA. Par exemple : c2(AB) = 0?10?
+ 2?21? =?42? Il faut donc retenir que dans un produit matricielAB,Analyse numérique I, télé-enseignement, L37Université d"Aix-Marseille, R. Herbin, 17 novembre 2021
1.2. POURQUOI ET COMMENT? CHAPITRE 1. SYSTÈMES LINÉAIRES
les colonnes deABsont des combinaisons linéaires des colonnes deA les lignes deABsont des combinaisons linéaires des lignes deB.Cette remarque est très importante pour la représentation matricielle de l"élimination de Gauss : lorqu"on calcule
des systèmes équivalents, on effectue des combinaisons linéaires de lignes, et donc on multiplie à gauche par une
matrice d"élimination.Il est intéressant pour la suite de ce cours de voir ce que donne la multiplication d"une matrice par une matrice de
permutation. Commençons par une exemple. SoitPetAdes matrices carrées d"ordre 2 définies parP=?0 11 0?
, A=?a b c d? , PA=?c d a b? , AP=?b a d c?La multiplication deApar la matricePéchange les lignes deAlorqu"on multiplieAparPà gauche, et elle
échangeles colonnesdeAlorqu"onmultiplieAparPà droite.Noter que ceci montred"ailleurs bienque le produit
matriciel n"est pas commutatif...La matricePs"appelle matrice de permutation. Les matrices de permutation
auront un fort rôle à jouer dans l"élaboration d"algorithmes de résolution des systèmes linéaires (voir l"algorithme
de Gauss avec pivot partiel).De manière plus générale, on peut définir une matrice de permutation de la façon suivante :
Définition 1.1(Matrice de permutation).Soitn?INet soienti,j? {1,...,n}. On noteraP(i↔j)?Mn(IR)la
matrice telle que :1. Sii=j,P(i↔j)= Idn,
2. Sii?=j,p(i↔j)
i,i=p(i↔j) j,j= 0,p(i↔j) i,j=p(i↔j) j,i= 1, et pour toutk,l? {1,...,n}tel que(k,l)/? {(i,i),(i,j),(j,i),(j,j)}, sik=l,p(i↔j) k,l= 1sinonp(i↔j) k,l= 0.La matriceP(i↔j)est alors appelée matrice de permutation élémentaire. Une matrice de permutation est définie
comme le produit d"un nombre fini de permutations élémentaires.Remarquons qu"une matrice de permutation possède alorsntermes égaux à1, et tous les autres égaux à 0, tels
que chaque ligne et chaque colonne comprenne exactement l"un des termes égaux à1(pour les amateurs de jeu
d"échecs, ces termes sont disposés commentours sur un échiquier de taillen×ntelles qu"aucune tour ne peut en
prendre une autre).Pour toute matriceA?Mn(IR)et toute matrice de permutationP, la matricePAest obtenue à partir deApar
permutation des lignes deA, et la matriceAPest obtenue à partir deApar permutation des colonnes deA. Dans
un système linéaireAx=b, on remarque qu"on ne change pas la solutionxsi on permute des lignes, c"est à
dire si l"on résoutPAx=Pb. Notons que le produit de matrices de permutation est évidemment une matrice de
permutation, et que toute matrice de permutationPest inversible etP-1=Pt(voir exercice 2).Le tableau 1.1 est la traduction littérale de Linear algebra in a nutshell", par Gilbert Strang1Pour une matrice
carréeA, on donne les caractérisations du fait qu"elle est inversible ou non.On rappelle pour une bonne lecture de ce tableau les quelquesdéfinitions suivantes (pour le cas ou il y aurait des
notions que vous avez oubliées ou que vous ne maîtrisez pas bien).Définition 1.2(Pivot).SoitA?Mn(IR)une matrice carrée d"ordren. On appelle pivot deAle premier élément
non nul de chaque ligne dans la forme échelonnée deAobtenue par élimination de Gauss. Si la matrice est
inversible, elle a doncnpivots (non nuls).1. Voir la page web de Strangwww.mit.edu/~gspour une foule d"informations et de cours sur l"algèbre linéaire.
Analyse numérique I, télé-enseignement, L38Université d"Aix-Marseille, R. Herbin, 17 novembre 2021
1.2. POURQUOI ET COMMENT? CHAPITRE 1. SYSTÈMES LINÉAIRES
AinversibleAnon inversible
Les vecteurs colonne sont indépendants Les vecteurs colonne sont liés Les vecteurs ligne sont indépendants Les vecteurs ligne sont liés Le déterminant est non nul Le déterminant est nul Ax= 0a une unique solutionx=0Ax=0a une infinité de solutions Le noyau deAest réduit à{0}Le noyau deAcontient au moins un vecteur non nul Ax=ba une solution uniquex=A-1bAx=ba soit aucune solution, soit une infinitéAanpivots (non nuls)Aar < npivots
Aest de rang maximal : rang(A) =n. rang(A) =r < n
La forme totatement échelonnéeRdeAest la matrice identitéRa au moins une ligne de zéros L"image deAest toutIRnL"image deAest strictement incluse dansIRn L"espaceL(A)engendré par les lignes deAest toutIRnL(A)est de dimensionr < n Toutes les valeurs propres deAsont non nulles Zéro est valeur propre deA A tAest symétrique définie positiveAtAn"est que semi-définie TABLE1.1: Extrait de Linear algebra in a nutshell", G. StrangDéfinition 1.3(Valeurs propres).SoitA?Mn(IR)une matrice carrée d"ordren. On appelle valeur propre deA
toutλ?Cltel qu"il existex?Cln,x?= 0tel queAx=λx. L"élémentxest appelé vecteur propre deAassocié à
Définition 1.4(Déterminant).Il existe une unique application, notéedetdeMn(IR)dansIRqui vérifie les pro-
priétés suivantes (D1) Le déterminant de la matrice identité est égal à 1. (D2) Si la matrice ˜Aest obtenue à partir deApar échange de deux lignes, alorsdet˜A=-detA. (D3) Le déterminant est une fonction linéaire de chacune deslignes de la matriceA.quotesdbs_dbs47.pdfusesText_47[PDF] méthode de prévision lissage exponentiel
[PDF] méthode de prévision statistique
[PDF] methode de recherche scientifique pdf
[PDF] méthode de résolution de conflit
[PDF] méthode de résolution de problème ishikawa
[PDF] méthode de résolution de problème pdf
[PDF] méthode de résolution de problème ppt
[PDF] méthode de résolution de problème qualité
[PDF] Méthode de résolution DM
[PDF] Méthode de résolution sur les équations DM
[PDF] méthode de révision efficace
[PDF] méthode de saturation pharmacologie
[PDF] méthode de secante exemple
[PDF] méthode de séparation des mélanges