[PDF] Université Aix Marseille 1 Licence de mathématiques Cours d





Previous PDF Next PDF



Exercices de mathématiques - Exo7

Enoncés et corrections : Ana Matos. Exo7. Méthodes itératives. Exercice 1. Soit Correction de l'exercice 5 △. 5. Page 6. 1. 2. Itération de Gauss-Seidel : (D ...



Exercice 1 : méthodes itératives

Corrigé : Comme M∞ < 1 le rayon spectral ρ(M) de la matrice d'itération est strictement inférieur `a 1 et la méthode itérative converge. 5. Quelle méthode 



LICENCE 3 MATHEMATIQUES – INFORMATIQUE

1.5.4 Exercices (méthodes itératives). Exercice 55 (Convergence de suites). Corrigé en page 119. Etudier la convergence de la suite (x. (k))k∈IN ⊂ IRn 



MT09-Analyse numérique élémentaire

Exercices. Documents précédent section Α. 12. Étude de la convergence des méthodes itératives 4.2.1 Méthode de la dichotomie. Exercices : Exercice B.1.5. On ...



1.5.4 Exercices (méthodes itératives)

Exercice 58 (Jacobi et Gauss–Seidel : cas des matrices tridiagonales). Corrigé en page 121. Soit A ∈ Mn(IR) une matrice carrée d'ordre n inversible et 



Corrigés des exercices du chapitre 3 : Méthodes itératives de

Exercice 2 : Démonstration du théor`eme 12-i). Soit A ∈ Mn(K)) et une norme matricielle. Montrer alors ρ(A) ≤ A . Soit u = 0 tel que A = λu avec



ANALYSE NUMERIQUE Mazen SAAD

En déduire que la méthode itérative est convergente. Exercice 7.14. — Soit A une matrice symétrique définie positive de valeurs propres. 0 < λ1 ≤ λ2 



Exercice 1 Exercice 2

28 jan. 2010 rien dire de la comparaison de deux méthodes itératives. 1) Soit. A ... CORRECTION : Exercice 1 : 1) Le seul cas intéressant est évidemment ...



LICENCE 3 MATHEMATIQUES

11 déc. 2018 1.5.4 Exercices (méthodes itératives). Exercice 58 (Convergence de suites). Corrigé en page 108. Etudier la convergence de la suite (x. (k))k ...



Exercices de mathématiques - Exo7

En déduire une condition nécessaire et suffisante pour la convergence de la méthode. Correction ?. [002237]. Exercice 4. Soient A et B deux matrices réelles d' 



Exercice 1 : méthodes itératives

Corrigé de l'examen d'Analyse Numérique du 5 mars 2014 Exercice 1 : méthodes itératives ... Ax = b en utilisant la méthode itérative suivante :.



Corrigés des exercices du chapitre 3 : Méthodes itératives de

Corrigés des exercices du chapitre 3 : Méthodes itératives de résolution de syst`emes linéaires. Exercice 1 : Démonstration du théor`eme 10.



Cours danalyse numérique 2004-2005

12 sept. 2006 L. Sainsaulieu Calcul scientifique cours et exercices corrigés pour le ... méthodes “directes” et la deuxi`eme aux méthodes “itératives”.



LICENCE 3 MATHEMATIQUES – INFORMATIQUE

Semaine 1 : Etudier les paragraphes 1.5.1 (méthodes itératives définition et propriétés). Exercice proposé (avec corrigé) : 55 (convergence de suites).



Exercice 1 Exercice 2

28 janv. 2010 L1) la matrice d'itération de la méthode itérative de Jacobi (resp. Gauss-Seidel) de résolution des systèmes linéaires Ax = b. Le but de cet ...



MT09-Analyse numérique élémentaire

Méthodes itératives de résolution des systèmes linéaires . les éléments de la diagonale de la matrice ainsi obtenue soient non nuls (voir exercice).



Chapitre III. Méthodes itératives de résolution des syst`emes linéaires

2 Etude de conditions de convergence des méthodes itératives de cette section est le corrigé de l'exercice 4 de la feuille d'exercices associée `a ce.



Université Aix Marseille 1 Licence de mathématiques Cours d

2 févr. 2017 L. Sainsaulieu Calcul scientifique cours et exercices corrigés pour le ... dans l'étude des méthodes itératives que nous verrons plus loin.



Untitled

Méthooks Iteratives. Exercice 1: Corrige TD: Résolution ales systèmes Linéaire. Méthodes. Exercice 2 A= ... me thodes iterative methode de Jacobi (15).

Université Aix Marseille 1

Licence de mathématiques

Cours d"Analyse numérique

Raphaèle Herbin

19 octobre 2008

Table des matières1 Systèmes linéaires5

1.1 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.2 Quelques rappels d"algèbre linéaire . . . . . . . . . . . . . . . .. 6

1.2.1 Norme induite . . . . . . . . . . . . . . . . . . . . . . . . 6

1.2.2 Rayon spectral . . . . . . . . . . . . . . . . . . . . . . . . 7

1.2.3 Matrices diagonalisables . . . . . . . . . . . . . . . . . . . 8

1.3 Les méthodes directes . . . . . . . . . . . . . . . . . . . . . . . . 11

1.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

1.3.2 Méthode de Gauss et méthodeLU. . . . . . . . . . . . . 11

1.3.3 Méthode de Choleski . . . . . . . . . . . . . . . . . . . . . 14

1.3.4 Quelques propriétés . . . . . . . . . . . . . . . . . . . . . 20

1.4 Conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

1.4.1 Le problème des erreurs d"arrondis . . . . . . . . . . . . . 22

1.4.2 Conditionnement et majoration de l"erreur d"arrondi. . . 22

1.4.3 Discrétisation d"équations aux dérivées partielles, condi-

tionnement "efficace" . . . . . . . . . . . . . . . . . . . . . 24

1.5 Méthodes itératives . . . . . . . . . . . . . . . . . . . . . . . . . . 27

1.5.1 Origine des systèmes à résoudre . . . . . . . . . . . . . . . 27

1.5.2 Définition et propriétés . . . . . . . . . . . . . . . . . . . 30

1.5.3 Méthodes de Jacobi, Gauss-Seidel et SOR/SSOR . . . . . 33

1.5.4 Recherche de valeurs propres et vecteurs propres . . . .. 39

1.6 Exercices du chapitre 1 . . . . . . . . . . . . . . . . . . . . . . . . 40

1.7 Suggestions pour les exercices du chapitre 1 . . . . . . . . . .. . 59

1.8 Corrigés des exercices du chapitre 1 . . . . . . . . . . . . . . . . .62

2 Systèmes non linéaires103

2.1 Les méthodes de point fixe . . . . . . . . . . . . . . . . . . . . . . 103

2.1.1 Point fixe de contraction . . . . . . . . . . . . . . . . . . . 103

2.1.2 Point fixe de monotonie . . . . . . . . . . . . . . . . . . . 107

2.1.3 Vitesse de convergence . . . . . . . . . . . . . . . . . . . . 109

2.2 Méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . 111

2.2.1 Construction et convergence de la méthode . . . . . . . . 111

2.2.2 Variantes de la méthode de Newton . . . . . . . . . . . . 115

2.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

2.4 Suggestions pour les exercices du chapitre 2 . . . . . . . . . .. . 126

2.5 Corrigé des exercices du chapitre 2 . . . . . . . . . . . . . . . . . 128

1

3 Optimisation150

3.1 Définitions et rappels de calcul différentiel . . . . . . . . . .. . . 150

3.1.1 Définition des problèmes d"optimisation . . . . . . . . . . 150

3.1.2 Rappels et notations de calcul différentiel . . . . . . . . .150

3.2 Optimisation sans contrainte . . . . . . . . . . . . . . . . . . . . 152

3.2.1 Définition et condition d"optimalité . . . . . . . . . . . . . 152

3.2.2 Résultats d"existence et d"unicité . . . . . . . . . . . . . . 152

3.3 Algorithmes d"optimisation sans contrainte . . . . . . . . .. . . 157

3.3.1 Méthodes de descente . . . . . . . . . . . . . . . . . . . . 157

3.3.2 Algorithmes du gradient conjugué . . . . . . . . . . . . . 161

3.3.3 Méthodes de Newton et Quasi-Newton . . . . . . . . . . 168

3.3.4 Résumé sur les méthodes d"optimisation . . . . . . . . . . 172

3.4 Optimisation sous contraintes . . . . . . . . . . . . . . . . . . . . 172

3.4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 172

3.4.2 Existence - Unicité - Conditions d"optimalité simple. . . 173

3.4.3 Conditions d"optimalité dans le cas de contraintes égalité 174

3.4.4 Contraintes inégalités . . . . . . . . . . . . . . . . . . . . 178

3.5 Algorithmes d"optimisation sous contraintes . . . . . . . .. . . . 179

3.5.1 Méthodes de gradient avec projection . . . . . . . . . . . 179

3.5.2 Méthodes de dualité . . . . . . . . . . . . . . . . . . . . . 182

3.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

3.7 Suggestions pour les exercices du chapitre 3 . . . . . . . . . .. . 199

3.8 Corrigés des exercices du chapitre 3 . . . . . . . . . . . . . . . . .201

4 Equations différentielles219

4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219

4.2 Consistance, stabilité et convergence . . . . . . . . . . . . . .. . 222

4.3 Théorème général de convergence . . . . . . . . . . . . . . . . . . 224

4.4 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227

4.5 Explicite ou implicite? . . . . . . . . . . . . . . . . . . . . . . . . 228

4.5.1 L"implicite gagne... . . . . . . . . . . . . . . . . . . . . . . 228

4.5.2 L"implicite perd... . . . . . . . . . . . . . . . . . . . . . . 229

4.5.3 Match nul . . . . . . . . . . . . . . . . . . . . . . . . . . . 230

4.6 Etude du schéma d"Euler implicite . . . . . . . . . . . . . . . . . 230

4.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232

4.8 Corrigé des exercices du chapitre 4 . . . . . . . . . . . . . . . . . 241

2 IntroductionL"objet de l"analyse numérique est de concevoir et d"étudier des méthodes de résolution de certains problèmes mathématiques, en général issus de la modélisa- tion de problèmes "réels", et dont on cherche à calculer la solution à l"aide d"un ordinateur. Le cours est structuré en quatre grands chapitres : - Systèmes linéaires - Systèmes non linéaires - Optimisation - Equations différentielles. On pourra consulter les ouvrages suivants pour ces différentes parties (ceci est une liste non exhaustive!) : - P.G. Ciarlet, Introduction à l"analyse numérique et à l"optimisation, Masson,

1982, (pour les chapitre 1 à 3 de ce polycopié).

- M. Crouzeix, A.L. Mignot, Analyse numérique des équationsdifférentielles, Collection mathématiques appliquées pour la maitrise, Masson, (pour le cha- pitre 4 de ce polycopié). - J.P. Demailly, Analyse numérique et équations différentielles Collection Gre- noble sciences Presses Universitaires de Grenoble - L. Dumas, Modélisation à l"oral de l"agrégation, calcul scientifique, Collection

CAPES/Agrégation, Ellipses, 1999.

- J. Hubbard, B. West, Equations différentielles et systèmesdynamiques, Cas- sini. - P. Lascaux et R. Théodor, Analyse numérique matricielle appliquée à l"art de l"ingénieur, tomes 1 et 2, Masson, 1987 - L. Sainsaulieu, Calcul scientifique cours et exercices corrigés pour le 2ème cycle et les éécoles d"ingénieurs, Enseignement des mathématiques, Masson, 1996.
- M. Schatzman, Analyse numérique, cours et exercices, (chapitres 1,2 et 4). - D. Serre, Les matrices, Masson, (2000). (chapitres 1,2 et 4). - P. Lascaux et R. Theodor, Analyse numérique sappliquée auxsciences de l"ingénieur, Paris, (1994) - R. Temam, Analyse numérique, Collection SUP le mathématicien, Presses

Universitaires de France, 1970.

Et pour les anglophiles...

- M. Braun, Differential Equations and their applications, Springer, New York,

1984 (chapitre 4).

Automatic Computation, 1974, Englewood Cliffs, NJ. 3 - R. Fletcher, Practical methods of optimization, J. Wiley,New York, 1980 (chapitre 3). - G. Golub and C. Van Loan, Matrix computations, The John Hopkins Univer- sity Press, Baltimore (chapitre 1). - R.S. Varga, Matrix iterative analysis, Prentice Hall, Englewood Cliffs, NJ 1962.
Ce cours a été rédigé pour la licence de mathématiques par télé-enseignement de l"université d"Aix-Marseille 1. Chaque chapitre est suivi d"un certian nombre d"exercices. On donne ensuite des suggestions pour effectuer les exercices, puis des corrigés détaillés. Il est fortement conseillé d"essayer de faire les exercices d"abord sans ces indications, et de ne regarder les corrigésdétaillés qu"une fois l"exercice achevé (même si certaines questions n"ont pas puêtre effectuées), ceci pour se préparer aux conditions d"examen. 4

Chapitre 1Systèmes linéaires1.1 ObjectifsOn noteMN(IR)l"ensemble des matrices carrées d"ordreN. SoitA? MN(IR)

une matrice inversible, etb?IRN, on a comme objectif de résoudre le système linéaireAx=b, c"est à dire de trouverxsolution de : ?x?IRN

Ax=b(1.1.1)

CommeAest inversible, il existe un unique vecteurx?IRNsolution de (1.1.1). Nous allons étudier dans les deux chapitres suivants des méthodes de calcul de ce vecteurx: la première partie de ce chapitre sera consacrée aux méthodes "directes" et la deuxième aux méthodes "itératives". Nous aborderons ensuite en troisième partie les méthodes de résolution de problèmesaux valeurs propres. Un des points essentiels dans l"efficacité des méthodes envisagées concerne la taille des systèmes à résoudre. Entre 1980 et 2000, la taillede la mémoire des ordinateurs a augmenté de façon drastique. La taille des systèmes qu"on peut résoudre sur ordinateur a donc également augmenté, selon l"ordre de grandeur suivant :

1980 :matrice "pleine" (tous les termes sont non nuls)N= 102

matrice "creuse"N= 106

2000 :matrice "pleine"N= 106

matrice "creuse"N= 108 Le développement des méthodes de résolution de systèmes linéaires est liée à l"évolution des machines informatiques. Un grand nombre derecherches sont d"ailleurs en cours pour profiter au mieux de l"architecturedes machines (mé- thodes de décomposition en sous domaines pour profiter des architectures pa- rallèles, par exemple). Dans la suite de ce chapitre, nous verrons deux types de méthodes pour résoudre les systèmes linéaires : les méthodes directes et les méthodes itératives. Pour faciliter la compréhension de leur étude, nous commençons par quelques rappels d"algèbre linéaire. 5

1.2 Quelques rappels d"algèbre linéaire1.2.1 Norme induiteDéfinition 1.1 (Norme matricielle, norme induite)

pour toutes matricesAetBdeMN(IR).

2. On considèreIRNmuni d"une norme? · ?. On appelle norme matricielle

induite (ou norme induite) surMN(IR)par la norme?·?, encore notée?·?, la norme surMN(IR)définie par :?A?= sup{?Ax?;x?IRN,?x?= 1} pour toute matriceA? MN(IR). Proposition 1.2SoitMN(IR)muni d"une norme induite?·?. Alors pour toute matriceA? MN(IR), on a :

2.?A?= max??Ax?;?x?= 1, x?IRN?,

3.?A?= max??Ax?

?x?;x?IRN\ {0}?

4.? · ?est une norme matricielle.

Démonstration :

1. Soitx?IRN\ {0}, posonsy=x

en déduit ?Ax? est encore vérifiée.

2. L"application?définie deIRNdansIRpar :?(x) =?Ax?est continue

sur la sphère unitéS1={x?IRN| ?x?= 1}qui est un compact de IR N. Donc?est bornée et atteint ses bornes : il existex0?IRNtel que ?A?=?Ax0?

3. La dernière égalité résulte du fait que

?Ax? ?x?=?Ax?x??etx?x??S1pour toutx?= 0. Proposition 1.3SoitA= (ai,j)i,j?{1,...,N}? MN(IR).

1. On munitIRNde la norme?·?∞etMN(IR)de la norme induite corres-

pondante, notée aussi? · ?∞. Alors ?A?∞= maxi?{1,...,N}N j=1|ai,j|.(1.2.2)

2. On munitIRNde la norme? · ?1etMN(IR)de la norme induite corres-

pondante, notée aussi? · ?1. Alors ?A?1= maxj?{1,...,N}N i=1|ai,j|(1.2.3) 6

3. On munitIRNde la norme? · ?2etMN(IR)de la norme induite corres-

pondante, notée aussi? · ?2. ?A?2= (ρ(AtA))1

2.(1.2.4)

La démonstration de cette proposition fait l"objet de l"exercice 3 page 40

1.2.2 Rayon spectral

Définition 1.4 (Valeurs propres et rayon spectral)SoitA? MN(IR)une matrice inversible. On appelle valeur propre deAtoutλ?Cltel qu"il existe x?ClN,x?= 0tel queAx=λx. L"élémentxest appelé vecteur propre deA associé àλ. On appelle rayon spectral deAla quantitéρ(A) = max{|λ|;λ?Cl,

λvaleur propre deA}.

Proposition 1.5SoitA? MN(IR)une matrice carrée quelconque et soit? · ? une norme matricielle (induite ou non). Alors La preuve de cette proposition fait l"objet de l"exercice 5 page 41. Elle néces- site un résultat d"approximation du rayon spectral par une norme induite bien choisie, que voici :

Proposition 1.6 (Rayon spectral et norme induite)

SoientA? MN(IR)etε >0. Il existe une norme surIRN(qui dépend deAetε) Démonstration :SoitA? MN(IR), alors par le lemme 1.7 donné ci-après, il telles queAfi=? i-1fi. La famille(ei)i=1,...,Nforme une base deClN. On définit alors une norme surIRNpar?x?= (?Ni=1αi αi)1/2, où lesαisont les composantes dexdans la base(ei)i=1,...,N.Notons que cette norme dépend deAet deη. x=? i=1,...,Nαiei.Comme Ae i=? i-jλi,jej, on a donc : Ax=N? i=1? i-jλi,jαiej=.N? j=1? N? i=jη i-jλi,jαi?ej

On en déduit que

?Ax?2=N? j=1? N? i=jη i-jλi,jαi??N? i=jη i-j

λi,jαi?,

7 soit encore ?Ax?2=N? j=1λ j,j

λj,jαjαj+N?

j=1? k,?≥j (k,?)?=(j,j)η k+?-2jλk,jλ?,jαkα?.

Commeη?]0,1[, on en conclut que :

D"où le résultat, en prenantηtel queηN3ρ(A)2< ε. Lemme 1.7 (Triangularisation d"une matrice)SoitA? MN(IR)une ma- trice carrée quelconque, alors il existe une base(f1,...,fN)deClet une famille de complexes(λi,j)i=1,...,N,j=1,...,N,jOn admettra ce lemme. Nous donnons maintenant un théorème qui nous sera utile dansl"étude du condi- tionnement, ainsi que plus tard dans l"étude des méthodes itératives.

Théorème 1.8 (Matrices de la formeId+A)

1. Soit une norme matricielle induite,Idla matrice identité deMN(IR)et

A? MN(IR)telle que?A?<1. Alors la matriceId+Aest inversible et

1- ?A?.

2. Si une matrice de la formeId+A? MN(IR)est singulière, alors?A? ≥1

pour toute norme matricielle? · ?.

Démonstration :

1. La démonstration du point 1 fait l"objet de l"exercice 9 page 42.

2. Si la matriceId+A? MN(IR)est singulière, alorsλ=-1est valeur

propre, et donc en utilisant la proposition 1.6, on obtient que?A? ≥

ρ(A)≥1.

1.2.3 Matrices diagonalisables

Définition 1.9 (Matrice diagonalisable)SoitAune matrice réelle carrée d"ordren. On dit queAest diagonalisable dansIRsi il existe une base(φ1,...,φn) et des réelsλ1,...,λn(pas forcément distincts) tels queAφi=λiφipouri=

1,...,n.

Lemme 1.10SoitAune matrice réelle carrée d"ordren, diagonalisable dans IR. AlorsA=P-1diag(λ1,...,λn)P, où les vecteurs colonnes de la matriceP

égaux aux vecteursφ1,...,φn.

8 DémonstrationSoitPla matrice définie (de manière unique) parPei=φi, où (ei)i=1,...,nest la base canonique deIRn, c"est-à-dire que(ei)j=δi,j. La matrice Pest appelée matrice de passage de la base(ei)i=1,...,nà la base(φi)i=1,...,n; la i-ème colonne dePest constituée des composantes deφidans la base canonique (e1,...,eN). La matricePest évidemment inversible, et on peut écrire : Aφ i=AP-1ei=λiφi, de sorte que : PAP -1ei=λiP-1φi=λiei. On a donc bienPAP-1= diag(λ1,...,λn)(ou encoreA=P-1diag(λ1,...,λn)P). La diagonalisation des matrices réelles symétriques est unoutil qu"on utilisera souvent dans la suite, en particulier dans les exercices. Lemme 1.11SoitEun espace vectoriel surIRde dimension finie :dimE=n, n?IN?, muni d"un produit scalaire i.e. d"une application

E×E→IR,

(x,y)→(x|y)E, qui vérifie : ?x?E,(x|x)E≥0et(x|x)E= 0?x= 0, ?(x,y)?E2,(x|y)E= (y|x)E, ?y?E,l"application deEdansIR,définie parx→(x|y)Eest linéaire.

Ce produit scalaire induit une norme surE,?x?=?

(x|x)E. SoitTune application linéaire deEdansE. On suppose queTest symétrique, c.à.d. que(T(x)|y)E= (x|T(y))E,?(x,y)?E2. Alors il existe une base orthonormée(f1...fn)deE(c.à.d. telle que(fi,fj)E=δi,j) et(λ1...λn)? IR ntels queT(fi) =λifipour touti? {1...n}. Conséquence immédiate :Dans le cas oùE= IRN, le produit scalaire cano-

nique dex= (x1,...,xN)tety= (y1,...,yN)test défini par(x|y)E=x·y=?Ni=1xiyi. SiA? MN(IR)est une matrice symétrique, alors l"applicationTdé-

finie deEdansEpar :T(x) =Axest linéaire, et :(Tx|y) =Ax·y=x·Aty= x·Ay= (x|Ty).DoncTest linéaire symétrique. Par le lemme précédent, il existe(f1...fN)et(λ1...λN)?IRtels queTfi=Afi=λifi?i? {1,...,N} etfi·fj=δi,j,?(i,j)? {1,...,N}2. Interprétation algébrique :Il existe une matrice de passagePde(e1,...,eN) base canonique dans(f1,...,fN)dont la première colonne dePest constituée des coordonnées defidans(e1...eN). On a :Pei=fi. On a alorsP-1APei= P -1Afi=P-1(λifi) =λiei=diag(λ1,...,λN)ei, oùdiag(λ1,...,λN)désigne la matrice diagonale de coefficients diagonauxλ1,...,λN. On a donc : P -1AP=???λ i0

0λN???

=D. 9

De plusPest orthogonale,i.e.P-1=Pt. En effet,

P tPei·ej=Pei·Pej= (fi|fj) =δi,j?i,j? {1...N}, et donc(PtPei-ei)·ej= 0?j? {1...N} ?i? {1,...N}.On en déduit P tPei=eipour touti= 1,...N,i.e.PtP=PPt=Id. Démonstration du lemme 1.11Cette démonstration se fait par récurrence sur la dimension de E.

1ère étape.

On supposedimE= 1. Soite?E,e?= 0, alorsE= IRe=f1avecf1=e?e?. SoitT:E→Elinéaire symétrique, on a :Tf1?IRf1donc il existeλ1?IRtel queTf1=λ1f1.

2ème étape.

On suppose le lemme vrai sidimE < n. On montre alors le lemme sidimE=n. SoitEun espace vectoriel normé surIRtel quedimE=netT:E→Elinéaire symétrique. Soit?l"application définie par : ?:E→IR x→(Tx|x). L"application?est continue sur la sphère unitéS1={x?E| ?x?= 1}qui est e) =λpour toutx?E. Soity?E\{0}, et soitt?]0,1quotesdbs_dbs1.pdfusesText_1
[PDF] exercices corrigés microéconomie 1ère année

[PDF] exercices corrigés microéconomie équilibre général

[PDF] exercices corrigés mitose

[PDF] exercices corrigés mouvement des satellites

[PDF] exercices corrigés mouvement seconde

[PDF] exercices corrigés ondes seconde

[PDF] exercices corrigés ondes terminale s

[PDF] exercices corrigés optimisation non linéaire

[PDF] exercices corrigés optique géométrique pdf

[PDF] exercices corrigés optique ondulatoire mp

[PDF] exercices corrigés orthogonalité dans l'espace

[PDF] exercices corrigés outlook 2010

[PDF] exercices corrigés pendule elastique

[PDF] exercices corrigés pert pdf

[PDF] exercices corrigés ph des solutions aqueuses