11 déc 2012 · est un homomorphisme d'anneaux (même de K-algèbres) (c) Le noyau ker(evM ) est un idéal principal non-nul de l'anneau principal K[X], alors,
Previous PDF | Next PDF |
[PDF] Algèbre linéaire - Exo7 - Exercices de mathématiques
Révisions – Algèbre linéaire Exercice 1 1 Résoudre de quatre manières différentes le système suivant (par substitution, par la méthode du pivot de Gauss , en
[PDF] Algèbre - Exo7 - Cours de mathématiques
À la découverte de l'algèbre La première année d'études supérieures pose les bases des mathématiques Pourquoi se lancer dans une telle expédition ?
[PDF] Logique, ensembles et applications - Exo7 - Exercices de
Exercice 1 **IT Exprimer à l'aide de quantificateurs les phrases suivantes puis donner leur négation 1 (f étant une application du plan dans lui-même) (a) f est
[PDF] Logique, ensembles, raisonnements - Exo7 - Exercices de
Exo7 Logique, ensembles, raisonnements 1 Logique Exercice 1 Compléter les pointillés par le connecteur logique qui s'impose : ⇔, ⇐, ⇒ 1 x ∈ R x2 = 4
[PDF] LALGÈBRE LINÉAIRE POUR TOUS - Laboratoire Analyse
Notes du cours d'Algèbre linéaire pour les économistes donné en deuxième année de Licence MASS à l'université de Nice Sophia-Antipolis entre 2011 et
[PDF] Exo7 - Exercices de mathématiques - COURSES
Exo7 Polynômes Corrections de Léa Blanc-Centi 1 Opérations sur les polynômes Exercice 1 Trouver le polynôme P de degré inférieur ou égal à 3 tel que :
[PDF] Exo7 - Exercices de mathématiques - COURSES
Exercice 6 1 Montrer que le reste de la division euclidienne par 8 du carré de tout nombre impair est 1 2 Montrer de même que tout nombre pair vérifie x2 = 0
[PDF] Cours dalgèbre linéaire, 2 ème année duniversité - Institut de
Ceci est le cours d'algèbre linéaire enseigné à Toulouse à un bon millier groupes, d'algèbres, de spineurs, de calcul extérieur et de "calcul tensoriel"
[PDF] Cours dAlgèbre I et II avec Exercices CorrigésOM DE VOTRE - USTO
Chapitre 1 Introduction 5 Chapitre 2 Élément de logique et méthodes de raisonnement avec Exercices Corrigés 7 1 Régles de logique formelle 7 2
[PDF] Algèbre 3 - Université du Luxembourg
11 déc 2012 · est un homomorphisme d'anneaux (même de K-algèbres) (c) Le noyau ker(evM ) est un idéal principal non-nul de l'anneau principal K[X], alors,
pdf Searches related to algebre 2 exo7
2 is 4 hence the dimension of the kernel of A 2 is 1 Therefore the set of solutions of A 2X= b 2 is an a ne line in R5 par-allel to kerA 2 Denote by (x;y;z;t;u) the coordinates in R5 Let us parametrize the set of solutions by a= u2R The system is equivalent to 8 >> < >>: x+ 2 y+ t= 1 3a y + z + t = 1 2a z+ 2 t= 1 3a t = 1 a 8 >> < >>: 2 y
[PDF] algebre 3 exercices corrigés pdf
[PDF] algebre 3 exo7
[PDF] algebre 4 exercice corrigé
[PDF] algèbre bilinéaire cours et exercices corrigés pdf
[PDF] algèbre bilinéaire forme quadratique
[PDF] algebre exercice
[PDF] algèbre exercices
[PDF] algèbre exercices avec solutions
[PDF] algèbre exercices avec solutions pdf
[PDF] algebre generale exercices corrigés pdf
[PDF] algebre generale mp
[PDF] algèbre linéaire
[PDF] algèbre linéaire cours exercices corrigés pdf
[PDF] algèbre linéaire espace vectoriel exercice corrigé
Algèbre 3
Semestre d'hiver 2012/2013
Université du Luxembourg
Gabor Wiese
gabor.wiese@uni.luVersion du 19 décembre 2012
Préface
L'objet principal du cours sera l'étude des extensions algébriques des corps commutatifs. En par-
ticulier, la théorie de Galois sera développée et appliquée. Elle permet entreautres de démontrer que
l'équation générale de degré au moins5ne peut pas être résolue en radicaux et de résoudre (parfois
de manière négative) plusieurs problèmes classiques (provenant des anciens Grecs) de construction à
la règle et au compas comme la trisection d'un angle et la quadrature du cercle.Au début du cours nous allons ×nir le traitement de la réduction de Jordan d'une matrice com-
mencé avant l'été.Littérature
Voici quelques références sur la théorie de Galois en français : - Jean-Pierre Escof×er :Théorie de Galois - Jean-Claude Carrega :Théorie des corps, la règle et le compas - Antoine Chambert-Loir :Algèbre corporelle - Yvan Gozard :Théorie de Galois - Patrice Tauvel :Corps commutatifs et théorie de Galois - Josette Calais :Extension de corps, théorie de Galois - Evariste Galois : le texte original!Voici quelques d'autres références :
- Siegfried Bosch :Algebra(en allemand), Springer-Verlag. Ce livre est très complet et bien lisible.- Ian Stewart :Galois Theory. Ce livre est bien lisible. Le traitement de la théorie de Galois dans
le cours sera un peu plus général puisque Stewart se restreint dans les premiers chapîtres aux
sous-corps des nombres complexes. - Serge Lang :Algebra(en anglais), Springer-Verlag. C'est comme une encyclopédie de l'al- gèbre; on y trouve beaucoup de sujets rassemblés, écrits de façon concise. 11 RÉDUCTION DE JORDAN2
1 Réduction de Jordan
Nous commençons ce cours par la réduction de Jordan que nous avons bien préparée le semestre
précédent, mais, pas encore ×nie. Rappelons d'abord les dé×nitions etrésultats principaux déjà mis
en place avant l'été. Dans toute cette section, soitKun corps commutatif.Le théorème suivant est souvent appelléthéorème fondamental sur les matrices, ce qui montre son
rôle fondamental : il dit que - après un choix de bases (pas oublier!!) -chaque application linéaire
peut être décrite de façon unique par une matrice, et que, réciproquement, chaque matrice - encore
pour un choix de bases ×xé - dé×nit une application linéaire.Un mot sur les notations : contrairement à l'usage au semestre précédent, jenoterai les bases main-
tenant avec des parenthèses,S= (v1;:::;vn), et non avec des accolades car la forme des matrices(qui est aussi noté avec des parenthèses). Si nous avons deux sous-espaceW1etW2d'un espace vec-
torielVavec des basesS1= (v1;:::;vn)etS2= (w1;:::;wm), on notera(v1;:::;vn;w1;:::;wm) quand-même parS1?S2. Théorème 1.1.SoientV;WdeuxK-espaces vectoriels de dimensions niesnetm. Rappellons que nous notonsHomK(V;W)l'ensemble de toutes les applications':V→Wqui sontK- linéaires. SoientS= (v1;:::;vn)uneK-base deVetT= (w1;:::;wm)uneK-base deW. Pour que combinaisonK-linéaire des vecteurs dans la baseTainsi : '(vi) =m? j=1a j,iwj: Nous " rassemblons» les coefcientsaj,idans une matrice : MT,S(') :=((((((a
1,1a1,2···a1,n
a2,1a2,2···a2,n.
a m,1am,2···am,n)))))) ?Matm×n(K):L'utilité de cette matrice est la suivante : Soitv?Vun vecteur qui s'écrit en coordonnées pour
la baseScommev=((((((b 1 b 2. b n)))))) . Alors, le produit matriciel (a1,1a1,2···a1,n
a2,1a2,2···a2,n.
a m,1am,2···am,n)))))) (b 1 b 2. b n))))))est égale au vecteur'(v)écrit en coordonnées pour la baseT. C'est à dire que nous avons exprimé
l'image'(v)en coordonnées. Alors, la matriceMT,S(')décrit l'application linéaire'en coordon-
nées.1 RÉDUCTION DE JORDAN3
L'assertion principale du théorème c'est : L'application HomK(V;W)→Matm×n(K); '?→MT,S(')
est une bijection. Elle est même un isomorphisme deK-algèbres.Démonstration.La preuve n'est qu'un calcul assez simple et a été donnée avant l'été.Elle fait partie
de celles que chaqu'un(e) devrait pouvoir reproduire. Alors, c'est le cas? Dans le reste de cette section nous nous intéressons au cas spécialW=V. Une application K-linéaire':V→Vest aussi appelléeendomorphismeet nous écrivons EndK(V) := HomK(V;V):
A partir d'ici, ×xons unK-espace vectorielVde dimension ×nien.Dénition 1.2.Soit'?EndK(V).
-a?Kest appellévaleur proprede's'il existe0?=v?Vt.q.'(v) =av(ou équivalent : ker('-a·idV)?= 0). - On poseE?(a) := ker('-a·idV). Siaest une valeur propre de', on appelleE?(a)l'espace propre poura. - Chaque0?=v?E?(a)est appellévecteur propre pour la valeur proprea. - On poseSpec(') ={a?K|aest valeur propre de'}. - On appelle'diagonalisablesiV=? a?Spec(?)E?(a).Vous avez déjà vu beaucoup d'exemples, en algèbre linéaire et en algèbre 2 avant l'été. Rappellons
quand-même une formulation équivalente de la diagonalisabilité (qui explique lenom). Proposition 1.3.Soit'?EndK(V)etSpec(') ={a1;:::;ar}. Les assertions suivantes sontéquivalentes :
(i)'est diagonalisable. (ii) Il existe une baseSdeVt.q. MS,S(') =(((((((((((((((a
10 0 0 0 0 0 0 0 0
0...0 0 0 0 0 0 0 0 00 0a10 0 0 0 0 0 0 00 0 0a20 0 0 0 0 0 0
0 0 0 0...0 0 0 0 0 00 0 0 0 0a20 0 0 0 0
0 0 0 0 0 0...0 0 0 0
0 0 0 0 0 0 0...0 0 00 0 0 0 0 0 0 0ar0 0
0 0 0 0 0 0 0 0 0...00 0 0 0 0 0 0 0 0 0ar)))))))))))))))
1 RÉDUCTION DE JORDAN4
une baseSideE?(ai)et posonsS=S1?S2?···?Sr. Puisque'est diagonalisable,Vest la somme directe desE?(ai); ceci ne dit rien d'autre queSest une base deV. La forme diagonale de la matrice provient immédiatement du théorème fondamental sur les matrices 1.1. " (ii)?(i) » : EcrivonsS= (v1;:::;vn)eteipour le nombre de fois queaiapparaît sur la diagonale. Alors,E?(a1)est le sous-espace deVengendré par les premierse1vecteurs deS; ensuite, E ?(a2)est le sous-espace deVengendré par les prochainse2vecteurs deS, etc. Ceci montre queV Dénition 1.4.- SoitM?Matn×n(K)une matrice. Lepolynôme caractéristique deMest déni comme carM(X) := det?X·idn-M??K[X]:
- Soit'?EndK(V). Lepolynôme caractéristique de'est déni comme carφ(X) := carMS,S(?)(X):
Avant l'été nous nous sommes convaincues quecar?ne dépend pas du choix de la baseS. Nous avons aussi vu plusieurs exemples que nous n'allons pas répeter ici. Proposition 1.5.Spec(') ={a?K|car?(a) = 0}={a?K|(X-a)|car?(X)}.Démonstration.C'est facile, n'est-ce pas?
A part le polynôme caractéristique nous avons également introduit le polynôme minimal dont
on rappelle aussi la dé×nition. On se souvient qu'on a démontré queK[X]est un anneau euclidien
(pour la division euclidienne de polynômes, c'est à dire "avec reste»),alors, comme on l'a démontré
également,K[X]est un anneau principal : chaque idéal est principal, c'est à dire, peut être engendré
par un seul élément. Nous allons utiliser ce fait maintenant. Dénition-Lemme 1.6.(a) SoitM?Matn×n(K)une matrice. Sif(X) =?di=0aiXi?K[X] est un polynôme, alors nous posonsf(M) :=?di=0aiMi, ce qui est encore une matrice dans Mat n×n(K). (b) L'application " evaluation » evM:K[X]→Matn×n(K); f(X)?→f(M)
est un homomorphisme d'anneaux (même deK-algèbres). (c) Le noyauker(evM)est un idéal principal non-nul de l'anneau principalK[X], alors, il existe un unique polynôme normalisémM(X)?K[X]qui engendreker(evM). On appellemM(X)le polynôme minimal deM. (d)mM(X)est le polynôme normalisé de degré minimal qui annuleM(c'est à dire :mM(M) = 0n où0nest la matrice zéro dansMatn×n(K)(qu'on denotéra aussi0pour simplicité)). (e) Soit'?EndK(V). Nous posons m ?(X) :=mMS,S(?)(X) et l'appellonspolynôme minimal de'. Ce polynôme ne dépend pas du choix de la baseS.1 RÉDUCTION DE JORDAN5
Démonstration.(a) est clair.
(b) C'est un calcul facile. (c) Remarquons queK[X]est de dimension in×nie alors que la dimension deMatn×n(K)est×nie, ce qui montre queevMne peut pas être injective. Alors, son noyau est non-nul et engendré par
un polynôme qui est unique à multiplication parK×près, ce qui nous permet de le normaliser.
(d) est clair. (e) L'indépendence du choix de la base provient du fait que la conjugaison avec la matrice de changement de base décrit un isomorphisme deMatn×n(K).Le polynôme caracteristiquecarM(X)et le polynôme minimalmM(X)sont liés par le théorème
de Cayley-Hamilton. Théorème 1.7(Cayley-Hamilton).SoitM?Matn×n(K). Alors, carM(M) = 0n?Matn×n(K):
En particulier,mM(X)est un diviseur decarM(X).
Démonstration.L'astuce est d'utiliser les matrices adjointes. Nous avons (X·idn-M)adj·(X·idn-M) = det(X·idn-M)·idndéf= carM(X)·idn:(1.1) Notez que la matriceX·idn-Mest à coef×cients dans l'anneau des polynômesK[X]. Mais, ilest facile de véri×er que la propriété principale des matrices adjointes que nous venons d'utiliser est
valable pour chaque anneau commutative et pas seulement pourR, le cas pour lequel vous avez vu la preuve en algèbre linéaire.La dé×nition de la matrice adjointe montre que la plus grande puissance deXqui peut apparaître
dans un coef×cient de la matrice(X·idn-M)adjestn-1. Nous pouvons alors écrire cette matrice en tant que polynôme de degrén-1à coef×cients dansMatn×n(K): (X·idn-M)adj=n-1? i=0B iXiavecBi?Matn×n(K): Nous écrivonscarM(X) =?ni=0aiXiet reprenons l'équation (1.1) : carM(X)·idn=n?
i=0a i·idn·Xi=?n-1? i=0B iXi?(X·idn-M) n-1? i=0(BiXi+1-BiMXi) =-B0M+n-1? i=1(Bi-1-BiM)Xi+Bn-1Xn: Nous comparons les coef×cients (encore des matrices!) pour obtenir a1 RÉDUCTION DE JORDAN6
On peut maintenant conclure la preuve decarM(M) = 0npar un calcul simple : carM(M)·idn=n?
i=0a i·Mi=-B0M+n-1? i=1(Bi-1-BiM)Mi =-B0M+B0M-B1M2+B1M2-B2M3+B2M3-···-Bn-2Mn-1+Bn-2Mn-1= 0n: LapropriétécarM(M) = 0nmontrequecarM(X)estdanslenoyaudeevMde1.6,alorsmM(X) divisecarM(X), carmM(X)est un générateur de l'idéal principalker(evM). Le théorème de Cayley-Hamilton reste évidemment vrai si l'on remplace la matriceMpar un endomorphisme'?EndK(V).Exemple 1.8.Sur la feuille d'exercice no. 1 vous trouvez une façon de calculer les polynômes mini-
maux en général, et surtout une façon pour souvent éviter beaucoupde calcul. Le théorème 1.10 et la
proposition 1.13 se montreront très utiles.Voici des exemples clés pour comprendre la différence entre polynômeminimal et polynôme ca-
ractéristique : - Les trois matrices suivantes ont le même polynôme caractéristique,(X-1)2: M1:= (1 00 1); M2:= (1 10 1); M3:= (1 6910 1):
Le polynôme minimal deM1estX-1. PuisqueM2-1·id2= (0 10 0)?= 02etM3-1id2= 0 6910 0)?= 02, le polynôme minimal est(X-1)2dans ces deux cas. Notez que nous avons utilisé
le fait que les seuls diviseurs normalisés non-constants de(X-1)2sontX-1et(X-1)2, alors, le polynôme minimal doit être un parmi ces deux. - Les mêmes arguments donnent les polynômes minimaux des matrices suivantes (mais, notez qu'il y a une possibilité de plus) : M4:=(((1 0 00 1 00 0 1)))
;M5:=(((1 1 00 1 00 0 1))) ;M6:=(((1 1 00 1 10 0 1))) Le lemme suivant est notre premier pas vers la décomposition spectrale et la forme de Jordan.Lemme 1.9.Soit'?EndK(V).
(a) Soitf?K[X]etW:= ker(f(')). Alors,West un sous-espace deVstable par', c'est à dire : pour toutw?Won a'(w)?W. Ceci nous permet de restreindre'àW; on notéra l'application restreinte par'|W:W→W. (b) Soientf;g?K[X]deux polynômes premiers entre eux, c'est à dire :pgcd(f(X);g(X)) = 1.Alors,
ker(f(')·g('))? =:W= ker(f('))???? =:W1?ker(g('))???? =:W2: Avant la preuve, un petit mot sur la notation :f(')est une applicationK-linéaireV→V, alors on peut l'appliquer à un vecteurv?V. Notre notation pour ceci c'est :f(')(v)ou bienf(')v.Notez les rôles distincts des deux paires de paranthèses dans la première expression. On pourrait aussi
l'écrire(f('))(v), mais, je trouve cette écriture un peu lourde.1 RÉDUCTION DE JORDAN7
Démonstration.(a) Nous savons que le noyau de chaque applicationK-linéaire est un sous-espace. Ecrivonsf(X) =?di=0aiXi. Soit alorsw?W, i.e.f(')w=?di=0ai'i(w) = 0. Nous calculons f(')('(w)) =d? i=0a i'i('(w)) =d? i=0a i'i+1(w) ='?d? i=0a i'i(w)?='(0) = 0: (b) Il est clair queW1?WetW2?W, alorsW1+W2?W. Nous devons démontrer -W1∩W2= 0(leK-espace vectoriel zéro) et -W1+W2=W. PuisqueK[X]est un anneau euclidien, nous pouvons utiliser l'algorithme d'Euclide (de Bézout) pour obtenir deux autres polynômesa;b?K[X]tels que1 =a(X)f(X) +b(X)g(X). Soit d'abord w?W1∩W2. Alors w= idV(w) =a(')f(')w+b(')g(')w= 0 + 0 = 0;ce qui montre le premier point. Pour le deuxième soitw?W. L'équation qu'on vient d'utiliser s'écrit
comme w=w2+w1avecw2:=a(')f(')wetw1:=b(')g(')w:Mais, on a
f(')(w1) =b(')f(')g(')w=b(')0 = 0?w1?W1 et g(')(w2) =a(')f(')g(')w=a(')0 = 0?w2?W2; achevant la démonstration. Théorème 1.10(Décomposition spectrale).Soit'?EndK(V)avec polynôme minimalm?(X) = fe11(X)·fe22(X)·:::·ferr(X)où les polynômesfi(X)sont irréductibles (ce sont alors des éléments
premiers dans l'anneau principalK[X]) et premiers entre eux, c'est à direpgcd(fi;fj) = 1pour sont distincts). PosonsWi:= ker(fi(')). Alors, les assertions suivantes sont vraies. (a)V=?ri=1Wi. une base deWpour laquelle on a : MS,S(') =(((((((((
M100:::0
0M20:::0
.0:::0Mr-100:::00Mr
Démonstration.(a) suit du lemma 1.9 (b) par récurrence.(b) est clair : Ecrivez la matrice selon les règles et vous allez obtenir cette forme. Notez que les
blocs en dehors de la diagonale sont zéros parce que'(Wi)?Wi.1 RÉDUCTION DE JORDAN8
Le cas le plus important pour nous est celui oùfi(X) =X-aiavecai?=ajpouri?=j(cequi implique que lesfisont irréductibles et distincts). La décomposition spectrale n'est en fait qu'un
pas (décisif!) vers la réduction de Jordan. Nous voyons dans la prochaine propostion aussi son utilité
pour la diagonalisation. Pour l'instant nous illustrons l'effet de la décomposition spectrale à l'aide
d'un exemple. Avant cela, il peut être utile de se rappeller comment appliquerles résultats pour les
applications linéaire'aux matrices. Remarque 1.11.SoitM?Matn×n(K). On peut appliquer la décomposition spectrale à la ma- triceMcomme suit. Pour la base canoniqueB:= (((((((((((100 00))))))))))
;((((((((((010 00))))))))))
;:::;((((((((((000 01))))))))))
)la matriceMdécrit une applicationK-linéaire'et l'on aM=MB,B(')(voir le théorème 1.1). La décomposition spectrale nous donne une baseS. SoitC:=MB,S(id)la matrice de change- ment de bases entre la baseSet la base canonique. Alors, nous avons MS,S(') =C-1MC
(comme nous l'avons vu avant l'été). Pour être encore un peu plus concret, rappellons comment
écrire la matriceC. SiS= (v1;:::;vn)et les vecteursvisont donnés en coordonnées pour la base
standarde, alors lai-ième colonne deCest juste le vecteurvi.Alors, la décomposition spectrale peut être utilisée pour calculer une matrice semblable (par
dénition, deux matricesA;Bsontsemblablessi l'une est une conjugée de l'autre : il existe une matrice inversibleCtelle queB=C-1AC) àMde la jolie forme du théorème.Exemple 1.12.SoitM:=(((1 2 30 1 40 0 5)))
à coefcients dansQ. Le polynôme caractéristique est(X- 1)2(X-5). Il est clair queker(M-5·id3)est de dimension1; c'est à dire que5est une valeur
propre de multiplicité1(par dénition : son espace propre est de dimension1). Sans calcul il est clair
quedimker((M-id3)2) = 3-1 = 2. Le théorème 1.10 implique l'existence d'une matriceCtelle que C -1·M·C=(((1x0 0 1 00 0 5)))
pour unx?Qqui reste à être déterminé. En fait, on voit facilement quex?= 0, car dans ce cas le polynôme minimal serait(X-1)(X-5)ce qui est faux (voir aussi la Proposition 1.13). Le théorème sur la réduction de Jordan 1.17 nous dira
que nous pouvons choisirCtelle que mêmex= 1. Le polynôme minimal nous permet de donner encore une autre caractérisation de la diagonalisa- bilité :1 RÉDUCTION DE JORDAN9
Proposition 1.13.(a)Spec(') ={a?K|(X-a)|m?(X)}={a?K|m?(a) = 0}. (b) Soit'?EndK(V). Alors, les assertions suivantes sont équivalentes : (i)'est diagonalisable. (ii)m?(X) =? a?Spec(?)(X-a).Démonstration.(a) La deuxième égalité est claire : en utilisant la division euclidienne on voit qu'un
a?Kest un zéro d'un polynômef?K[X]si et seulement siX-adivisef(X). Pour voir la première égalité supposons d'abord(X-a)?m?(X). De cela nous déduisons que(X-a)et m ?(X)sont premiers entre eux, ce qui nous permet (par l'algorithme d'Euclide/Bézout) de trouver b;c?K[X]tels que1 =b(X)(X-a)+c(X)m?(X). Soit maintenantv?Vt.q.'(v) =av. Nous avons v= idVv=b(')('(v)-av) +c(')m?(')v= 0 + 0 = 0; alorsa??Spec('). Supposons maintenant(X-a)|m?(X)ce qui nous permet d'écrirem?(X) = (X-a)g(X) pour ung?K[X]. Puisque le degré degest strictement plus petit que celui dem?(X), il doit y avoir unv?Vtel quew:=g(')v?= 0(sinon, le polynôme minimalm?(X)serait un diviseur deg(X) ce qui est absurde). Nous avons alors ('-a)w=m?(')v= 0; alorsa?Spec('). (b) On écritSpec(') ={a1;:::;ar}. " (i)?(ii) » : On choisit une baseStelle queM:=MS,S(')est diagonale (voir la pro- position 1.3). Un calcul très simple montre que?ri=1(M-ai) = 0n. Alors,m?(X)est un di- viseur de?ri=1(X-ai). Mais, (a) montre que pour chaqueion a(X-ai)|m?(X). Donc, m ?(X) =?ri=1(X-ai)(les deux polynômes sont normalisés)."(ii)?(i)» : On applique la décomposition specrale 1.10 et il suf×t de noter que lesmatricesMi
sont diagonales carWi=E?(ai)est l'espace propre pour la valeur propreai. Il est utile de remarquer que les propositions 1.5 et 1.13 (a) disent quecar?(X)etm?(X)ont les mêmes facteurs de degré1. Exemple 1.14.Considérons la matriceM:=(((1 0 20 1 30 0 4)))à coefcients dansQ. Son polynôme
minimal est(X-1)(X-4), alors, elle est diagonalisable. (Pour obtenir le polynôme minimal il suft de voir que l'espace propre pour la valeur propre1est de dimension2.) Nous avons vu dans la proposition 1.3 que les matrices diagonalisables sontsemblables à des ma-trices diagonales. L'utilité d'une matrice diagonale pour des calculs est évidente. Malheureusement,
les matrices ne sont pas toutes diagonalisables. Notre but maintenant est dechoisir une baseSdeVde façon queMS,S(')ait une forme "simple, jolie et élégante» et le plus proche possible de la forme
diagonale.1 RÉDUCTION DE JORDAN10
Nous avons aussi vu que la décomposition spectrale 1.10 nous donne uneforme diagonale " enblocs». Notre but pour la réduction de Jordan sera de rendre les matrices dans les blocs le plus simple
possible. Nous présentons laréduction de Jordan(laforme normale de Jordan) d'un point de vue algorith-mique. Les preuves peuvent être abrégées un peu si on travaille sans coordonnées, mais, dans ce cas,
le calcul de la réduction n'est pas clair.Lemme 1.15.Soienta?K,e?N>0etv?Vtels que
('-a·id)e(v) = 0et('-a·id)e-1(v)?= 0:Nous posons :
v e:=v; v e-1:= ('-a·id)(v); v2:= ('-a·id)e-2(v);
v1:= ('-a·id)e-1(v):
et?v??:=?v1;:::;ve?, le sous-espace deVengendré par lesv1;:::;ve.(a) Lesv1;:::;vesontK-linéairement indépendants et, en conséquence, forment une baseSde?v??.
(b) Nous avons : '(v1) =av1; '(v2) =v1+av2; '(v3) =v2+av3; '(ve) =ve-1+ave: (c)'(?v??)? ?v??. (d)MS,S('|?v??) =(((((((((((a1 0 0:::00a1 0:::0
0 0 .......1 00 0:::0a1
0 0:::0 0a)))))))))))
Démonstration.(a) Notez que la plus grande puissance de'qui apparaît dans la dé×nition d'un des
viest égale àe-1. Une combinaison linéaire non-triviale de la forme0 =?ei=1ivise réécrit alors
sous la formeg(')(v) = 0avec un polynôme0?=g(X)?K[X]de degré au pluse-1. Comme le polynôme minimal de'est de degrée, nous obtenons une contradiction.1 RÉDUCTION DE JORDAN11
(b) C'est un calcul très facile : ('-a·id)v1= ('-a·id)ev= 0?'(v1) =av1: ('-a·id)v2=v1?'(v2) =v1+av2: ('-a·id)ve-1=ve?'(ve) =ve-1+ave: (c) et (d) sont évidents à cause de (b).Nous voulons décomposerVen blocs de la forme du lemme précédent. Ceci se fait par le prochain
lemme. Il est assez technique et un peu formel, mais, il fait précisement ce qui nous faut : Supposons
basesSideWitelles que les matricesMSi,Si('|Wi)soit de la forme " jolie » du lemme 1.15 (dans le prochain lemme on auraWi=?xi??). Le but du prochain lemme est de construire un sous-espace Wr+1(c'est?~y??) tel que les mêmes propriétés restent vraies pour lesr+1sous-espaces. Ce processus
pourra être continué pour nous mener à la réduction de Jordan. La construction de~yest très explicite
et assez facile à véri×er, mais, un peu technique. ('-a·id)ei(xi) = 0et('-a·id)ei-1(xi)?= 0: S i= ('-a·id)ei-1(xi);('-a·id)ei-2(xi); :::;('-a·id)(xi); xi: Nous supposons en plus queX:=?ri=1?xi??est égale à?ri=1?xi??. En conséquence,S:=S1? S (a)'induit un endomorphisme de?y??=(X∩?y??). Son polynôme minimal est de la forme(X-a)k (b) Soitkcomme dans (a). En représentant('-a·id)k(y)dans la baseS, on obtient des uniques i,j?Ktels que ('-a·id)k(y) =r? i=1e i-1? j=k i,j('-a·id)j(xi): (c) Soientkcomme dans (a) eti,jcomme dans (b). On pose ~y:=y-r? i=1e i-1? j=k i,j('-a·id)j-k(xi):