[PDF] [PDF] Algèbre 3 - Université du Luxembourg

11 déc 2012 · est un homomorphisme d'anneaux (même de K-algèbres) (c) Le noyau ker(evM ) est un idéal principal non-nul de l'anneau principal K[X], alors, 



Previous PDF Next PDF





[PDF] Algèbre linéaire - Exo7 - Exercices de mathématiques

Révisions – Algèbre linéaire Exercice 1 1 Résoudre de quatre manières différentes le système suivant (par substitution, par la méthode du pivot de Gauss , en 



[PDF] Algèbre - Exo7 - Cours de mathématiques

À la découverte de l'algèbre La première année d'études supérieures pose les bases des mathématiques Pourquoi se lancer dans une telle expédition ?



[PDF] Logique, ensembles et applications - Exo7 - Exercices de

Exercice 1 **IT Exprimer à l'aide de quantificateurs les phrases suivantes puis donner leur négation 1 (f étant une application du plan dans lui-même) (a) f est  



[PDF] Logique, ensembles, raisonnements - Exo7 - Exercices de

Exo7 Logique, ensembles, raisonnements 1 Logique Exercice 1 Compléter les pointillés par le connecteur logique qui s'impose : ⇔, ⇐, ⇒ 1 x ∈ R x2 = 4 



[PDF] LALGÈBRE LINÉAIRE POUR TOUS - Laboratoire Analyse

Notes du cours d'Algèbre linéaire pour les économistes donné en deuxième année de Licence MASS à l'université de Nice Sophia-Antipolis entre 2011 et 



[PDF] Exo7 - Exercices de mathématiques - COURSES

Exo7 Polynômes Corrections de Léa Blanc-Centi 1 Opérations sur les polynômes Exercice 1 Trouver le polynôme P de degré inférieur ou égal à 3 tel que :



[PDF] Exo7 - Exercices de mathématiques - COURSES

Exercice 6 1 Montrer que le reste de la division euclidienne par 8 du carré de tout nombre impair est 1 2 Montrer de même que tout nombre pair vérifie x2 = 0  



[PDF] Cours dalgèbre linéaire, 2 ème année duniversité - Institut de

Ceci est le cours d'algèbre linéaire enseigné à Toulouse à un bon millier groupes, d'algèbres, de spineurs, de calcul extérieur et de "calcul tensoriel"



[PDF] Cours dAlgèbre I et II avec Exercices CorrigésOM DE VOTRE - USTO

Chapitre 1 Introduction 5 Chapitre 2 Élément de logique et méthodes de raisonnement avec Exercices Corrigés 7 1 Régles de logique formelle 7 2



[PDF] Algèbre 3 - Université du Luxembourg

11 déc 2012 · est un homomorphisme d'anneaux (même de K-algèbres) (c) Le noyau ker(evM ) est un idéal principal non-nul de l'anneau principal K[X], alors, 



pdf Searches related to algebre 2 exo7

2 is 4 hence the dimension of the kernel of A 2 is 1 Therefore the set of solutions of A 2X= b 2 is an a ne line in R5 par-allel to kerA 2 Denote by (x;y;z;t;u) the coordinates in R5 Let us parametrize the set of solutions by a= u2R The system is equivalent to 8 >> < >>: x+ 2 y+ t= 1 3a y + z + t = 1 2a z+ 2 t= 1 3a t = 1 a 8 >> < >>: 2 y

[PDF] algebre 3 cours pdf

[PDF] algebre 3 exercices corrigés pdf

[PDF] algebre 3 exo7

[PDF] algebre 4 exercice corrigé

[PDF] algèbre bilinéaire cours et exercices corrigés pdf

[PDF] algèbre bilinéaire forme quadratique

[PDF] algebre exercice

[PDF] algèbre exercices

[PDF] algèbre exercices avec solutions

[PDF] algèbre exercices avec solutions pdf

[PDF] algebre generale exercices corrigés pdf

[PDF] algebre generale mp

[PDF] algèbre linéaire

[PDF] algèbre linéaire cours exercices corrigés pdf

[PDF] algèbre linéaire espace vectoriel exercice corrigé

Algèbre 3

Semestre d'hiver 2012/2013

Université du Luxembourg

Gabor Wiese

gabor.wiese@uni.lu

Version du 19 décembre 2012

Préface

L'objet principal du cours sera l'étude des extensions algébriques des corps commutatifs. En par-

ticulier, la théorie de Galois sera développée et appliquée. Elle permet entreautres de démontrer que

l'équation générale de degré au moins5ne peut pas être résolue en radicaux et de résoudre (parfois

de manière négative) plusieurs problèmes classiques (provenant des anciens Grecs) de construction à

la règle et au compas comme la trisection d'un angle et la quadrature du cercle.

Au début du cours nous allons ×nir le traitement de la réduction de Jordan d'une matrice com-

mencé avant l'été.

Littérature

Voici quelques références sur la théorie de Galois en français : - Jean-Pierre Escof×er :Théorie de Galois - Jean-Claude Carrega :Théorie des corps, la règle et le compas - Antoine Chambert-Loir :Algèbre corporelle - Yvan Gozard :Théorie de Galois - Patrice Tauvel :Corps commutatifs et théorie de Galois - Josette Calais :Extension de corps, théorie de Galois - Evariste Galois : le texte original!

Voici quelques d'autres références :

- Siegfried Bosch :Algebra(en allemand), Springer-Verlag. Ce livre est très complet et bien lisible.

- Ian Stewart :Galois Theory. Ce livre est bien lisible. Le traitement de la théorie de Galois dans

le cours sera un peu plus général puisque Stewart se restreint dans les premiers chapîtres aux

sous-corps des nombres complexes. - Serge Lang :Algebra(en anglais), Springer-Verlag. C'est comme une encyclopédie de l'al- gèbre; on y trouve beaucoup de sujets rassemblés, écrits de façon concise. 1

1 RÉDUCTION DE JORDAN2

1 Réduction de Jordan

Nous commençons ce cours par la réduction de Jordan que nous avons bien préparée le semestre

précédent, mais, pas encore ×nie. Rappelons d'abord les dé×nitions etrésultats principaux déjà mis

en place avant l'été. Dans toute cette section, soitKun corps commutatif.

Le théorème suivant est souvent appelléthéorème fondamental sur les matrices, ce qui montre son

rôle fondamental : il dit que - après un choix de bases (pas oublier!!) -chaque application linéaire

peut être décrite de façon unique par une matrice, et que, réciproquement, chaque matrice - encore

pour un choix de bases ×xé - dé×nit une application linéaire.

Un mot sur les notations : contrairement à l'usage au semestre précédent, jenoterai les bases main-

tenant avec des parenthèses,S= (v1;:::;vn), et non avec des accolades car la forme des matrices

(qui est aussi noté avec des parenthèses). Si nous avons deux sous-espaceW1etW2d'un espace vec-

torielVavec des basesS1= (v1;:::;vn)etS2= (w1;:::;wm), on notera(v1;:::;vn;w1;:::;wm) quand-même parS1?S2. Théorème 1.1.SoientV;WdeuxK-espaces vectoriels de dimensions niesnetm. Rappellons que nous notonsHomK(V;W)l'ensemble de toutes les applications':V→Wqui sontK- linéaires. SoientS= (v1;:::;vn)uneK-base deVetT= (w1;:::;wm)uneK-base deW. Pour que combinaisonK-linéaire des vecteurs dans la baseTainsi : '(vi) =m? j=1a j,iwj: Nous " rassemblons» les coefcientsaj,idans une matrice : M

T,S(') :=((((((a

1,1a1,2···a1,n

a

2,1a2,2···a2,n.

a m,1am,2···am,n)))))) ?Matm×n(K):

L'utilité de cette matrice est la suivante : Soitv?Vun vecteur qui s'écrit en coordonnées pour

la baseScommev=((((((b 1 b 2. b n)))))) . Alors, le produit matriciel (a

1,1a1,2···a1,n

a

2,1a2,2···a2,n.

a m,1am,2···am,n)))))) (b 1 b 2. b n))))))

est égale au vecteur'(v)écrit en coordonnées pour la baseT. C'est à dire que nous avons exprimé

l'image'(v)en coordonnées. Alors, la matriceMT,S(')décrit l'application linéaire'en coordon-

nées.

1 RÉDUCTION DE JORDAN3

L'assertion principale du théorème c'est : L'application Hom

K(V;W)→Matm×n(K); '?→MT,S(')

est une bijection. Elle est même un isomorphisme deK-algèbres.

Démonstration.La preuve n'est qu'un calcul assez simple et a été donnée avant l'été.Elle fait partie

de celles que chaqu'un(e) devrait pouvoir reproduire. Alors, c'est le cas? Dans le reste de cette section nous nous intéressons au cas spécialW=V. Une application K-linéaire':V→Vest aussi appelléeendomorphismeet nous écrivons End

K(V) := HomK(V;V):

A partir d'ici, ×xons unK-espace vectorielVde dimension ×nien.

Dénition 1.2.Soit'?EndK(V).

-a?Kest appellévaleur proprede's'il existe0?=v?Vt.q.'(v) =av(ou équivalent : ker('-a·idV)?= 0). - On poseE?(a) := ker('-a·idV). Siaest une valeur propre de', on appelleE?(a)l'espace propre poura. - Chaque0?=v?E?(a)est appellévecteur propre pour la valeur proprea. - On poseSpec(') ={a?K|aest valeur propre de'}. - On appelle'diagonalisablesiV=? a?Spec(?)E?(a).

Vous avez déjà vu beaucoup d'exemples, en algèbre linéaire et en algèbre 2 avant l'été. Rappellons

quand-même une formulation équivalente de la diagonalisabilité (qui explique lenom). Proposition 1.3.Soit'?EndK(V)etSpec(') ={a1;:::;ar}. Les assertions suivantes sont

équivalentes :

(i)'est diagonalisable. (ii) Il existe une baseSdeVt.q. M

S,S(') =(((((((((((((((a

10 0 0 0 0 0 0 0 0

0...0 0 0 0 0 0 0 0 00 0a10 0 0 0 0 0 0 00 0 0a20 0 0 0 0 0 0

0 0 0 0...0 0 0 0 0 00 0 0 0 0a20 0 0 0 0

0 0 0 0 0 0...0 0 0 0

0 0 0 0 0 0 0...0 0 00 0 0 0 0 0 0 0ar0 0

0 0 0 0 0 0 0 0 0...00 0 0 0 0 0 0 0 0 0ar)))))))))))))))

1 RÉDUCTION DE JORDAN4

une baseSideE?(ai)et posonsS=S1?S2?···?Sr. Puisque'est diagonalisable,Vest la somme directe desE?(ai); ceci ne dit rien d'autre queSest une base deV. La forme diagonale de la matrice provient immédiatement du théorème fondamental sur les matrices 1.1. " (ii)?(i) » : EcrivonsS= (v1;:::;vn)eteipour le nombre de fois queaiapparaît sur la diagonale. Alors,E?(a1)est le sous-espace deVengendré par les premierse1vecteurs deS; ensuite, E ?(a2)est le sous-espace deVengendré par les prochainse2vecteurs deS, etc. Ceci montre queV Dénition 1.4.- SoitM?Matn×n(K)une matrice. Lepolynôme caractéristique deMest déni comme car

M(X) := det?X·idn-M??K[X]:

- Soit'?EndK(V). Lepolynôme caractéristique de'est déni comme car

φ(X) := carMS,S(?)(X):

Avant l'été nous nous sommes convaincues quecar?ne dépend pas du choix de la baseS. Nous avons aussi vu plusieurs exemples que nous n'allons pas répeter ici. Proposition 1.5.Spec(') ={a?K|car?(a) = 0}={a?K|(X-a)|car?(X)}.

Démonstration.C'est facile, n'est-ce pas?

A part le polynôme caractéristique nous avons également introduit le polynôme minimal dont

on rappelle aussi la dé×nition. On se souvient qu'on a démontré queK[X]est un anneau euclidien

(pour la division euclidienne de polynômes, c'est à dire "avec reste»),alors, comme on l'a démontré

également,K[X]est un anneau principal : chaque idéal est principal, c'est à dire, peut être engendré

par un seul élément. Nous allons utiliser ce fait maintenant. Dénition-Lemme 1.6.(a) SoitM?Matn×n(K)une matrice. Sif(X) =?di=0aiXi?K[X] est un polynôme, alors nous posonsf(M) :=?di=0aiMi, ce qui est encore une matrice dans Mat n×n(K). (b) L'application " evaluation » ev

M:K[X]→Matn×n(K); f(X)?→f(M)

est un homomorphisme d'anneaux (même deK-algèbres). (c) Le noyauker(evM)est un idéal principal non-nul de l'anneau principalK[X], alors, il existe un unique polynôme normalisémM(X)?K[X]qui engendreker(evM). On appellemM(X)le polynôme minimal deM. (d)mM(X)est le polynôme normalisé de degré minimal qui annuleM(c'est à dire :mM(M) = 0n où0nest la matrice zéro dansMatn×n(K)(qu'on denotéra aussi0pour simplicité)). (e) Soit'?EndK(V). Nous posons m ?(X) :=mMS,S(?)(X) et l'appellonspolynôme minimal de'. Ce polynôme ne dépend pas du choix de la baseS.

1 RÉDUCTION DE JORDAN5

Démonstration.(a) est clair.

(b) C'est un calcul facile. (c) Remarquons queK[X]est de dimension in×nie alors que la dimension deMatn×n(K)est

×nie, ce qui montre queevMne peut pas être injective. Alors, son noyau est non-nul et engendré par

un polynôme qui est unique à multiplication parK×près, ce qui nous permet de le normaliser.

(d) est clair. (e) L'indépendence du choix de la base provient du fait que la conjugaison avec la matrice de changement de base décrit un isomorphisme deMatn×n(K).

Le polynôme caracteristiquecarM(X)et le polynôme minimalmM(X)sont liés par le théorème

de Cayley-Hamilton. Théorème 1.7(Cayley-Hamilton).SoitM?Matn×n(K). Alors, car

M(M) = 0n?Matn×n(K):

En particulier,mM(X)est un diviseur decarM(X).

Démonstration.L'astuce est d'utiliser les matrices adjointes. Nous avons (X·idn-M)adj·(X·idn-M) = det(X·idn-M)·idndéf= carM(X)·idn:(1.1) Notez que la matriceX·idn-Mest à coef×cients dans l'anneau des polynômesK[X]. Mais, il

est facile de véri×er que la propriété principale des matrices adjointes que nous venons d'utiliser est

valable pour chaque anneau commutative et pas seulement pourR, le cas pour lequel vous avez vu la preuve en algèbre linéaire.

La dé×nition de la matrice adjointe montre que la plus grande puissance deXqui peut apparaître

dans un coef×cient de la matrice(X·idn-M)adjestn-1. Nous pouvons alors écrire cette matrice en tant que polynôme de degrén-1à coef×cients dansMatn×n(K): (X·idn-M)adj=n-1? i=0B iXiavecBi?Matn×n(K): Nous écrivonscarM(X) =?ni=0aiXiet reprenons l'équation (1.1) : car

M(X)·idn=n?

i=0a i·idn·Xi=?n-1? i=0B iXi?(X·idn-M) n-1? i=0(BiXi+1-BiMXi) =-B0M+n-1? i=1(Bi-1-BiM)Xi+Bn-1Xn: Nous comparons les coef×cients (encore des matrices!) pour obtenir a

1 RÉDUCTION DE JORDAN6

On peut maintenant conclure la preuve decarM(M) = 0npar un calcul simple : car

M(M)·idn=n?

i=0a i·Mi=-B0M+n-1? i=1(Bi-1-BiM)Mi =-B0M+B0M-B1M2+B1M2-B2M3+B2M3-···-Bn-2Mn-1+Bn-2Mn-1= 0n: LapropriétécarM(M) = 0nmontrequecarM(X)estdanslenoyaudeevMde1.6,alorsmM(X) divisecarM(X), carmM(X)est un générateur de l'idéal principalker(evM). Le théorème de Cayley-Hamilton reste évidemment vrai si l'on remplace la matriceMpar un endomorphisme'?EndK(V).

Exemple 1.8.Sur la feuille d'exercice no. 1 vous trouvez une façon de calculer les polynômes mini-

maux en général, et surtout une façon pour souvent éviter beaucoupde calcul. Le théorème 1.10 et la

proposition 1.13 se montreront très utiles.

Voici des exemples clés pour comprendre la différence entre polynômeminimal et polynôme ca-

ractéristique : - Les trois matrices suivantes ont le même polynôme caractéristique,(X-1)2: M

1:= (1 00 1); M2:= (1 10 1); M3:= (1 6910 1):

Le polynôme minimal deM1estX-1. PuisqueM2-1·id2= (0 10 0)?= 02etM3-1id2= 0 691

0 0)?= 02, le polynôme minimal est(X-1)2dans ces deux cas. Notez que nous avons utilisé

le fait que les seuls diviseurs normalisés non-constants de(X-1)2sontX-1et(X-1)2, alors, le polynôme minimal doit être un parmi ces deux. - Les mêmes arguments donnent les polynômes minimaux des matrices suivantes (mais, notez qu'il y a une possibilité de plus) : M

4:=(((1 0 00 1 00 0 1)))

;M5:=(((1 1 00 1 00 0 1))) ;M6:=(((1 1 00 1 10 0 1))) Le lemme suivant est notre premier pas vers la décomposition spectrale et la forme de Jordan.

Lemme 1.9.Soit'?EndK(V).

(a) Soitf?K[X]etW:= ker(f(')). Alors,West un sous-espace deVstable par', c'est à dire : pour toutw?Won a'(w)?W. Ceci nous permet de restreindre'àW; on notéra l'application restreinte par'|W:W→W. (b) Soientf;g?K[X]deux polynômes premiers entre eux, c'est à dire :pgcd(f(X);g(X)) = 1.

Alors,

ker(f(')·g('))? =:W= ker(f('))???? =:W1?ker(g('))???? =:W2: Avant la preuve, un petit mot sur la notation :f(')est une applicationK-linéaireV→V, alors on peut l'appliquer à un vecteurv?V. Notre notation pour ceci c'est :f(')(v)ou bienf(')v.

Notez les rôles distincts des deux paires de paranthèses dans la première expression. On pourrait aussi

l'écrire(f('))(v), mais, je trouve cette écriture un peu lourde.

1 RÉDUCTION DE JORDAN7

Démonstration.(a) Nous savons que le noyau de chaque applicationK-linéaire est un sous-espace. Ecrivonsf(X) =?di=0aiXi. Soit alorsw?W, i.e.f(')w=?di=0ai'i(w) = 0. Nous calculons f(')('(w)) =d? i=0a i'i('(w)) =d? i=0a i'i+1(w) ='?d? i=0a i'i(w)?='(0) = 0: (b) Il est clair queW1?WetW2?W, alorsW1+W2?W. Nous devons démontrer -W1∩W2= 0(leK-espace vectoriel zéro) et -W1+W2=W. PuisqueK[X]est un anneau euclidien, nous pouvons utiliser l'algorithme d'Euclide (de Bézout) pour obtenir deux autres polynômesa;b?K[X]tels que1 =a(X)f(X) +b(X)g(X). Soit d'abord w?W1∩W2. Alors w= idV(w) =a(')f(')w+b(')g(')w= 0 + 0 = 0;

ce qui montre le premier point. Pour le deuxième soitw?W. L'équation qu'on vient d'utiliser s'écrit

comme w=w2+w1avecw2:=a(')f(')wetw1:=b(')g(')w:

Mais, on a

f(')(w1) =b(')f(')g(')w=b(')0 = 0?w1?W1 et g(')(w2) =a(')f(')g(')w=a(')0 = 0?w2?W2; achevant la démonstration. Théorème 1.10(Décomposition spectrale).Soit'?EndK(V)avec polynôme minimalm?(X) = f

e11(X)·fe22(X)·:::·ferr(X)où les polynômesfi(X)sont irréductibles (ce sont alors des éléments

premiers dans l'anneau principalK[X]) et premiers entre eux, c'est à direpgcd(fi;fj) = 1pour sont distincts). PosonsWi:= ker(fi(')). Alors, les assertions suivantes sont vraies. (a)V=?ri=1Wi. une base deWpour laquelle on a : M

S,S(') =(((((((((

M100:::0

0M20:::0

.0:::0Mr-10

0:::00Mr

Démonstration.(a) suit du lemma 1.9 (b) par récurrence.

(b) est clair : Ecrivez la matrice selon les règles et vous allez obtenir cette forme. Notez que les

blocs en dehors de la diagonale sont zéros parce que'(Wi)?Wi.

1 RÉDUCTION DE JORDAN8

Le cas le plus important pour nous est celui oùfi(X) =X-aiavecai?=ajpouri?=j(ce

qui implique que lesfisont irréductibles et distincts). La décomposition spectrale n'est en fait qu'un

pas (décisif!) vers la réduction de Jordan. Nous voyons dans la prochaine propostion aussi son utilité

pour la diagonalisation. Pour l'instant nous illustrons l'effet de la décomposition spectrale à l'aide

d'un exemple. Avant cela, il peut être utile de se rappeller comment appliquerles résultats pour les

applications linéaire'aux matrices. Remarque 1.11.SoitM?Matn×n(K). On peut appliquer la décomposition spectrale à la ma- triceMcomme suit. Pour la base canoniqueB:= (((((((((((100 0

0))))))))))

;((((((((((010 0

0))))))))))

;:::;((((((((((000 0

1))))))))))

)la matriceMdécrit une applicationK-linéaire'et l'on aM=MB,B(')(voir le théorème 1.1). La décomposition spectrale nous donne une baseS. SoitC:=MB,S(id)la matrice de change- ment de bases entre la baseSet la base canonique. Alors, nous avons M

S,S(') =C-1MC

(comme nous l'avons vu avant l'été). Pour être encore un peu plus concret, rappellons comment

écrire la matriceC. SiS= (v1;:::;vn)et les vecteursvisont donnés en coordonnées pour la base

standarde, alors lai-ième colonne deCest juste le vecteurvi.

Alors, la décomposition spectrale peut être utilisée pour calculer une matrice semblable (par

dénition, deux matricesA;Bsontsemblablessi l'une est une conjugée de l'autre : il existe une matrice inversibleCtelle queB=C-1AC) àMde la jolie forme du théorème.

Exemple 1.12.SoitM:=(((1 2 30 1 40 0 5)))

à coefcients dansQ. Le polynôme caractéristique est(X- 1)

2(X-5). Il est clair queker(M-5·id3)est de dimension1; c'est à dire que5est une valeur

propre de multiplicité1(par dénition : son espace propre est de dimension1). Sans calcul il est clair

quedimker((M-id3)2) = 3-1 = 2. Le théorème 1.10 implique l'existence d'une matriceCtelle que C -1·M·C=(((1x0 0 1 0

0 0 5)))

pour unx?Qqui reste à être déterminé. En fait, on voit facilement quex?= 0, car dans ce cas le polynôme minimal serait(X-1)(X-5)

ce qui est faux (voir aussi la Proposition 1.13). Le théorème sur la réduction de Jordan 1.17 nous dira

que nous pouvons choisirCtelle que mêmex= 1. Le polynôme minimal nous permet de donner encore une autre caractérisation de la diagonalisa- bilité :

1 RÉDUCTION DE JORDAN9

Proposition 1.13.(a)Spec(') ={a?K|(X-a)|m?(X)}={a?K|m?(a) = 0}. (b) Soit'?EndK(V). Alors, les assertions suivantes sont équivalentes : (i)'est diagonalisable. (ii)m?(X) =? a?Spec(?)(X-a).

Démonstration.(a) La deuxième égalité est claire : en utilisant la division euclidienne on voit qu'un

a?Kest un zéro d'un polynômef?K[X]si et seulement siX-adivisef(X). Pour voir la première égalité supposons d'abord(X-a)?m?(X). De cela nous déduisons que(X-a)et m ?(X)sont premiers entre eux, ce qui nous permet (par l'algorithme d'Euclide/Bézout) de trouver b;c?K[X]tels que1 =b(X)(X-a)+c(X)m?(X). Soit maintenantv?Vt.q.'(v) =av. Nous avons v= idVv=b(')('(v)-av) +c(')m?(')v= 0 + 0 = 0; alorsa??Spec('). Supposons maintenant(X-a)|m?(X)ce qui nous permet d'écrirem?(X) = (X-a)g(X) pour ung?K[X]. Puisque le degré degest strictement plus petit que celui dem?(X), il doit y avoir unv?Vtel quew:=g(')v?= 0(sinon, le polynôme minimalm?(X)serait un diviseur deg(X) ce qui est absurde). Nous avons alors ('-a)w=m?(')v= 0; alorsa?Spec('). (b) On écritSpec(') ={a1;:::;ar}. " (i)?(ii) » : On choisit une baseStelle queM:=MS,S(')est diagonale (voir la pro- position 1.3). Un calcul très simple montre que?ri=1(M-ai) = 0n. Alors,m?(X)est un di- viseur de?ri=1(X-ai). Mais, (a) montre que pour chaqueion a(X-ai)|m?(X). Donc, m ?(X) =?ri=1(X-ai)(les deux polynômes sont normalisés).

"(ii)?(i)» : On applique la décomposition specrale 1.10 et il suf×t de noter que lesmatricesMi

sont diagonales carWi=E?(ai)est l'espace propre pour la valeur propreai. Il est utile de remarquer que les propositions 1.5 et 1.13 (a) disent quecar?(X)etm?(X)ont les mêmes facteurs de degré1. Exemple 1.14.Considérons la matriceM:=(((1 0 20 1 30 0 4)))

à coefcients dansQ. Son polynôme

minimal est(X-1)(X-4), alors, elle est diagonalisable. (Pour obtenir le polynôme minimal il suft de voir que l'espace propre pour la valeur propre1est de dimension2.) Nous avons vu dans la proposition 1.3 que les matrices diagonalisables sontsemblables à des ma-

trices diagonales. L'utilité d'une matrice diagonale pour des calculs est évidente. Malheureusement,

les matrices ne sont pas toutes diagonalisables. Notre but maintenant est dechoisir une baseSdeV

de façon queMS,S(')ait une forme "simple, jolie et élégante» et le plus proche possible de la forme

diagonale.

1 RÉDUCTION DE JORDAN10

Nous avons aussi vu que la décomposition spectrale 1.10 nous donne uneforme diagonale " en

blocs». Notre but pour la réduction de Jordan sera de rendre les matrices dans les blocs le plus simple

possible. Nous présentons laréduction de Jordan(laforme normale de Jordan) d'un point de vue algorith-

mique. Les preuves peuvent être abrégées un peu si on travaille sans coordonnées, mais, dans ce cas,

le calcul de la réduction n'est pas clair.

Lemme 1.15.Soienta?K,e?N>0etv?Vtels que

('-a·id)e(v) = 0et('-a·id)e-1(v)?= 0:

Nous posons :

v e:=v; v e-1:= ('-a·id)(v); v

2:= ('-a·id)e-2(v);

v

1:= ('-a·id)e-1(v):

et?v??:=?v1;:::;ve?, le sous-espace deVengendré par lesv1;:::;ve.

(a) Lesv1;:::;vesontK-linéairement indépendants et, en conséquence, forment une baseSde?v??.

(b) Nous avons : '(v1) =av1; '(v2) =v1+av2; '(v3) =v2+av3; '(ve) =ve-1+ave: (c)'(?v??)? ?v??. (d)MS,S('|?v??) =(((((((((((a1 0 0:::0

0a1 0:::0

0 0 .......1 0

0 0:::0a1

0 0:::0 0a)))))))))))

Démonstration.(a) Notez que la plus grande puissance de'qui apparaît dans la dé×nition d'un des

v

iest égale àe-1. Une combinaison linéaire non-triviale de la forme0 =?ei=1ivise réécrit alors

sous la formeg(')(v) = 0avec un polynôme0?=g(X)?K[X]de degré au pluse-1. Comme le polynôme minimal de'est de degrée, nous obtenons une contradiction.

1 RÉDUCTION DE JORDAN11

(b) C'est un calcul très facile : ('-a·id)v1= ('-a·id)ev= 0?'(v1) =av1: ('-a·id)v2=v1?'(v2) =v1+av2: ('-a·id)ve-1=ve?'(ve) =ve-1+ave: (c) et (d) sont évidents à cause de (b).

Nous voulons décomposerVen blocs de la forme du lemme précédent. Ceci se fait par le prochain

lemme. Il est assez technique et un peu formel, mais, il fait précisement ce qui nous faut : Supposons

basesSideWitelles que les matricesMSi,Si('|Wi)soit de la forme " jolie » du lemme 1.15 (dans le prochain lemme on auraWi=?xi??). Le but du prochain lemme est de construire un sous-espace W

r+1(c'est?~y??) tel que les mêmes propriétés restent vraies pour lesr+1sous-espaces. Ce processus

pourra être continué pour nous mener à la réduction de Jordan. La construction de~yest très explicite

et assez facile à véri×er, mais, un peu technique. ('-a·id)ei(xi) = 0et('-a·id)ei-1(xi)?= 0: S i= ('-a·id)ei-1(xi);('-a·id)ei-2(xi); :::;('-a·id)(xi); xi: Nous supposons en plus queX:=?ri=1?xi??est égale à?ri=1?xi??. En conséquence,S:=S1? S (a)'induit un endomorphisme de?y??=(X∩?y??). Son polynôme minimal est de la forme(X-a)k (b) Soitkcomme dans (a). En représentant('-a·id)k(y)dans la baseS, on obtient des uniques i,j?Ktels que ('-a·id)k(y) =r? i=1e i-1? j=k i,j('-a·id)j(xi): (c) Soientkcomme dans (a) eti,jcomme dans (b). On pose ~y:=y-r? i=1e i-1? j=k i,j('-a·id)j-k(xi):

Alors,

-('-a·id)k(~y) = 0et('-a·id)k-1(~y)?= 0, -?~y??∩X= 0et, en conséquence, -?x1??? ?x2??? ··· ? ?xr??? ?~y??est unK-sous-espace deV.

1 RÉDUCTION DE JORDAN12

Démonstration.(a) Il est clair que'induit un endomorphisme. Comme('-a·id)ei(y) = 0, le polynôme minimal recherché doit être un diviseur de(X-a)ei, d'où l'assertion. (b) En écrivant('-a·id)k(y)dans la baseS, on obtient ('-a·id)k(y) =r? i=1e i-1? j=1 i,j('-a·id)j(xi): dest le minimum deseiet on obtientquotesdbs_dbs18.pdfusesText_24