[PDF] REPRÉSENTATION MATRICIELLE DES APPLICATIONS LINÉAIRES





Previous PDF Next PDF



Matrice et application linéaire

Voici un exemple d'une matrice échelonnée par colonnes ; les ? désignent des Le théorème du rang donne une relation entre la dimension du noyau et la ...



1. Rang dune application linéaire

Le théorème ne fait aucune hypothèse sur la dimension de l'espace vectoriel d'arrivée F. Exemple 1. Il existe une unique application linéaire f : Rn ? R[X] 



120: Dimension dun espace vectoriel. Rang. Exemples et applications

4 mar. 2010 peut appliquer le théorème énoncé précédemment sur le rang d'une famille de vecteurs (pivot de. Gauss). Exemple 3.



APPLICATIONS LINÉAIRES

2.2 LE THÉORÈME DU RANG. Le noyau et l'image d'une application linéaire sont fortement liés on s'en rend déjà bien compte sur l'exemple simple.



Dimension des espaces vectoriels

20 avr. 2013 comprendre et utiliser efficacement le théorème du rang. ... exemple quitte à réordonner les vecteurs de la deuxième famille



Applications linéaires

Que donne le théorème du rang? Indication ?. Correction ?. Vidéo ?. [000934]. Exercice 4. Soit E un espace vectoriel de dimension n et f une application 



Applications linéaires matrices

http://licence-math.univ-lyon1.fr/lib/exe/fetch.php?media=exomaths:exercices_corriges_application_lineaire_et_determinants.pdf



REPRÉSENTATION MATRICIELLE DES APPLICATIONS LINÉAIRES

Exemple Pour tout -espace vectoriel E de dimension finie n et pour toute base Théorème (Rang d'une application linéaire rang d'une matrice associée) ...



Séance de soutien PCSI2 numéro 10 : Espaces vectoriels et

Le théorème du rang nous donne alors que la dimension de ce noyau vaudra attention lorsque t = 0 le système a des solutions non triviales (par exemple.



Leçon 151 : Dimension dun espace vectoriel (on se limitera au cas

cas de la dimension finie). Rang. Exemples et applications. Développements : Invariants de similitude (Réduction de Frobenius) Théorème des extrema.



[PDF] Théorème du rang

Théorème du rang Définition 1 Soit ? : V ? W une application linéraire On appelle « image » de ? le sous-espace vectoriel de W : im ? = {?( v) v ? V }



[PDF] 1 Rang dune application linéaire

Le théorème ne fait aucune hypothèse sur la dimension de l'espace vectoriel d'arrivée F Exemple 1 Il existe une unique application linéaire f : Rn ? R[X] 



[PDF] Matrice et application linéaire - Exo7 - Cours de mathématiques

Maintenant par le théorème du rang dim Ker f = dim4 ? rg f = 4 ? 2 = 2 On trouve bien sûr le même résultat par les deux méthodes Exemple 9



[PDF] Rangpdf

Théorème 2 Deux matrices sont équivalentes si et seulement si elles ont même rang On rappelle que deux matrices A et B sont équivalentes peut s'écrire B = P- 



[PDF] Le rang

On a ici le théorème du rang : Attention c'est bien la dimension de l'espace de départ Exemples d'exercice : Soient E et F deux espaces vectoriels sur K 



[PDF] Théorie du rang Systèmes linéaires

Théorème 2 6 [Fondamental!] Dans un espace vectoriel de dimension n ? 1 sur un corps K les trois propriétés suivantes sont équivalentes concernant n vecteurs 



[PDF] Rang des matrices

Par définition le rang d'une matrice est celui du syst`eme homog`ene associé Exemple La matrice suivante a pour rang 3 (le syst`eme correspondant est



[PDF] Applications linéaires et changements de bases en dimension finie

Avec la notion de rang d'une application linéaire : rang(f) = déf dim(Im(f)) ce théorème est aussi énoncé sous l'appellation Théorème du rang : Si E est 



[PDF] Dimension des espaces vectoriels - Normale Sup

20 avr 2013 · Le théorème du rang n'affirme absolument pas que le noyau et l'image de f sont supplémentaires c'est faux en général (voir l'exemple suivant la 

  • Comment utiliser le théorème du rang ?

    Le théorème le plus classique concernant le rang est le : Théorème du rang : Si E et F sont deux espaces vectoriels de dimension finie, si f:E?F f : E ? F est une application linéaire, alors : dim(E)=rg(f)+dim(ker(f))=dim(Im(f))+dim(ker(f)). ? ( E ) = rg ( f ) + dim ? ? ? ( Im ( f ) ) + dim ? ?
  • Comment déterminer le rang de F ?

    Le théorème du rang donne une relation entre la dimension du noyau et la dimension de l'image de f. Dans la pratique, cette formule sert à déterminer la dimension du noyau connaissant le rang, ou bien le rang connaissant la dimension du noyau. Maintenant, par le théorème du rang, dim Kerf = dimR4 ? rg f = 4 ? 2=2.
  • Comment déterminer le rang ?

    Le rang d'une matrice est égal au nombre de ses lignes sauf si l'une d'entre elles est combinaison linéaire des autres. On dira qu'une matrice est facile si l'une de ses colonnes a tous ses nombres nuls sauf exactement un.
  • Le rang d'une famille vaut 0 si et seulement si tous les vecteurs sont nuls. Le rang d'une famille {v1,, vp} vaut p si et seulement si la famille {v1,, vp} est libre. Exemple 1.

Christophe Bertault — Mathématiques en MPSI

REPRÉSENTATION MATRICIELLE

DES APPLICATIONS LINÉAIRES

Dans tout ce chapitre,?est l"un des corps?ou?et les lettresn,p,q... désignent des entiers naturels non nuls. Tous

les résultats présentés demeurent cela dit vrais sur un corps?quelconque.

1 MATRICE D"UNE APPLICATION LINÉAIRE DANS DES BASES

Définition(Matrice d"une application linéaire dans des bases finies)

Coordonnées deu(ej)dans?

écrites en colonne

Mat?,?(u) =Mat?u(?)=((((((a

11···a1j···a1p

a i1···aij···aip a n1···anj···anp)))))) u(e1)u(ej)u(ep) f1 fi fn

SoientEetFdeux?-espaces vectoriels de di-

mensions respectivespetn,?= (e1,...,ep)une base deE,?= (f1,...,fn)une base deFet u? ?(E,F). On appellematrice de u dans?et ?et on note Mat?,?(u)la matrice de la famille u(?) = u(e1),...,u(ep) dans la base?.

SiE=Fet?=?, la matrice Mat?,?(u)est sim-

plement notée Mat ?(u).

On connaît tout d"une application linéaire quand on connaîtl"image d"une base, donc quand on connaît sa matrice dans

deux bases données. Un exercice peut ainsi commencer ainsi :" On notefl"endomorphisme de?2[X]de matrice"

1 0 2 3 1 4

0 4 5"

dans la base canonique. » Il faut alors comprendre que :f(1) =3X+1,f(X) =4X2+XetfX2=5X2+4X+2. ExemplePour tout?-espace vectorielEde dimension finienet pour toute base?deE: Mat?IdE=In. ExempleEn notantTl"endomorphismeP?-→XP?+P(1)de?2[X]: Mat(1,X,X2)(T) =" 1 1 1 0 1 0

0 0 2"

car :T(1) =1,

T(X) =X+1 etTX2=2X2+1.

Théorème(Matrice dans les bases canoniques de l"application linéaire canoniquement associée à une matrice)

SoitA? ?n,p(?). Si on note?Al"application linéaire canoniquement associée àAet?pet?nles bases canoniques

respectives de?pet?n, alorsA=Mat?p,?n?A. DémonstrationRéfléchissez, il suffit d"appliquer scrupuleusement la définition. ExempleOn note?l"application linéaire canoniquement associée à la matrice" 1 0 1 1 -1 1"

2la famille

(0,1),(1,0) et??

3la famille

(1,1,1),(1,1,0),(1,0,0) . Ces familles?? 2et??

3sont alors respectivement des bases de?2et?3, et :

Mat 2,??

3(?) ="

1-1 0 2 -1 0" . En résumé, si on change les bases, on change la matrice!

Démonstration

•La famille??

2est une base de?2car sa matrice 0 11 0

dans la base canonique est inversible — d"inverse elle-même. Même idée pour??

3, sa matrice"

1 1 1 1 1 0

1 0 0"

dans la base canonique est inversible car triangulaire à coefficients diagonaux non nuls après échange de ses première et troisième colonne.

•Ensuite :?(0,1) ="

1 0 1 1 -1 1" 01 = (0,1,1) = (1,1,1)-(1,0,0). De même :?(1,0) = (1,1,-1) =-(1,1,1)+2(1,1,0). Les coordonnées de?(0,1)dans??

3sont donc

(1,0,-1)et celles de?(1,0)sont(-1,2,0). C"est le résultat voulu. 1

Christophe Bertault — Mathématiques en MPSI

Théorème(Rang d"une application linéaire, rang d"une matrice associée)SoientEetFdeux?-espaces vectoriels

de dimensions finies non nulles,?une base deE,?une base deFetu? ?(E,F). Alors rg(u) =rg Mat ?,?(u)

Tout rang d"application linéaire peut donc être calculé comme le rang d"une matrice grâce à l"ALGORITHME DU PIVOT.

DémonstrationD"après le théorème analogue pour les familles de vecteurs : rg Mat ?,?(u) =rg Mat ?u(?) =rgu(?)=dimVectu(?)=dimImu=rg(u).

Théorème(Calcul matriciel de l"image d"un vecteur par une application linéaire)SoientEetFdeux?-espaces

vectoriels de dimensions finies non nulles,?une base deE,?une base deF,u? ?(E,F)etx?E. Alors : Mat ?u(x)=Mat?,?(u)×Mat?(x).

En d"autres termes, l"ÉVALUATIONpar une application linéaire se traduit matriciellement entermes dePRODUIT.

DémonstrationIntroduisons les vecteurs de?et?:?= (e1,...,ep)et?= (f1,...,fn), ainsi que les coordonnées dexdans?:X=Mat?(x)et la matrice deudans les bases?et?:U=Mat?,?(u). u(x) =u" p? j=1x jej" =p j=1x ju(ej) =p j=1x jn i=1u ijfi=n i=1" p? j=1u ijxj" f i, donc les coordonnées deu(x)dans?sont" p? j=1u

1jxj,...,p

j=1u njxj" , i.e. le produit Mat ?,?(u)×Mat?(x).

ExempleOn notefl"endomorphisme de?2[X]de matrice"

3 3 6 0 1 2

0 2 4"

dans la base canonique.

Alors : Imf=Vect1,2X2+Xet Kerf=VectX2-2X.

DémonstrationPour commencer :

Imf=Vect

f(1),f(X),fX2 Ensuite, pour toutP=aX2+bX+c??2[X]:P?Kerf??f(P) =0??" 3 3 6 0 1 2

0 2 4""

c b a" 0 0 0" ?3c+3b+6a=0 b+2a=0

2b+4a=0L

1←L1-3L2??c=0 etb=-2a??P=aX2-2aX.

Conclusion : Kerf=VectX2-2X.

?Attention !Deux remarques sur cet exemple. •Les coordonnées deaX2+bX+cdans la base canonique de?2[X]sont(c,b,a)ET NON PAS(a,b,c).

•On raisonne matriciellement sur un squelette numérique, mais il ne faut pas oublier à la fin de l"exemple précédent

de réincarner le résultat dans le monde vectoriel?3[X]. La réponse KerR=Vect (0,-2,1) n"est pas correcte.

Théorème(Un dictionnaire entre les points de vue vectoriel et matriciel sur les applications linéaires)

(i) SoientEetFdeux?-espaces vectoriels de dimensions finies respectivespetn,?une base deEet?une base deF. L"applicationu?-→Mat?,?(u)est un isomorphisme de?(E,F)sur?n,p(?). (ii) SoientE,F,Gtrois?-espaces vectoriels de dimensions finies non nulles de basesrespectives?,?,?et u? ?(E,F)etv? ?(F,G). Alors : Mat?,?(v◦u) =Mat?,?(v)×Mat?,?(u). En particulier, l"applicationu?-→Mat?(u)est un isomorphisme d"anneaux de?(E)sur?n(?)si on pose n=dimE.

(iii) SoientEetFdeux?-espaces vectoriels deMÊMES DIMENSIONSfinies non nulles,?une base deE,?une base

deFetu? ?(E,F). Alorsuest un isomorphisme deEsurFsi et seulement si Mat?,?(u)est inversible.

Dans ce cas : Mat

?,?u-1= Mat ?,?(u) -1. En résumé, l"assertion (i) exprime deux choses :

— une propriété de linéarité : Mat

?,?(λu+μv) =λMat?,?(u)+μMat?,?(v)avec des notations évidentes,

— unepropriétédebijectivitédéjàmentionnéeinformellement —onconnaîtentièrementfquand onconnaîtMat?,?(u).

2

Christophe Bertault — Mathématiques en MPSI

Elle relie aussi en passant deux résultats bien connus : dim?n,p(?) =npet dim?(E,F) =dimE×dimF.

L"assertion (ii) montre que lePRODUITest aux matrices ce que laCOMPOSITIONest aux applications linéaires. Nous

connaissions déjà ce résultat dans le cas particulier des applications linéaires canoniquement associées à des matrices.

DémonstrationJe vous laisse démontrer seuls l"assertion (i). (ii) Introduisons les vecteurs de?:?= (e1,...,en). Pour toutj??1,n?:

Mat?(ej) =(((((0

1...

0)))))

positionj

Mat?,?(v◦u)×Mat?(ej) =Mat?v◦u(ej)=Mat?,?(v)×Mat?u(ej)=Mat?,?(v)×Mat?,?(u)×Mat?(ej),

mais n"oublions pas que Mat ?(ej)est lejèmevecteur de la base canonique de?n. Nous venons donc de montrer que Mat ?,?(v◦u)et Mat?,?(v)×Mat?,?(u)ont les mêmesjèmescolonnes, et ce pour tout j??1,n?. Comme voulu : Mat?,?(v◦u) =Mat?,?(v)×Mat?,?(u). (iii) Siuest bijective et si on posen=dimF: Mat?,?(u)×Mat?,?u-1=Mat?IdF=In, donc Mat ?,?(u)est inversible d"inverse Mat?,?u-1. Réciproquement, siA=Mat?,?(u)est inversible, notonsvl"unique application linéaire deFdansEpour laquelle Mat ?,?(v) =A-1. Aussitôt : Mat?(v◦u) =Mat?,?(v)×Mat?,?(u) =A-1A=Inet de même Mat ?(u◦v) =In, doncv◦u=IdEetu◦v=IdF, autrement dituest bijective deEsurF. ExempleL"endomorphismeωde?3[X]dont la matrice dans la base canonique de?3[X]estΩ=((

0 0 1-1

-1 1 1-1

0 2 1-2

-1 2 1-2)) est la symétrie par rapport à VectX3+X2+X,X2+1parallèlement à VectX3+X+1,X3+X2.

Démonstration

•Par définition,ωest linéaire. Montrer que c"est une symétrie revient donc à montrer queω2=Id?3[X], ou

encore matriciellement queΩ2=I4— ce qui est très facile à vérifier.

•{Etudions le sous-espace vectoriel Kerω-Id?3[X]de?3[X]par rapport auquelωest une symétrie. Pour

toutP=aX3+bX2+cX+d??3[X]:P?Kerω-Id?3[X]??ω(P) =P d c b a)) d c b a)) ???????b-a=d -d+c+b-a=c

2c+b-2a=b

-d+2c+b-2a=a ???????-d+b-a=0 -d+b-a=0 c-a=0 -d+2c+b-3a=0??!-d+b-a=0 c-a=0 ?? ?λ,μ??,?????a=λ b=λ+μ c=λ d=μ.Ainsi Kerω-Id?3[X]=VectX3+X2+X,X2+1. •On montre de la même manière que Kerω+Id?3[X]=VectX3+X+1,X3+X2.

Définition-théorème(Condition nécessaire et suffisante d"inversibilité d"unematrice de Vandermonde)Soient

x

1,...,xn??.

On appellematrice de Vandermonde de x1,...,xnla matrice carrée xj-1 i

1?i,j?n=((((1x1x2

1···xn-1

1 1x2x2

2···xn-1

2............

1xnx2n···xn-1n))))

qui est inversible si et seulement si les scalairesx1,...,xnsont distincts.

Démonstration

•Si deux des scalairesx1,...,xnsont égaux, leur matrice de Vandermonde possède deux ligneségales, donc

n"est pas inversible.

•Réciproquement, supposonsx1,...,xndistincts et notons?l"application linéaireP?-→P(x1),...,P(xn)

de?n-1[X]dans?n. Cette application est injective car pour toutP?Ker?:P(x1) =...=P(xn) =0,

donc le polynômePpossèdenracines distinctes alors qu"il est de degré au plusn-1 — ainsiP=0. Comme

dim?n-1[X] =n=dim?n, cette injectivité fait de?un isomorphisme de?n-1[X]sur?n. En particulier, la matrice de?dans la base canonique de?n-1[X]au départ et la base canonique de

nà l"arrivée est inversible d"après le théorème précédent, or cette matrice est exactement la matrice de

Vandermonde dex1,...,xn.

3

Christophe Bertault — Mathématiques en MPSI

Quelques mots à présent sur l"interprétation géométrique des blocs qu"on lit sur la une matrice d"application linéaire.

SoientEun?-espace vectoriel,FetGdeux sous-espaces vectoriels supplémentaires deEde dimensions respectivespetq

et?= (e1,...,ep+q)une base deEadaptée à la décompositionE=F?G. Pour rappel, cela signifie que(e1,...,ep)est une

base deFet(ep+1,...,ep+q)une base deG. Soitu? ?(E). La matrice deudans?s"écrit Mat?(u) =!A C B D! pour certainesA? ?p(?),B? ?q,p(?),C? ?p,q(?)

etD? ?q(?). Nous allons tâcher de comprendre sur deux situations importantes de quelle manières les blocsA,B,CetD

peuvent être interprétés géométriquement. •À quelleconditiona-t-onB=0?Toutsimplement :B=0?? ?j??1,p?,u(ej)?Vect(e1,...,ep) ?? ?x?F,u(x)?F??Fest stable paru.

Dans ces conditions,u

Fest un endomorphisme deFetA=Mat(e1,...,ep)uF.

•À quelle condition a-t-onB=C=0?Comme au point précédent,B=C=0 si et seulement siFetGsont

tous les deux stables paru. Dans ces conditions,u FetuGsont des endomorphismes deFetGrespectivement et

A=Mat(e1,...,ep)u

FetD=Mat(ep+1,...,ep+q)uG.

ExempleSoientEun?-espace vectoriel,FetGdeux sous-espaces vectoriels supplémentaires deEde dimensions respec-

tivesqetret?une base deEadaptée à la décompositionE=F?G. Notonspla projection surFparallèlement àGets

la symétrie par rapport àFparallèlement àG. Alors Mat?(p) =!Iq 0 r! et Mat ?(s) =!Iq -Ir! DémonstrationIntroduisons les vecteurs de?:?= (e1,...,eq+r). Par définition des projections et des symétries :p(ei) =s(ei) =eipour touti??1,q?et :p(ej) =0Eets(ej) =-ejpour tout j??q+1,q+r?. Le résultat en découle.

L"exemple qui suit est emblématique de nombreux exercices.En dimension finie, on peut calculer la matrice d"un endo-

morphisme dans n"importe quelle base, mais n"y a-t-il pas des bases dans lesquelles le résultat est plus simple et plus joli que

dans d"autres? L"étude de cette question est une branche de l"algèbre linéaire que vous étudierez davantage en deuxième

année, appeléeréduction.Réduireun endomorphisme, c"est trouver une base dans laquelle sa matrice est facile à interpréter

géométriquement — par exemple diagonale, triangulaire, pleine de zéros... — etréduireune matrice carrée, c"est réduire

l"endomorphisme qui lui est canoniquement associé.

ExempleSoientEun?-espace vectoriel de dimension 2 etf? ?(E). Sifest nilpotent d"indice 2, alorsfa pour matrice 0 10 0

dans une certaine base deE.

DémonstrationOn chercheune base(e1,e2)deEpour laquellef(e1) =0Eetf(e2) =e1.Si une telle base existe,

on peut aussi l"écriref(e2),e2oùe2est un vecteur deEpour lequelf(e2) =e1?=0E, i.e. n"appartenant pas à

Kerf. Un tel choix de vecteure2est-il cependant possible? Oui, carfétant nilpotent d"indice 2 :f?=0?(E),

donc Kerf?=E. Donnons-nous donc un vecteure2deE\Kerfet posonse1=f(e2). Dans ces conditions, si jamais

(e1,e2)est une base deE: Mat(e1,e2)(f) = 0 10 0 carf(e1) =f2(e2) =0Eetf(e2) =e1par construction.

Pour une raison de dimension, il ne nous reste donc plus qu"à montrer la liberté de la famille(e1,e2). Soient

λ,μ??. On suppose queλe1+μe2=0E. Composons parf:μe1=0E, ore1?=0E, doncμ=0. En retour

λe1=0E, donc de mêmeλ=0.

2 CHANGEMENTS DE BASES,ÉQUIVALENCE ET SIMILITUDE

2.1 CHANGEMENTS DE BASES

Définition-théorème(Matrice de passage d"une base à une autre)SoientEun?-espace vectoriel de dimension

finie non nulle et?,??et???trois bases deE. On appellematrice de passage de?à??la matrice Mat?(??) =Mat??,?IdE, souvent notéeP??

Deux choses à savoir : (i)P??

?est inversible d"inverseP? ?. (ii)P?? ?P??? ?=P???

Démonstration

(i)P?? ?est la matrice d"un isomorphisme :P?? -1= Mat ??,?IdE-1=Mat?,??Id-1 E Id-1

E=IdE=P?

4

Christophe Bertault — Mathématiques en MPSI

(ii)P?? ?P???

Théorème(Changement de base pour un vecteur)SoientEun?-espace vectoriel de dimension finie non nulle et

?et??deux bases deE. On poseP=P?? ?. Pour toutx?Ede coordonnéesXdans?etX?dans??:X=PX?. DémonstrationL"égalitéx=IdE(x)s"écrit matriciellement dans les bases adaptéesX=PX?. ExempleSoitθ??fixé.Notons?=#"ı,#"?labasecanonique de?2etposons:" # "uθ=cosθ#"ı+sinθ#"? #"vθ=-sinθ#"ı+cosθ#"?.On définit ainsi une base?θ=# "uθ,#"vθde?2.

En outre, soit

#"u= (x,y)??2. Les coordonnées de#"udans?sont bien sûrX= x y . Si nous notonsXθ= xθ y les coordonnées de #"udans la base?θ:!x=xθcosθ-yθsinθ y

θ=-xsinθ+ycosθ.

Démonstration

# "uθ#" vθ

D"abord : Mat?(?θ) = cosθ-sinθ

sinθcosθ , et cette matrice est inversible car son déterminant vaut cos

2θ+sin2θ=1?=0. Comme voulu,?θest une base de?2.

Ensuite,sachant queP?θ

?= cosθ-sinθ sinθcosθ :X= cosθ-sinθ sinθcosθ X ?. Pour l"autre formule, simplement calculer l"inverse deP?θ ?:P?

θ=P?θ

-1= cosθsinθ -sinθcosθ

Théorème(Changement de bases pour une application linéaire)SoientEetFdeux?-espaces vectoriels de

dimensions finies non nulles,?et??deux bases deE,?et??deux bases deFetu? ?(E,F).

On pose :P=P??

?,Q=P?? ?,A=Mat?,?(u)etA?=Mat??,??(u). AlorsA?=Q-1AP.

F,??F,?E,?E,??

IdF,Q u,A IdE,P

u,A?Il est important de se donner des mots pour décrire chacune des données de cet énoncé. Tout

simplement,Eest l"espace de départ deu,Fson espace d"arrivée,?et?sont les " anciennes » bases, i.e. les bases avant changement de bases, et??et??les " nouvelles » bases, i.e. les bases après changement. Départ/arrivée/ancien/nouveau! DémonstrationLe diagramme ci-contre peut presque tenir lieu de preuve. L"égalité u◦IdE=IdF◦us"écrit matriciellementAP=QA?, i.e.A?=Q-1AP.

?Attention !Il y aDEUXformules de changement de bases, une pour les vecteurs et unepour les applications linéaires,

merci de ne pas les confondre!

Théorème(Changement de bases et matriceJr)SoientEetFdeux?-espaces vectoriels de dimensions respectives

petnetu? ?(E,F)de rangr. Alors pour une certaine base?deEet une certaine base?deF: Mat?,?(u) =Jr, oùJrest la matrice de taillen×psuivante :Jr=!Ir0 0 0! DémonstrationSoient?= (ei)1?j?pune base deEet?= (fi)1?i?nune base deF. Est-il possible d"imposer

à ces bases que la matrice deuy soitJr?

•Pour quelesp-rdernières colonnes deMat?,?(u)soient nulles,ilfautetilsuffitqueles vecteurser+1,...,ep

soient éléments de Keruet linéairement indépendants. Comme Keruest de dimensionp-rd"après le

théorème du rang, nous n"avons qu"à choisir pour famille(ej)r+1?j?pune base de Keruet la compléter

simplement en une base?deE.

•Pour que lesrpremières colonnes de Mat?,?(u)soient ce qu"on veut, on peut poserfj=u(ej)pour tout

j??1,r?, puis compléter en une base?deF,MAIS CE N"EST POSSIBLE QUE SI LA FAMILLE(fj)1?j?rEST LIBRE. Or la famille(ej)1?j?rengendre par construction un supplémentaireIde KerudansE, doncu Iest un isomorphisme deIsur Imu. La famille(fj)1?j?r=u(ej)

1?j?rest ainsi libre.

Ces deux points garantissent bien l"existence de deux bases?et?pour lesquelles Mat?,?(u) =Jr. 5

Christophe Bertault — Mathématiques en MPSI

2.2 MATRICES ÉQUIVALENTES

Définition-théorème(Matrices équivalentes)

•Définition :SoientA,B? ?n,p(?). On dit queBestéquivalente à As"il existe deux matricesP?GLp(?)et

Q?GLn(?)inversibles pour lesquellesB=Q-1AP.

•Premier exemple fondamental :SiBa été obtenue à partir deAaprès une série d"opérations élémentaires,

alorsBest équivalente àA.

•Deuxième exemple fondamental :SoientEetFdeux?-espaces vectoriels de dimensions finies non nulles,

?et??deux bases deE,?et??deux bases deFetu? ?(E,F). La matrice Mat??,??(u)est équivalente à la matrice Mat ?,?(u).

DémonstrationPour le premier exemple fondamental, se souvenir du fait queles opérations élémentaires

peuvent être vues comme des multiplications par des matrices inversibles. Le deuxième exemple fondamental

n"est qu"une reformulation du théorème de changement de base pour une application linéaire.

Montrer qu"une matriceBest équivalente à une matriceA, c"est les interpréter toutes les deux comme des applications

linéaires et tâcher de passer deAàBen changeant de bases au départETà l"arrivéeINDÉPENDAMMENT. Cette indépendance

du changement de base qu"on effectue au départ et de celui qu"on effectue à l"arrivée fait de l"équivalence un concept souple.

Théorème(Propriétés de la relation d"équivalence)

(i)Relation d"équivalence :La relation d"équivalence sur?n,p(?)est une... relation d"équivalence — mais pas

dans le même sens!

(ii)Caractérisation par le rang :Deux matrices de?n,p(?)sont équivalentes si et seulement si elles ont le même

rang. Cela revient aussi à dire que toute matrice de?n,p(?)de rangrest équivalente àJr.

En résumé, le concept d"équivalence est si souple qu"un seulentier — le rang — suffit à le caractériser.

Démonstration

(i) SoientA,B,C? ?n,p(?). Réflexivité :Aest équivalente àAcarIpetInsont inversibles etA=I-1 nAIp. Symétrie :SiBest équivalente àA, i.e.B=Q-1APpour certaines matricesP?GLp(?)etQ?GLn(?), alorsP-1etQ-1sont inversibles etA=Q-1-1BP-1, doncAest équivalente àB.

Transitivité :SiBest équivalente àAetCéquivalente àB, i.e.B=Q-1APetC=Q?-1BP?pour certaines

matricesP,P??GLp(?)etQ,Q??GLn(?), alorsPP?etQQ?sont inversibles et : C=Q?-1BP?=Q?-1Q-1APP?= (QQ?)-1A(PP?), doncCest équivalente àA.

(ii) SoitA? ?n,p(?)de rangr. Notons?Al"application linéaire canoniquement associée àAet?net?p

les bases canoniques respectives de?net?p. On rappelle que Mat?p,?n?A=A. Or d"après un théorème

précédent : Mat ?,??A=Jrpour certaines bases?de?pet?de?n, donc si on poseP=P? pet Q=P? n:Jr=Q-1APpar changement de base, doncAetJrsont équivalentes.

Le résultat qui suit n"est pas tout à fait à sa place dans ce paragraphe sur les matrices équivalentes, mais il découle de la

caractérisation précédente. Théorème(Invariance du rang par transposition)Pour toutA? ?n,p(?): rgA?=rg(A).

DémonstrationD"après le théorème précédent,Aest équivalente àJrpourr=rg(A), donc par simple trans-

position dans la définition,A?est équivalente àJ? r— attention,Jrest de taillen×ptandis queJ? rest de taille p×n. Conclusion : rgA?=rgJ? r=r=rg(Jr) =rg(A).

La définition et les résultats qui suivent n"ont rien à voir avec les matrices équivalentes, mais ils requièrent l"invariance

du rang par transposition, donc nous ne pouvions pas les énoncer jusqu"ici. 6

Christophe Bertault — Mathématiques en MPSI

Définition-théorème(Matrices extraites)SoientA? ?n,p(?). (i)Définition :On appellematrice extraite de Atoute matrice de la forme(( a i1j1···ai1jp? a in?j1···ain?jp?)) oùi1,...,in?,j1,...,jp? satisfont les inégalités 1?i1<...(iii)Caractérisation du rang par les matrices carrées extraites:Le rang deAest la taille maximale des matrices

inversibles qu"on peut extraire deA.

Démonstration

(ii) La matriceBest obtenue à partir deApar supression d"un certain nombre de lignes et de colonnes.Notons

B ?la matrice intermédiaire obtenue quand on supprime seulement les colonnes. On passe deAàB?par

une suppression de colonnes, puis deB?àBpar une suppression de lignes. Le rang d"une matrice étant par

définition le rang de la famille de ses colonnes : rg(A)?rg(B?) =rgB???rgB?=rg(B). (iii) Il nous suffit d"établir l"équivalence suivante — avecr???: rg(A)?r??On peut extraire deAune matrice inversible de tailler. •Si on peut extraire deAune matrice inversible de tailler, alors d"après (ii) : rg(A)?r.

•Réciproquement, supposons rg(A)?r. On peut donc extraire de la famille des colonnes deAune famille

libre dervecteurs. Matriciellement, nous pouvons donc extraire deAune matriceB? ?n,r(?)de rang rpar suppression de certaines colonnes. En raisonnant de même, nous pouvons extraire deB?une matriceC? ?r(?)de rangrpar suppression de certaines colonnes — i.e. par suppression de certaines lignes deB. La matriceC?est finalement une matrice extraite deAinversible de tailler.

ExempleLa matrice 4 105 11

est extraite de"

1 4 7 10

2 5 8 11

quotesdbs_dbs35.pdfusesText_40
[PDF] matrice et application linéaire

[PDF] rang d'une famille de vecteurs exemple

[PDF] rang d'une matrice determinant

[PDF] rang d'une matrice definition

[PDF] cours moment d'une force

[PDF] exercice physique moment d'une force

[PDF] exercice moment d'une force bac pro

[PDF] calcul moment force

[PDF] exercices sur le moment d'une force pdf

[PDF] exercice corrigé bras de levier

[PDF] exercices moment d'une force cap

[PDF] initiation volley ball+exercices

[PDF] rang d'une matrice 2x2

[PDF] moment de force formule

[PDF] fiche de situation familiale crous rattachement fiscal comment remplir