Matrice et application linéaire
Voici un exemple d'une matrice échelonnée par colonnes ; les ? désignent des Le théorème du rang donne une relation entre la dimension du noyau et la ...
1. Rang dune application linéaire
Le théorème ne fait aucune hypothèse sur la dimension de l'espace vectoriel d'arrivée F. Exemple 1. Il existe une unique application linéaire f : Rn ? R[X]
120: Dimension dun espace vectoriel. Rang. Exemples et applications
4 mar. 2010 peut appliquer le théorème énoncé précédemment sur le rang d'une famille de vecteurs (pivot de. Gauss). Exemple 3.
APPLICATIONS LINÉAIRES
2.2 LE THÉORÈME DU RANG. Le noyau et l'image d'une application linéaire sont fortement liés on s'en rend déjà bien compte sur l'exemple simple.
Dimension des espaces vectoriels
20 avr. 2013 comprendre et utiliser efficacement le théorème du rang. ... exemple quitte à réordonner les vecteurs de la deuxième famille
Applications linéaires
Que donne le théorème du rang? Indication ?. Correction ?. Vidéo ?. [000934]. Exercice 4. Soit E un espace vectoriel de dimension n et f une application
Applications linéaires matrices
http://licence-math.univ-lyon1.fr/lib/exe/fetch.php?media=exomaths:exercices_corriges_application_lineaire_et_determinants.pdf
REPRÉSENTATION MATRICIELLE DES APPLICATIONS LINÉAIRES
Exemple Pour tout -espace vectoriel E de dimension finie n et pour toute base Théorème (Rang d'une application linéaire rang d'une matrice associée) ...
Séance de soutien PCSI2 numéro 10 : Espaces vectoriels et
Le théorème du rang nous donne alors que la dimension de ce noyau vaudra attention lorsque t = 0 le système a des solutions non triviales (par exemple.
Leçon 151 : Dimension dun espace vectoriel (on se limitera au cas
cas de la dimension finie). Rang. Exemples et applications. Développements : Invariants de similitude (Réduction de Frobenius) Théorème des extrema.
[PDF] Théorème du rang
Théorème du rang Définition 1 Soit ? : V ? W une application linéraire On appelle « image » de ? le sous-espace vectoriel de W : im ? = {?( v) v ? V }
[PDF] 1 Rang dune application linéaire
Le théorème ne fait aucune hypothèse sur la dimension de l'espace vectoriel d'arrivée F Exemple 1 Il existe une unique application linéaire f : Rn ? R[X]
[PDF] Matrice et application linéaire - Exo7 - Cours de mathématiques
Maintenant par le théorème du rang dim Ker f = dim4 ? rg f = 4 ? 2 = 2 On trouve bien sûr le même résultat par les deux méthodes Exemple 9
[PDF] Rangpdf
Théorème 2 Deux matrices sont équivalentes si et seulement si elles ont même rang On rappelle que deux matrices A et B sont équivalentes peut s'écrire B = P-
[PDF] Le rang
On a ici le théorème du rang : Attention c'est bien la dimension de l'espace de départ Exemples d'exercice : Soient E et F deux espaces vectoriels sur K
[PDF] Théorie du rang Systèmes linéaires
Théorème 2 6 [Fondamental!] Dans un espace vectoriel de dimension n ? 1 sur un corps K les trois propriétés suivantes sont équivalentes concernant n vecteurs
[PDF] Rang des matrices
Par définition le rang d'une matrice est celui du syst`eme homog`ene associé Exemple La matrice suivante a pour rang 3 (le syst`eme correspondant est
[PDF] Applications linéaires et changements de bases en dimension finie
Avec la notion de rang d'une application linéaire : rang(f) = déf dim(Im(f)) ce théorème est aussi énoncé sous l'appellation Théorème du rang : Si E est
[PDF] Dimension des espaces vectoriels - Normale Sup
20 avr 2013 · Le théorème du rang n'affirme absolument pas que le noyau et l'image de f sont supplémentaires c'est faux en général (voir l'exemple suivant la
Comment utiliser le théorème du rang ?
Le théorème le plus classique concernant le rang est le : Théorème du rang : Si E et F sont deux espaces vectoriels de dimension finie, si f:E?F f : E ? F est une application linéaire, alors : dim(E)=rg(f)+dim(ker(f))=dim(Im(f))+dim(ker(f)). ? ( E ) = rg ( f ) + dim ? ? ? ( Im ( f ) ) + dim ? ?Comment déterminer le rang de F ?
Le théorème du rang donne une relation entre la dimension du noyau et la dimension de l'image de f. Dans la pratique, cette formule sert à déterminer la dimension du noyau connaissant le rang, ou bien le rang connaissant la dimension du noyau. Maintenant, par le théorème du rang, dim Kerf = dimR4 ? rg f = 4 ? 2=2.Comment déterminer le rang ?
Le rang d'une matrice est égal au nombre de ses lignes sauf si l'une d'entre elles est combinaison linéaire des autres. On dira qu'une matrice est facile si l'une de ses colonnes a tous ses nombres nuls sauf exactement un.- Le rang d'une famille vaut 0 si et seulement si tous les vecteurs sont nuls. Le rang d'une famille {v1,, vp} vaut p si et seulement si la famille {v1,, vp} est libre. Exemple 1.
Christophe Bertault Mathématiques en MPSI
REPRÉSENTATION MATRICIELLE
DES APPLICATIONS LINÉAIRES
Dans tout ce chapitre,?est l"un des corps?ou?et les lettresn,p,q... désignent des entiers naturels non nuls. Tous
les résultats présentés demeurent cela dit vrais sur un corps?quelconque.1 MATRICE D"UNE APPLICATION LINÉAIRE DANS DES BASES
Définition(Matrice d"une application linéaire dans des bases finies)Coordonnées deu(ej)dans?
écrites en colonne
Mat?,?(u) =Mat?u(?)=((((((a
11···a1j···a1p
a i1···aij···aip a n1···anj···anp)))))) u(e1)u(ej)u(ep) f1 fi fnSoientEetFdeux?-espaces vectoriels de di-
mensions respectivespetn,?= (e1,...,ep)une base deE,?= (f1,...,fn)une base deFet u? ?(E,F). On appellematrice de u dans?et ?et on note Mat?,?(u)la matrice de la famille u(?) = u(e1),...,u(ep) dans la base?.SiE=Fet?=?, la matrice Mat?,?(u)est sim-
plement notée Mat ?(u).On connaît tout d"une application linéaire quand on connaîtl"image d"une base, donc quand on connaît sa matrice dans
deux bases données. Un exercice peut ainsi commencer ainsi :" On notefl"endomorphisme de?2[X]de matrice"
1 0 2 3 1 40 4 5"
dans la base canonique. » Il faut alors comprendre que :f(1) =3X+1,f(X) =4X2+XetfX2=5X2+4X+2. ExemplePour tout?-espace vectorielEde dimension finienet pour toute base?deE: Mat?IdE=In. ExempleEn notantTl"endomorphismeP?-→XP?+P(1)de?2[X]: Mat(1,X,X2)(T) =" 1 1 1 0 1 00 0 2"
car :T(1) =1,T(X) =X+1 etTX2=2X2+1.
Théorème(Matrice dans les bases canoniques de l"application linéaire canoniquement associée à une matrice)
SoitA? ?n,p(?). Si on note?Al"application linéaire canoniquement associée àAet?pet?nles bases canoniques
respectives de?pet?n, alorsA=Mat?p,?n?A. DémonstrationRéfléchissez, il suffit d"appliquer scrupuleusement la définition. ExempleOn note?l"application linéaire canoniquement associée à la matrice" 1 0 1 1 -1 1"2la famille
(0,1),(1,0) et??3la famille
(1,1,1),(1,1,0),(1,0,0) . Ces familles?? 2et??3sont alors respectivement des bases de?2et?3, et :
Mat 2,??3(?) ="
1-1 0 2 -1 0" . En résumé, si on change les bases, on change la matrice!Démonstration
La famille??
2est une base de?2car sa matrice 0 11 0
dans la base canonique est inversible d"inverse elle-même. Même idée pour??3, sa matrice"
1 1 1 1 1 01 0 0"
dans la base canonique est inversible car triangulaire à coefficients diagonaux non nuls après échange de ses première et troisième colonne.Ensuite :?(0,1) ="
1 0 1 1 -1 1" 01 = (0,1,1) = (1,1,1)-(1,0,0). De même :?(1,0) = (1,1,-1) =-(1,1,1)+2(1,1,0). Les coordonnées de?(0,1)dans??3sont donc
(1,0,-1)et celles de?(1,0)sont(-1,2,0). C"est le résultat voulu. 1Christophe Bertault Mathématiques en MPSI
Théorème(Rang d"une application linéaire, rang d"une matrice associée)SoientEetFdeux?-espaces vectoriels
de dimensions finies non nulles,?une base deE,?une base deFetu? ?(E,F). Alors rg(u) =rg Mat ?,?(u)Tout rang d"application linéaire peut donc être calculé comme le rang d"une matrice grâce à l"ALGORITHME DU PIVOT.
DémonstrationD"après le théorème analogue pour les familles de vecteurs : rg Mat ?,?(u) =rg Mat ?u(?) =rgu(?)=dimVectu(?)=dimImu=rg(u).Théorème(Calcul matriciel de l"image d"un vecteur par une application linéaire)SoientEetFdeux?-espaces
vectoriels de dimensions finies non nulles,?une base deE,?une base deF,u? ?(E,F)etx?E. Alors : Mat ?u(x)=Mat?,?(u)×Mat?(x).En d"autres termes, l"ÉVALUATIONpar une application linéaire se traduit matriciellement entermes dePRODUIT.
DémonstrationIntroduisons les vecteurs de?et?:?= (e1,...,ep)et?= (f1,...,fn), ainsi que les coordonnées dexdans?:X=Mat?(x)et la matrice deudans les bases?et?:U=Mat?,?(u). u(x) =u" p? j=1x jej" =p j=1x ju(ej) =p j=1x jn i=1u ijfi=n i=1" p? j=1u ijxj" f i, donc les coordonnées deu(x)dans?sont" p? j=1u1jxj,...,p
j=1u njxj" , i.e. le produit Mat ?,?(u)×Mat?(x).ExempleOn notefl"endomorphisme de?2[X]de matrice"
3 3 6 0 1 20 2 4"
dans la base canonique.Alors : Imf=Vect1,2X2+Xet Kerf=VectX2-2X.
DémonstrationPour commencer :
Imf=Vect
f(1),f(X),fX2 Ensuite, pour toutP=aX2+bX+c??2[X]:P?Kerf??f(P) =0??" 3 3 6 0 1 20 2 4""
c b a" 0 0 0" ?3c+3b+6a=0 b+2a=02b+4a=0L
1←L1-3L2??c=0 etb=-2a??P=aX2-2aX.
Conclusion : Kerf=VectX2-2X.
?Attention !Deux remarques sur cet exemple. Les coordonnées deaX2+bX+cdans la base canonique de?2[X]sont(c,b,a)ET NON PAS(a,b,c).On raisonne matriciellement sur un squelette numérique, mais il ne faut pas oublier à la fin de l"exemple précédent
de réincarner le résultat dans le monde vectoriel?3[X]. La réponse KerR=Vect (0,-2,1) n"est pas correcte.Théorème(Un dictionnaire entre les points de vue vectoriel et matriciel sur les applications linéaires)
(i) SoientEetFdeux?-espaces vectoriels de dimensions finies respectivespetn,?une base deEet?une base deF. L"applicationu?-→Mat?,?(u)est un isomorphisme de?(E,F)sur?n,p(?). (ii) SoientE,F,Gtrois?-espaces vectoriels de dimensions finies non nulles de basesrespectives?,?,?et u? ?(E,F)etv? ?(F,G). Alors : Mat?,?(v◦u) =Mat?,?(v)×Mat?,?(u). En particulier, l"applicationu?-→Mat?(u)est un isomorphisme d"anneaux de?(E)sur?n(?)si on pose n=dimE.(iii) SoientEetFdeux?-espaces vectoriels deMÊMES DIMENSIONSfinies non nulles,?une base deE,?une base
deFetu? ?(E,F). Alorsuest un isomorphisme deEsurFsi et seulement si Mat?,?(u)est inversible.Dans ce cas : Mat
?,?u-1= Mat ?,?(u) -1. En résumé, l"assertion (i) exprime deux choses : une propriété de linéarité : Mat
?,?(λu+μv) =λMat?,?(u)+μMat?,?(v)avec des notations évidentes, unepropriétédebijectivitédéjàmentionnéeinformellement onconnaîtentièrementfquand onconnaîtMat?,?(u).
2Christophe Bertault Mathématiques en MPSI
Elle relie aussi en passant deux résultats bien connus : dim?n,p(?) =npet dim?(E,F) =dimE×dimF.
L"assertion (ii) montre que lePRODUITest aux matrices ce que laCOMPOSITIONest aux applications linéaires. Nous
connaissions déjà ce résultat dans le cas particulier des applications linéaires canoniquement associées à des matrices.
DémonstrationJe vous laisse démontrer seuls l"assertion (i). (ii) Introduisons les vecteurs de?:?= (e1,...,en). Pour toutj??1,n?:Mat?(ej) =(((((0
1...0)))))
positionjMat?,?(v◦u)×Mat?(ej) =Mat?v◦u(ej)=Mat?,?(v)×Mat?u(ej)=Mat?,?(v)×Mat?,?(u)×Mat?(ej),
mais n"oublions pas que Mat ?(ej)est lejèmevecteur de la base canonique de?n. Nous venons donc de montrer que Mat ?,?(v◦u)et Mat?,?(v)×Mat?,?(u)ont les mêmesjèmescolonnes, et ce pour tout j??1,n?. Comme voulu : Mat?,?(v◦u) =Mat?,?(v)×Mat?,?(u). (iii) Siuest bijective et si on posen=dimF: Mat?,?(u)×Mat?,?u-1=Mat?IdF=In, donc Mat ?,?(u)est inversible d"inverse Mat?,?u-1. Réciproquement, siA=Mat?,?(u)est inversible, notonsvl"unique application linéaire deFdansEpour laquelle Mat ?,?(v) =A-1. Aussitôt : Mat?(v◦u) =Mat?,?(v)×Mat?,?(u) =A-1A=Inet de même Mat ?(u◦v) =In, doncv◦u=IdEetu◦v=IdF, autrement dituest bijective deEsurF. ExempleL"endomorphismeωde?3[X]dont la matrice dans la base canonique de?3[X]estΩ=((0 0 1-1
-1 1 1-10 2 1-2
-1 2 1-2)) est la symétrie par rapport à VectX3+X2+X,X2+1parallèlement à VectX3+X+1,X3+X2.Démonstration
Par définition,ωest linéaire. Montrer que c"est une symétrie revient donc à montrer queω2=Id?3[X], ou
encore matriciellement queΩ2=I4 ce qui est très facile à vérifier.{Etudions le sous-espace vectoriel Kerω-Id?3[X]de?3[X]par rapport auquelωest une symétrie. Pour
toutP=aX3+bX2+cX+d??3[X]:P?Kerω-Id?3[X]??ω(P) =P d c b a)) d c b a)) ???????b-a=d -d+c+b-a=c2c+b-2a=b
-d+2c+b-2a=a ???????-d+b-a=0 -d+b-a=0 c-a=0 -d+2c+b-3a=0??!-d+b-a=0 c-a=0 ?? ?λ,μ??,?????a=λ b=λ+μ c=λ d=μ.Ainsi Kerω-Id?3[X]=VectX3+X2+X,X2+1. On montre de la même manière que Kerω+Id?3[X]=VectX3+X+1,X3+X2.Définition-théorème(Condition nécessaire et suffisante d"inversibilité d"unematrice de Vandermonde)Soient
x1,...,xn??.
On appellematrice de Vandermonde de x1,...,xnla matrice carrée xj-1 i1?i,j?n=((((1x1x2
1···xn-1
1 1x2x22···xn-1
2............
1xnx2n···xn-1n))))
qui est inversible si et seulement si les scalairesx1,...,xnsont distincts.Démonstration
Si deux des scalairesx1,...,xnsont égaux, leur matrice de Vandermonde possède deux ligneségales, donc
n"est pas inversible.Réciproquement, supposonsx1,...,xndistincts et notons?l"application linéaireP?-→P(x1),...,P(xn)
de?n-1[X]dans?n. Cette application est injective car pour toutP?Ker?:P(x1) =...=P(xn) =0,donc le polynômePpossèdenracines distinctes alors qu"il est de degré au plusn-1 ainsiP=0. Comme
dim?n-1[X] =n=dim?n, cette injectivité fait de?un isomorphisme de?n-1[X]sur?n. En particulier, la matrice de?dans la base canonique de?n-1[X]au départ et la base canonique denà l"arrivée est inversible d"après le théorème précédent, or cette matrice est exactement la matrice de
Vandermonde dex1,...,xn.
3Christophe Bertault Mathématiques en MPSI
Quelques mots à présent sur l"interprétation géométrique des blocs qu"on lit sur la une matrice d"application linéaire.
SoientEun?-espace vectoriel,FetGdeux sous-espaces vectoriels supplémentaires deEde dimensions respectivespetq
et?= (e1,...,ep+q)une base deEadaptée à la décompositionE=F?G. Pour rappel, cela signifie que(e1,...,ep)est une
base deFet(ep+1,...,ep+q)une base deG. Soitu? ?(E). La matrice deudans?s"écrit Mat?(u) =!A C B D! pour certainesA? ?p(?),B? ?q,p(?),C? ?p,q(?)etD? ?q(?). Nous allons tâcher de comprendre sur deux situations importantes de quelle manières les blocsA,B,CetD
peuvent être interprétés géométriquement. À quelleconditiona-t-onB=0?Toutsimplement :B=0?? ?j??1,p?,u(ej)?Vect(e1,...,ep) ?? ?x?F,u(x)?F??Fest stable paru.Dans ces conditions,u
Fest un endomorphisme deFetA=Mat(e1,...,ep)uF.
À quelle condition a-t-onB=C=0?Comme au point précédent,B=C=0 si et seulement siFetGsont
tous les deux stables paru. Dans ces conditions,u FetuGsont des endomorphismes deFetGrespectivement etA=Mat(e1,...,ep)u
FetD=Mat(ep+1,...,ep+q)uG.
ExempleSoientEun?-espace vectoriel,FetGdeux sous-espaces vectoriels supplémentaires deEde dimensions respec-
tivesqetret?une base deEadaptée à la décompositionE=F?G. Notonspla projection surFparallèlement àGets
la symétrie par rapport àFparallèlement àG. Alors Mat?(p) =!Iq 0 r! et Mat ?(s) =!Iq -Ir! DémonstrationIntroduisons les vecteurs de?:?= (e1,...,eq+r). Par définition des projections et des symétries :p(ei) =s(ei) =eipour touti??1,q?et :p(ej) =0Eets(ej) =-ejpour tout j??q+1,q+r?. Le résultat en découle.L"exemple qui suit est emblématique de nombreux exercices.En dimension finie, on peut calculer la matrice d"un endo-
morphisme dans n"importe quelle base, mais n"y a-t-il pas des bases dans lesquelles le résultat est plus simple et plus joli que
dans d"autres? L"étude de cette question est une branche de l"algèbre linéaire que vous étudierez davantage en deuxième
année, appeléeréduction.Réduireun endomorphisme, c"est trouver une base dans laquelle sa matrice est facile à interpréter
géométriquement par exemple diagonale, triangulaire, pleine de zéros... etréduireune matrice carrée, c"est réduire
l"endomorphisme qui lui est canoniquement associé.ExempleSoientEun?-espace vectoriel de dimension 2 etf? ?(E). Sifest nilpotent d"indice 2, alorsfa pour matrice 0 10 0
dans une certaine base deE.DémonstrationOn chercheune base(e1,e2)deEpour laquellef(e1) =0Eetf(e2) =e1.Si une telle base existe,
on peut aussi l"écriref(e2),e2oùe2est un vecteur deEpour lequelf(e2) =e1?=0E, i.e. n"appartenant pas à
Kerf. Un tel choix de vecteure2est-il cependant possible? Oui, carfétant nilpotent d"indice 2 :f?=0?(E),
donc Kerf?=E. Donnons-nous donc un vecteure2deE\Kerfet posonse1=f(e2). Dans ces conditions, si jamais
(e1,e2)est une base deE: Mat(e1,e2)(f) = 0 10 0 carf(e1) =f2(e2) =0Eetf(e2) =e1par construction.Pour une raison de dimension, il ne nous reste donc plus qu"à montrer la liberté de la famille(e1,e2). Soient
λ,μ??. On suppose queλe1+μe2=0E. Composons parf:μe1=0E, ore1?=0E, doncμ=0. En retour
λe1=0E, donc de mêmeλ=0.
2 CHANGEMENTS DE BASES,ÉQUIVALENCE ET SIMILITUDE
2.1 CHANGEMENTS DE BASES
Définition-théorème(Matrice de passage d"une base à une autre)SoientEun?-espace vectoriel de dimension
finie non nulle et?,??et???trois bases deE. On appellematrice de passage de?à??la matrice Mat?(??) =Mat??,?IdE, souvent notéeP??Deux choses à savoir : (i)P??
?est inversible d"inverseP? ?. (ii)P?? ?P??? ?=P???Démonstration
(i)P?? ?est la matrice d"un isomorphisme :P?? -1= Mat ??,?IdE-1=Mat?,??Id-1 E Id-1E=IdE=P?
4Christophe Bertault Mathématiques en MPSI
(ii)P?? ?P???Théorème(Changement de base pour un vecteur)SoientEun?-espace vectoriel de dimension finie non nulle et
?et??deux bases deE. On poseP=P?? ?. Pour toutx?Ede coordonnéesXdans?etX?dans??:X=PX?. DémonstrationL"égalitéx=IdE(x)s"écrit matriciellement dans les bases adaptéesX=PX?. ExempleSoitθ??fixé.Notons?=#"ı,#"?labasecanonique de?2etposons:" # "uθ=cosθ#"ı+sinθ#"? #"vθ=-sinθ#"ı+cosθ#"?.On définit ainsi une base?θ=# "uθ,#"vθde?2.En outre, soit
#"u= (x,y)??2. Les coordonnées de#"udans?sont bien sûrX= x y . Si nous notonsXθ= xθ y les coordonnées de #"udans la base?θ:!x=xθcosθ-yθsinθ yθ=-xsinθ+ycosθ.
Démonstration
# "uθ#" vθD"abord : Mat?(?θ) = cosθ-sinθ
sinθcosθ , et cette matrice est inversible car son déterminant vaut cos2θ+sin2θ=1?=0. Comme voulu,?θest une base de?2.
Ensuite,sachant queP?θ
?= cosθ-sinθ sinθcosθ :X= cosθ-sinθ sinθcosθ X ?. Pour l"autre formule, simplement calculer l"inverse deP?θ ?:P?θ=P?θ
-1= cosθsinθ -sinθcosθThéorème(Changement de bases pour une application linéaire)SoientEetFdeux?-espaces vectoriels de
dimensions finies non nulles,?et??deux bases deE,?et??deux bases deFetu? ?(E,F).On pose :P=P??
?,Q=P?? ?,A=Mat?,?(u)etA?=Mat??,??(u). AlorsA?=Q-1AP.F,??F,?E,?E,??
IdF,Q u,A IdE,Pu,A?Il est important de se donner des mots pour décrire chacune des données de cet énoncé. Tout
simplement,Eest l"espace de départ deu,Fson espace d"arrivée,?et?sont les " anciennes » bases, i.e. les bases avant changement de bases, et??et??les " nouvelles » bases, i.e. les bases après changement. Départ/arrivée/ancien/nouveau! DémonstrationLe diagramme ci-contre peut presque tenir lieu de preuve. L"égalité u◦IdE=IdF◦us"écrit matriciellementAP=QA?, i.e.A?=Q-1AP.?Attention !Il y aDEUXformules de changement de bases, une pour les vecteurs et unepour les applications linéaires,
merci de ne pas les confondre!Théorème(Changement de bases et matriceJr)SoientEetFdeux?-espaces vectoriels de dimensions respectives
petnetu? ?(E,F)de rangr. Alors pour une certaine base?deEet une certaine base?deF: Mat?,?(u) =Jr, oùJrest la matrice de taillen×psuivante :Jr=!Ir0 0 0! DémonstrationSoient?= (ei)1?j?pune base deEet?= (fi)1?i?nune base deF. Est-il possible d"imposerà ces bases que la matrice deuy soitJr?
Pour quelesp-rdernières colonnes deMat?,?(u)soient nulles,ilfautetilsuffitqueles vecteurser+1,...,ep
soient éléments de Keruet linéairement indépendants. Comme Keruest de dimensionp-rd"après le
théorème du rang, nous n"avons qu"à choisir pour famille(ej)r+1?j?pune base de Keruet la compléter
simplement en une base?deE.Pour que lesrpremières colonnes de Mat?,?(u)soient ce qu"on veut, on peut poserfj=u(ej)pour tout
j??1,r?, puis compléter en une base?deF,MAIS CE N"EST POSSIBLE QUE SI LA FAMILLE(fj)1?j?rEST LIBRE. Or la famille(ej)1?j?rengendre par construction un supplémentaireIde KerudansE, doncu Iest un isomorphisme deIsur Imu. La famille(fj)1?j?r=u(ej)1?j?rest ainsi libre.
Ces deux points garantissent bien l"existence de deux bases?et?pour lesquelles Mat?,?(u) =Jr. 5Christophe Bertault Mathématiques en MPSI
2.2 MATRICES ÉQUIVALENTES
Définition-théorème(Matrices équivalentes)Définition :SoientA,B? ?n,p(?). On dit queBestéquivalente à As"il existe deux matricesP?GLp(?)et
Q?GLn(?)inversibles pour lesquellesB=Q-1AP.
Premier exemple fondamental :SiBa été obtenue à partir deAaprès une série d"opérations élémentaires,
alorsBest équivalente àA.Deuxième exemple fondamental :SoientEetFdeux?-espaces vectoriels de dimensions finies non nulles,
?et??deux bases deE,?et??deux bases deFetu? ?(E,F). La matrice Mat??,??(u)est équivalente à la matrice Mat ?,?(u).DémonstrationPour le premier exemple fondamental, se souvenir du fait queles opérations élémentaires
peuvent être vues comme des multiplications par des matrices inversibles. Le deuxième exemple fondamental
n"est qu"une reformulation du théorème de changement de base pour une application linéaire.Montrer qu"une matriceBest équivalente à une matriceA, c"est les interpréter toutes les deux comme des applications
linéaires et tâcher de passer deAàBen changeant de bases au départETà l"arrivéeINDÉPENDAMMENT. Cette indépendance
du changement de base qu"on effectue au départ et de celui qu"on effectue à l"arrivée fait de l"équivalence un concept souple.
Théorème(Propriétés de la relation d"équivalence)(i)Relation d"équivalence :La relation d"équivalence sur?n,p(?)est une... relation d"équivalence mais pas
dans le même sens!(ii)Caractérisation par le rang :Deux matrices de?n,p(?)sont équivalentes si et seulement si elles ont le même
rang. Cela revient aussi à dire que toute matrice de?n,p(?)de rangrest équivalente àJr.En résumé, le concept d"équivalence est si souple qu"un seulentier le rang suffit à le caractériser.
Démonstration
(i) SoientA,B,C? ?n,p(?). Réflexivité :Aest équivalente àAcarIpetInsont inversibles etA=I-1 nAIp. Symétrie :SiBest équivalente àA, i.e.B=Q-1APpour certaines matricesP?GLp(?)etQ?GLn(?), alorsP-1etQ-1sont inversibles etA=Q-1-1BP-1, doncAest équivalente àB.Transitivité :SiBest équivalente àAetCéquivalente àB, i.e.B=Q-1APetC=Q?-1BP?pour certaines
matricesP,P??GLp(?)etQ,Q??GLn(?), alorsPP?etQQ?sont inversibles et : C=Q?-1BP?=Q?-1Q-1APP?= (QQ?)-1A(PP?), doncCest équivalente àA.(ii) SoitA? ?n,p(?)de rangr. Notons?Al"application linéaire canoniquement associée àAet?net?p
les bases canoniques respectives de?net?p. On rappelle que Mat?p,?n?A=A. Or d"après un théorème
précédent : Mat ?,??A=Jrpour certaines bases?de?pet?de?n, donc si on poseP=P? pet Q=P? n:Jr=Q-1APpar changement de base, doncAetJrsont équivalentes.Le résultat qui suit n"est pas tout à fait à sa place dans ce paragraphe sur les matrices équivalentes, mais il découle de la
caractérisation précédente. Théorème(Invariance du rang par transposition)Pour toutA? ?n,p(?): rgA?=rg(A).DémonstrationD"après le théorème précédent,Aest équivalente àJrpourr=rg(A), donc par simple trans-
position dans la définition,A?est équivalente àJ? r attention,Jrest de taillen×ptandis queJ? rest de taille p×n. Conclusion : rgA?=rgJ? r=r=rg(Jr) =rg(A).La définition et les résultats qui suivent n"ont rien à voir avec les matrices équivalentes, mais ils requièrent l"invariance
du rang par transposition, donc nous ne pouvions pas les énoncer jusqu"ici. 6Christophe Bertault Mathématiques en MPSI
Définition-théorème(Matrices extraites)SoientA? ?n,p(?). (i)Définition :On appellematrice extraite de Atoute matrice de la forme(( a i1j1···ai1jp? a in?j1···ain?jp?)) oùi1,...,in?,j1,...,jp? satisfont les inégalités 1?i1<...Démonstration
(ii) La matriceBest obtenue à partir deApar supression d"un certain nombre de lignes et de colonnes.Notons
B ?la matrice intermédiaire obtenue quand on supprime seulement les colonnes. On passe deAàB?parune suppression de colonnes, puis deB?àBpar une suppression de lignes. Le rang d"une matrice étant par
définition le rang de la famille de ses colonnes : rg(A)?rg(B?) =rgB???rgB?=rg(B). (iii) Il nous suffit d"établir l"équivalence suivante avecr???: rg(A)?r??On peut extraire deAune matrice inversible de tailler. Si on peut extraire deAune matrice inversible de tailler, alors d"après (ii) : rg(A)?r.Réciproquement, supposons rg(A)?r. On peut donc extraire de la famille des colonnes deAune famille
libre dervecteurs. Matriciellement, nous pouvons donc extraire deAune matriceB? ?n,r(?)de rang rpar suppression de certaines colonnes. En raisonnant de même, nous pouvons extraire deB?une matriceC? ?r(?)de rangrpar suppression de certaines colonnes i.e. par suppression de certaines lignes deB. La matriceC?est finalement une matrice extraite deAinversible de tailler.ExempleLa matrice 4 105 11
est extraite de"1 4 7 10
2 5 8 11
quotesdbs_dbs35.pdfusesText_40[PDF] rang d'une famille de vecteurs exemple
[PDF] rang d'une matrice determinant
[PDF] rang d'une matrice definition
[PDF] cours moment d'une force
[PDF] exercice physique moment d'une force
[PDF] exercice moment d'une force bac pro
[PDF] calcul moment force
[PDF] exercices sur le moment d'une force pdf
[PDF] exercice corrigé bras de levier
[PDF] exercices moment d'une force cap
[PDF] initiation volley ball+exercices
[PDF] rang d'une matrice 2x2
[PDF] moment de force formule
[PDF] fiche de situation familiale crous rattachement fiscal comment remplir