[PDF] [PDF] REPRÉSENTATION MATRICIELLE DES APPLICATIONS LINÉAIRES





Previous PDF Next PDF



REPRÉSENTATION MATRICIELLE DES APPLICATIONS LINÉAIRES

Théorème (Matrice dans les bases canoniques de l'application linéaire canoniquement associée à une matrice). Soit A ? np(). Si on note A l'application 



Matrice et application linéaire

Dans cette section tous les espaces vectoriels sont de dimension finie. 3.1. Matrice associée à une application linéaire. Soient E et F deux -espaces 



Matrices dapplications linéaires

17.2.2 Matrice associée à une application linéaire. Définition 5. Matrice d'une application linéaire. Soient E et F deux espaces vectoriels de dimension 



Matrice dune application linéaire

et une base de l'image pour chacune des applications linéaires associées fA et fB. Correction ?. Vidéo ?. [001099]. Exercice 9. Soit E un espace vectoriel 



I Représentation dun application linéaire par une ma- trice

I.1 Application linéaire canoniquement associée à une matrice. On considère la matrice A de M32(K) et l'application linéaire u : K2 ? K3 définies par :.



ALGEBRE LINEAIRE Cours et exercices

22 mai 2014 M est appelée la matrice associée à f dans les bases B et B'. On la note MBB'(f). Remarque : la matrice d'une application linéaire dépend ...



Applications linéaires matrices et réduction

Définition Matrice colonne associée à un vecteur. Soit E un espace vectoriel. On suppose que E est de dimension finie p ? N?. Notons BE = (??e1





Applications linéaires matrices

http://licence-math.univ-lyon1.fr/lib/exe/fetch.php?media=exomaths:exercices_corriges_application_lineaire_et_determinants.pdf



Représentation matricielle des applications linéaires

18 août 2017 applications linéaires. Table des matières. 1 Matrice d'une application linéaire. 2. 1.1 Matrice dans les bases canoniquement associées à A ...



[PDF] Matrice et application linéaire - Exo7 - Cours de mathématiques

Dans cette section tous les espaces vectoriels sont de dimension finie 3 1 Matrice associée à une application linéaire Soient E et F deux -espaces 



[PDF] REPRÉSENTATION MATRICIELLE DES APPLICATIONS LINÉAIRES

Théorème (Rang d'une application linéaire rang d'une matrice associée) Soient E et F deux -espaces vectoriels de dimensions finies non nulles une base de E



[PDF] Applications linéaires matrices déterminants

Applications linéaires matrices déterminants Pascal Lainé 3 Exercice 11 Soit un endomorphisme de ? 3 dont l'image de la base canonique = ( 1 



[PDF] Matrices et applications linéaires - Mathieu Mansuy

On appelle application linéaire canoniquement associée `a la matrice A l'application uA : Mp1(K) ? Mn1(K) X ?? AX Remarque Soit A ? Mnp(K) La 



[PDF] Math S2 PeiP Chapitre 5 Applications linéaires et calcul matriciel

Sinon il faut garder les bases en notation car une application linéaire a en général des matrices associées très différentes en changeant les bases de travail 



[PDF] Matrices dapplications linéaires

La matrice de l'application linéaire f relativement aux bases B et B est la matrice dont les colonnes représentent les vecteurs f(??e1 )f(??e2 ) f(?? 



[PDF] Chapitre 4 : Matrices et applications linéaires - IRMA Strasbourg

La matrice d'une application linéaire dépend clairement du choix des base B et B ii Une application linéaire est donc entièrement déterminée par l'image des 



[PDF] Cours 2 : Applications linéaires introduction des matrices

Deux ensembles particuliers associés à une application linéaire 2 Vers les matrices Notions de base de Rn Forme d'une application linéaire Matrices



[PDF] Matrices et applications linéaires - CPGE Brizeux

3 Que dire de l'application linéaire canoniquement associée à une matrice carrée? 4 Que dire de l'endomorphisme associé à In ?



[PDF] Noyau et image des applications linéaires

Si f : E ? F est une application linéaire son noyau noté Kerf est Image d'une application linéaire et colonnes de sa matrice Exemple

  • Comment déterminer la matrice d'une application linéaire ?

    Formulaire : Si X est le vecteur colonne représentant x?E x ? E dans la base B , si Y est le vecteur colonne représentant u(x) dans la base B? , et si A est la matrice de u dans les bases B et B? , alors Y=AX.
  • Comment déterminer la matrice d'un endomorphisme ?

    Former la matrice de l'endomorphisme f du ?-espace vectoriel ? dans la base (1,i). Déterminer l'image et le noyau de f.

    1Vérifier que ? définit un endomorphisme de ?n[X].2Former la matrice de ? dans la base 1 3L'endomorphisme ? est-il bijectif?
  • Comment déterminer le rang d'un vecteur ?

    Le rang d'un syst`eme de vecteurs augmente de 1 quand on lui ajoute un vecteur qui n'est pas combinaison linéaire des autres. Le rang d'un syst`eme de vecteurs de Rn est égal au nombre de ces vecteurs sauf si l'un d'entre eux est combinaison linéaire des autres.
  • Le rang d'une matrice est égal au nombre de ses lignes sauf si l'une d'entre elles est combinaison linéaire des autres. On dira qu'une matrice est facile si l'une de ses colonnes a tous ses nombres nuls sauf exactement un.

Christophe Bertault — Mathématiques en MPSI

REPRÉSENTATION MATRICIELLE

DES APPLICATIONS LINÉAIRES

Dans tout ce chapitre,?est l"un des corps?ou?et les lettresn,p,q... désignent des entiers naturels non nuls. Tous

les résultats présentés demeurent cela dit vrais sur un corps?quelconque.

1 MATRICE D"UNE APPLICATION LINÉAIRE DANS DES BASES

Définition(Matrice d"une application linéaire dans des bases finies)

Coordonnées deu(ej)dans?

écrites en colonne

Mat?,?(u) =Mat?u(?)=((((((a

11···a1j···a1p

a i1···aij···aip a n1···anj···anp)))))) u(e1)u(ej)u(ep) f1 fi fn

SoientEetFdeux?-espaces vectoriels de di-

mensions respectivespetn,?= (e1,...,ep)une base deE,?= (f1,...,fn)une base deFet u? ?(E,F). On appellematrice de u dans?et ?et on note Mat?,?(u)la matrice de la famille u(?) = u(e1),...,u(ep) dans la base?.

SiE=Fet?=?, la matrice Mat?,?(u)est sim-

plement notée Mat ?(u).

On connaît tout d"une application linéaire quand on connaîtl"image d"une base, donc quand on connaît sa matrice dans

deux bases données. Un exercice peut ainsi commencer ainsi :" On notefl"endomorphisme de?2[X]de matrice"

1 0 2 3 1 4

0 4 5"

dans la base canonique. » Il faut alors comprendre que :f(1) =3X+1,f(X) =4X2+XetfX2=5X2+4X+2. ExemplePour tout?-espace vectorielEde dimension finienet pour toute base?deE: Mat?IdE=In. ExempleEn notantTl"endomorphismeP?-→XP?+P(1)de?2[X]: Mat(1,X,X2)(T) =" 1 1 1 0 1 0

0 0 2"

car :T(1) =1,

T(X) =X+1 etTX2=2X2+1.

Théorème(Matrice dans les bases canoniques de l"application linéaire canoniquement associée à une matrice)

SoitA? ?n,p(?). Si on note?Al"application linéaire canoniquement associée àAet?pet?nles bases canoniques

respectives de?pet?n, alorsA=Mat?p,?n?A. DémonstrationRéfléchissez, il suffit d"appliquer scrupuleusement la définition. ExempleOn note?l"application linéaire canoniquement associée à la matrice" 1 0 1 1 -1 1"

2la famille

(0,1),(1,0) et??

3la famille

(1,1,1),(1,1,0),(1,0,0) . Ces familles?? 2et??

3sont alors respectivement des bases de?2et?3, et :

Mat 2,??

3(?) ="

1-1 0 2 -1 0" . En résumé, si on change les bases, on change la matrice!

Démonstration

•La famille??

2est une base de?2car sa matrice 0 11 0

dans la base canonique est inversible — d"inverse elle-même. Même idée pour??

3, sa matrice"

1 1 1 1 1 0

1 0 0"

dans la base canonique est inversible car triangulaire à coefficients diagonaux non nuls après échange de ses première et troisième colonne.

•Ensuite :?(0,1) ="

1 0 1 1 -1 1" 01 = (0,1,1) = (1,1,1)-(1,0,0). De même :?(1,0) = (1,1,-1) =-(1,1,1)+2(1,1,0). Les coordonnées de?(0,1)dans??

3sont donc

(1,0,-1)et celles de?(1,0)sont(-1,2,0). C"est le résultat voulu. 1

Christophe Bertault — Mathématiques en MPSI

Théorème(Rang d"une application linéaire, rang d"une matrice associée)SoientEetFdeux?-espaces vectoriels

de dimensions finies non nulles,?une base deE,?une base deFetu? ?(E,F). Alors rg(u) =rg Mat ?,?(u)

Tout rang d"application linéaire peut donc être calculé comme le rang d"une matrice grâce à l"ALGORITHME DU PIVOT.

DémonstrationD"après le théorème analogue pour les familles de vecteurs : rg Mat ?,?(u) =rg Mat ?u(?) =rgu(?)=dimVectu(?)=dimImu=rg(u).

Théorème(Calcul matriciel de l"image d"un vecteur par une application linéaire)SoientEetFdeux?-espaces

vectoriels de dimensions finies non nulles,?une base deE,?une base deF,u? ?(E,F)etx?E. Alors : Mat ?u(x)=Mat?,?(u)×Mat?(x).

En d"autres termes, l"ÉVALUATIONpar une application linéaire se traduit matriciellement entermes dePRODUIT.

DémonstrationIntroduisons les vecteurs de?et?:?= (e1,...,ep)et?= (f1,...,fn), ainsi que les coordonnées dexdans?:X=Mat?(x)et la matrice deudans les bases?et?:U=Mat?,?(u). u(x) =u" p? j=1x jej" =p j=1x ju(ej) =p j=1x jn i=1u ijfi=n i=1" p? j=1u ijxj" f i, donc les coordonnées deu(x)dans?sont" p? j=1u

1jxj,...,p

j=1u njxj" , i.e. le produit Mat ?,?(u)×Mat?(x).

ExempleOn notefl"endomorphisme de?2[X]de matrice"

3 3 6 0 1 2

0 2 4"

dans la base canonique.

Alors : Imf=Vect1,2X2+Xet Kerf=VectX2-2X.

DémonstrationPour commencer :

Imf=Vect

f(1),f(X),fX2 Ensuite, pour toutP=aX2+bX+c??2[X]:P?Kerf??f(P) =0??" 3 3 6 0 1 2

0 2 4""

c b a" 0 0 0" ?3c+3b+6a=0 b+2a=0

2b+4a=0L

1←L1-3L2??c=0 etb=-2a??P=aX2-2aX.

Conclusion : Kerf=VectX2-2X.

?Attention !Deux remarques sur cet exemple. •Les coordonnées deaX2+bX+cdans la base canonique de?2[X]sont(c,b,a)ET NON PAS(a,b,c).

•On raisonne matriciellement sur un squelette numérique, mais il ne faut pas oublier à la fin de l"exemple précédent

de réincarner le résultat dans le monde vectoriel?3[X]. La réponse KerR=Vect (0,-2,1) n"est pas correcte.

Théorème(Un dictionnaire entre les points de vue vectoriel et matriciel sur les applications linéaires)

(i) SoientEetFdeux?-espaces vectoriels de dimensions finies respectivespetn,?une base deEet?une base deF. L"applicationu?-→Mat?,?(u)est un isomorphisme de?(E,F)sur?n,p(?). (ii) SoientE,F,Gtrois?-espaces vectoriels de dimensions finies non nulles de basesrespectives?,?,?et u? ?(E,F)etv? ?(F,G). Alors : Mat?,?(v◦u) =Mat?,?(v)×Mat?,?(u). En particulier, l"applicationu?-→Mat?(u)est un isomorphisme d"anneaux de?(E)sur?n(?)si on pose n=dimE.

(iii) SoientEetFdeux?-espaces vectoriels deMÊMES DIMENSIONSfinies non nulles,?une base deE,?une base

deFetu? ?(E,F). Alorsuest un isomorphisme deEsurFsi et seulement si Mat?,?(u)est inversible.

Dans ce cas : Mat

?,?u-1= Mat ?,?(u) -1. En résumé, l"assertion (i) exprime deux choses :

— une propriété de linéarité : Mat

?,?(λu+μv) =λMat?,?(u)+μMat?,?(v)avec des notations évidentes,

— unepropriétédebijectivitédéjàmentionnéeinformellement —onconnaîtentièrementfquand onconnaîtMat?,?(u).

2

Christophe Bertault — Mathématiques en MPSI

Elle relie aussi en passant deux résultats bien connus : dim?n,p(?) =npet dim?(E,F) =dimE×dimF.

L"assertion (ii) montre que lePRODUITest aux matrices ce que laCOMPOSITIONest aux applications linéaires. Nous

connaissions déjà ce résultat dans le cas particulier des applications linéaires canoniquement associées à des matrices.

DémonstrationJe vous laisse démontrer seuls l"assertion (i). (ii) Introduisons les vecteurs de?:?= (e1,...,en). Pour toutj??1,n?:

Mat?(ej) =(((((0

1...

0)))))

positionj

Mat?,?(v◦u)×Mat?(ej) =Mat?v◦u(ej)=Mat?,?(v)×Mat?u(ej)=Mat?,?(v)×Mat?,?(u)×Mat?(ej),

mais n"oublions pas que Mat ?(ej)est lejèmevecteur de la base canonique de?n. Nous venons donc de montrer que Mat ?,?(v◦u)et Mat?,?(v)×Mat?,?(u)ont les mêmesjèmescolonnes, et ce pour tout j??1,n?. Comme voulu : Mat?,?(v◦u) =Mat?,?(v)×Mat?,?(u). (iii) Siuest bijective et si on posen=dimF: Mat?,?(u)×Mat?,?u-1=Mat?IdF=In, donc Mat ?,?(u)est inversible d"inverse Mat?,?u-1. Réciproquement, siA=Mat?,?(u)est inversible, notonsvl"unique application linéaire deFdansEpour laquelle Mat ?,?(v) =A-1. Aussitôt : Mat?(v◦u) =Mat?,?(v)×Mat?,?(u) =A-1A=Inet de même Mat ?(u◦v) =In, doncv◦u=IdEetu◦v=IdF, autrement dituest bijective deEsurF. ExempleL"endomorphismeωde?3[X]dont la matrice dans la base canonique de?3[X]estΩ=((

0 0 1-1

-1 1 1-1

0 2 1-2

-1 2 1-2)) est la symétrie par rapport à VectX3+X2+X,X2+1parallèlement à VectX3+X+1,X3+X2.

Démonstration

•Par définition,ωest linéaire. Montrer que c"est une symétrie revient donc à montrer queω2=Id?3[X], ou

encore matriciellement queΩ2=I4— ce qui est très facile à vérifier.

•{Etudions le sous-espace vectoriel Kerω-Id?3[X]de?3[X]par rapport auquelωest une symétrie. Pour

toutP=aX3+bX2+cX+d??3[X]:P?Kerω-Id?3[X]??ω(P) =P d c b a)) d c b a)) ???????b-a=d -d+c+b-a=c

2c+b-2a=b

-d+2c+b-2a=a ???????-d+b-a=0 -d+b-a=0 c-a=0 -d+2c+b-3a=0??!-d+b-a=0 c-a=0 ?? ?λ,μ??,?????a=λ b=λ+μ c=λ d=μ.Ainsi Kerω-Id?3[X]=VectX3+X2+X,X2+1. •On montre de la même manière que Kerω+Id?3[X]=VectX3+X+1,X3+X2.

Définition-théorème(Condition nécessaire et suffisante d"inversibilité d"unematrice de Vandermonde)Soient

x

1,...,xn??.

On appellematrice de Vandermonde de x1,...,xnla matrice carrée xj-1 i

1?i,j?n=((((1x1x2

1···xn-1

1 1x2x2

2···xn-1

2............

1xnx2n···xn-1n))))

qui est inversible si et seulement si les scalairesx1,...,xnsont distincts.

Démonstration

•Si deux des scalairesx1,...,xnsont égaux, leur matrice de Vandermonde possède deux ligneségales, donc

n"est pas inversible.

•Réciproquement, supposonsx1,...,xndistincts et notons?l"application linéaireP?-→P(x1),...,P(xn)

de?n-1[X]dans?n. Cette application est injective car pour toutP?Ker?:P(x1) =...=P(xn) =0,

donc le polynômePpossèdenracines distinctes alors qu"il est de degré au plusn-1 — ainsiP=0. Comme

dim?n-1[X] =n=dim?n, cette injectivité fait de?un isomorphisme de?n-1[X]sur?n. En particulier, la matrice de?dans la base canonique de?n-1[X]au départ et la base canonique de

nà l"arrivée est inversible d"après le théorème précédent, or cette matrice est exactement la matrice de

Vandermonde dex1,...,xn.

3

Christophe Bertault — Mathématiques en MPSI

Quelques mots à présent sur l"interprétation géométrique des blocs qu"on lit sur la une matrice d"application linéaire.

SoientEun?-espace vectoriel,FetGdeux sous-espaces vectoriels supplémentaires deEde dimensions respectivespetq

et?= (e1,...,ep+q)une base deEadaptée à la décompositionE=F?G. Pour rappel, cela signifie que(e1,...,ep)est une

base deFet(ep+1,...,ep+q)une base deG. Soitu? ?(E). La matrice deudans?s"écrit Mat?(u) =!A C B D! pour certainesA? ?p(?),B? ?q,p(?),C? ?p,q(?)

etD? ?q(?). Nous allons tâcher de comprendre sur deux situations importantes de quelle manières les blocsA,B,CetD

peuvent être interprétés géométriquement. •À quelleconditiona-t-onB=0?Toutsimplement :B=0?? ?j??1,p?,u(ej)?Vect(e1,...,ep) ?? ?x?F,u(x)?F??Fest stable paru.

Dans ces conditions,u

Fest un endomorphisme deFetA=Mat(e1,...,ep)uF.

•À quelle condition a-t-onB=C=0?Comme au point précédent,B=C=0 si et seulement siFetGsont

tous les deux stables paru. Dans ces conditions,u FetuGsont des endomorphismes deFetGrespectivement et

A=Mat(e1,...,ep)u

FetD=Mat(ep+1,...,ep+q)uG.

ExempleSoientEun?-espace vectoriel,FetGdeux sous-espaces vectoriels supplémentaires deEde dimensions respec-

tivesqetret?une base deEadaptée à la décompositionE=F?G. Notonspla projection surFparallèlement àGets

la symétrie par rapport àFparallèlement àG. Alors Mat?(p) =!Iq 0 r! et Mat ?(s) =!Iq -Ir! DémonstrationIntroduisons les vecteurs de?:?= (e1,...,eq+r). Par définition des projections et des symétries :p(ei) =s(ei) =eipour touti??1,q?et :p(ej) =0Eets(ej) =-ejpour tout j??q+1,q+r?. Le résultat en découle.

L"exemple qui suit est emblématique de nombreux exercices.En dimension finie, on peut calculer la matrice d"un endo-

morphisme dans n"importe quelle base, mais n"y a-t-il pas des bases dans lesquelles le résultat est plus simple et plus joli que

dans d"autres? L"étude de cette question est une branche de l"algèbre linéaire que vous étudierez davantage en deuxième

année, appeléeréduction.Réduireun endomorphisme, c"est trouver une base dans laquelle sa matrice est facile à interpréter

géométriquement — par exemple diagonale, triangulaire, pleine de zéros... — etréduireune matrice carrée, c"est réduire

l"endomorphisme qui lui est canoniquement associé.

ExempleSoientEun?-espace vectoriel de dimension 2 etf? ?(E). Sifest nilpotent d"indice 2, alorsfa pour matrice 0 10 0

dans une certaine base deE.

DémonstrationOn chercheune base(e1,e2)deEpour laquellef(e1) =0Eetf(e2) =e1.Si une telle base existe,

on peut aussi l"écriref(e2),e2oùe2est un vecteur deEpour lequelf(e2) =e1?=0E, i.e. n"appartenant pas à

Kerf. Un tel choix de vecteure2est-il cependant possible? Oui, carfétant nilpotent d"indice 2 :f?=0?(E),

donc Kerf?=E. Donnons-nous donc un vecteure2deE\Kerfet posonse1=f(e2). Dans ces conditions, si jamais

(e1,e2)est une base deE: Mat(e1,e2)(f) = 0 10 0 carf(e1) =f2(e2) =0Eetf(e2) =e1par construction.

Pour une raison de dimension, il ne nous reste donc plus qu"à montrer la liberté de la famille(e1,e2). Soient

λ,μ??. On suppose queλe1+μe2=0E. Composons parf:μe1=0E, ore1?=0E, doncμ=0. En retour

λe1=0E, donc de mêmeλ=0.

2 CHANGEMENTS DE BASES,ÉQUIVALENCE ET SIMILITUDE

2.1 CHANGEMENTS DE BASES

Définition-théorème(Matrice de passage d"une base à une autre)SoientEun?-espace vectoriel de dimension

finie non nulle et?,??et???trois bases deE. On appellematrice de passage de?à??la matrice Mat?(??) =Mat??,?IdE, souvent notéeP??

Deux choses à savoir : (i)P??

?est inversible d"inverseP? ?. (ii)P?? ?P??? ?=P???

Démonstration

(i)P?? ?est la matrice d"un isomorphisme :P?? -1= Mat ??,?IdE-1=Mat?,??Id-1 E Id-1

E=IdE=P?

4

Christophe Bertault — Mathématiques en MPSI

(ii)P??quotesdbs_dbs22.pdfusesText_28
[PDF] matrice d'une application linéaire exemple

[PDF] matrice et application linéaire pdf

[PDF] exercices corrigés d'espace vectoriel

[PDF] déterminer une base d'un sous espace vectoriel

[PDF] montrer que c'est une base

[PDF] dimension dun espace vectoriel exercice corrigé

[PDF] cardinal espace vectoriel

[PDF] théorème de la base incomplète démonstration

[PDF] montrer que 3 vecteurs forment une base

[PDF] espace vectoriel de dimension finie exercices corrigés

[PDF] base d'un espace vectoriel de dimension finie

[PDF] trouver une base dun espace vectoriel

[PDF] base et dimension d'un espace vectoriel

[PDF] comment trouver une base

[PDF] espace vectoriel base exercices corrigés