[PDF] Représentation et analyse des syst`emes multi-variables Notes de





Previous PDF Next PDF





Cours dAutomatique

28 jun 2017 Ceci traduit le fait que dans ce montage électronique



Analyse des propriétés structurelles dobservabilité de létat et de l

25 sept 2008 appelée faisceau de matrices du système ??. Cette matrice contient une grande partie de l'information importante relative à la structure du ...



Observabilité et inversibilité de la matrice dinformation de Fisher

? se définit comme la matrice de variance- covariance du Jacobien de la fonction log- vraisemblance



Cours dAutomatique Master de Mathématiques Université d

4.2 Interprétation en termes de matrice de transfert . 5.1 Définition et critères d'observabilité . ... On définit l'exponentielle de la matrice A.



Observabilité et systèmes discrets:

29 mar 2018 et la généricité de l'observabilité des systèmes non linéaires discrets. ... _; ô J "* une matrice de rotation les sorties que I'on obtient ...



Chapitre III Commandabilité et observabilité des systèmes

des matrices A et B. III.1.2 Observabilité. Nous nous intéressons au même modèle (III.1). Définition 3.5 : Un état xi du système est observable en t0 



page de garde2

(rank) le calcul de la matrice par ( obsv) et le calcul du déterminant par la fonction (det). Figure 3.1 : Etude d'observabilité sous Matlab. Exemple3.2.



Travaux dirigés III Commandabilité et observabilité des systèmes

Il est également complètement observable puisque aucune colonne dans le vecteur ˜C n'est nulle. III.2 Solution de l'exercice 2. La matrice de commandabilité est 



Représentation et analyse des syst`emes multi-variables Notes de

5 Gouvernabilité et observabilité: analyse pratique par les grammiens 63 et le calcul d'une réalisation minimale `a partir d'une matrice de transfert ...

multi-variables

Notes de cours

D.Alazard

2 3

Contents

Introduction 7

Notations 9

1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

1.2 Problµeme de l'inversion . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

1.2.3 Illustration: problµeme de l'approximation polynomiale . . . . . 17

matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2 Analyse des systµemes multi-variables par les valeurs singuliµeres 27

2.2 Application des valeurs singuliµeres: marge de module . . . . . . . . . . 28

2.2.1 Rappel mono-variable: insu±sance des notions de marge de gain

et de phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

2.2.2 Marge de module dans le cas multi-variable . . . . . . . . . . . 30

2.2.3 Illustration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

2.3 Exercise sur l'analyse par les valeurs singuliµeres (sousMatlab) . . . . . 33

trices de transfert 37

4Contents

3.2.2 Critµeres particuliers . . . . . . . . . . . . . . . . . . . . . . . . . 40

Output) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

3.3.1 Formes diagonales . . . . . . . . . . . . . . . . . . . . . . . . . . 41

3.3.2 Formes compagnes . . . . . . . . . . . . . . . . . . . . . . . . . 41

3.3.3 Formes deJordan. . . . . . . . . . . . . . . . . . . . . . . . . 43

3.4 Cas SIMO (Single Input Multi Output) et MISO (Multi Input Single

output) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

3.6.2 Calcul algorithmique des invariants . . . . . . . . . . . . . . . . 46

3.6.3 Invariants d'une matrice rationnelle . . . . . . . . . . . . . . . . 47

3.9 Exercice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

4.1 Notations et Problµematique . . . . . . . . . . . . . . . . . . . . . . . . 55

4.2 Rappel cas SISO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

L(D) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

4.3.2 Changement de variable (post-multiplication) . . . . . . . . . . 57

4.4 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

4.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

Contents5

6Contents

7

Introduction

ces notes par rapport aux autres documents disponibles.

8Introduction

9

Notations

Symboles courants

Censemble des complexes

R C nensemble des vecteurs complexes de dimensionn R C m£nensemble des matrices complexesm£n jindex ouj2=¡1 ln logarithme naturel log

10logarithme en base 10

kxk;kxk2norme Euclidienne de vecteurs dansRnouCn N(m;¾) loi gaussienne (normale) de moyennemet de variance¾ I 0 nou 0n£mmatrices nullesn£noun£m M M M

Herm(M)1

2 M

¡1inverse deM

M

¡T(MT)¡1= (M¡1)T

M M i(M)i-µeme valeur singuliµere deM min(M) valeur singuliµere minimale deM max(M) valeur singuliµere maximale deM

10Notations

i(M)i-µeme valeur propre deM¹¸(M) valeur propre maximale deM ½(M) rayon spectral deM,½(M) = maxij¸i(M)j

·(M) conditionnement deM:¾max(M)=¾min(M)

Trace (M) trace deM, trace(M) =Pn

i=1Mi;i spec(M) ensemble des valeurs propres deM ker(M) noyau deM, ker(M) =fx:Mx= 0g

Im(M) espace image deM, Im(M) =fMx:x2Cng

dim(V) dimension de l'espaceV rang(M) dim(Im(M))

Notations systµeme

svariable deLaplace B C D parfois matrice de transfertC(sI¡A)¡1B+D

Acronymes

B.O. Boucle Ouverte

Notations11

A=AT

Hermitienne

A=¡AT

Anti-hermitienne

Orthogonale

AA

T=ATA=I

Unitaire

AA

Idempotente

A 2=A

Nilpotente

A k= 08k¸2 x toutes les valeurs propres sont>0 x toutes les valeurs propres sont¸0

Table 1: Classi¯cation des matrices

12Notations

13

Chapter 1

1.1 Introduction

Lyapunov,Riccati, LMI1, analyse des systµemes pas les valeurs singuliµeres, ...)

1.2 Problµeme de l'inversion

8>>>< >>:y

1=a11x1+a12x2+¢¢¢+a1nxn

y

2=a21x1+a22x2+¢¢¢+a2nxn...

y m=am1x1+am2x2+¢¢¢+amnxn(1.1) 1

LMI: Linear Matrix Inegality

que l'on note matriciellement : y=Axavecy=2 6 664y
1 y 2... y m3 7

775; x=2

6 664x
1 x 2... x n3 7

775etA=2

6 664a

11a12¢¢¢a1n

a

21a22¢¢¢a2n...

a m1am2¢¢¢amn3 7 775:
A est une matrice de dimensionm£n. Le problµeme de l'inversion consiste µa trouver 2: m=n= rang(A))une solution unique: x=A¡1y m < n)pulsieurs solutions

Introduction d'un critµere:

on choisit la solution de longueur minimale.

MinimiserJ=1

2 xTx=1 2 n X i=1x 2i: C'est un problµeme d'optimisation sous les contraintes:y=Ax. On applique alors les principes d'optimisation (voir [3] : cours de de M.Llibreet M.Corrµege "Commande optimale") :

Lagrangien:Ja=1

2 xTx+¸T(y¡Ax) (¸: vecteur des paramµetres deLagrange).

Principe:

@Ja @x

¯¯x=bx= 0)bx¡AT¸= 0

@J a = 0)y=Abx )y=AAT¸(AATde rangmdonc inversible): )¸= (AAT)¡1y) bx=AT(AAT)¡1y

Rappel:

(calcul de gradiant) 2 rang(A) =min(m;n).

1.2 Problµeme de l'inversion15

@[xTy] @x =y,@[yTx] @x =y, @[xTMx] @x = (M+MT)x. m > n)pas de solution exacte.

MinimiserJ=1

2 kek2=1 2 eTe=1 2 (y¡Ax)T(y¡Ax) 1 2 (yTy¡xTATy¡yAx+xTATAx): @J @x

¯¯¯x=bx= 0) ¡2ATy+ 2ATAbx= 0

est quadratique). x= (ATA)¡1ATy

Exemple: approximation polyn^omiale

(macropolyfitsous matlab). Soitmcou- ples de mesures (ti; yi). On cherche les coe±cientsxidu polyn^ome d'ordren¡1 passant par les points (ti; yi); soit : y i=x1+x2ti+x3t2i+¢¢¢xntn¡1 ii= 1;2;¢¢¢; m ou encore : 2 6 664y
1 y 2... y m3 7 775=2
6

6641t1t21¢¢¢tn¡11

1t2t22¢¢¢tn¡12...

1tmt2m¢¢¢tn¡1m3

7 7752
6 664x
1 x 2... x n3 7

775(soit:y=Ax)

matrice deVandermonde

3pourmetngrands (avecm > n, voir

exercice 1.2.3 sous Matlab). 3 Le conditionnement d'une matrice est le rapport de la plus grande valeur singuliµere de cette matrice sur la plus petite:·(A) =¾max(A)=¾min(A) a)Inversion brutale: bx1= (ATA)¡1ATy (ATA)bx2=ATy : arriµere. sous la forme: A=QR oµuUest une matricen£n ·U d)Pseudo-inverse de Moore-Penrose ou (SVD)(Singular Value decomposition): on note bx4=A+y(pinv(A)en syntaxe Matlab)

Remarque 1.2.1

1.2 Problµeme de l'inversion17

1.2.3 Illustration: problµeme de l'approximation polynomiale

Soit :

²[ti] = [0;1;2;3;¢¢¢; m¡1],

²x= [1;1;1;1;¢¢¢;1] (nfois) la valeur vraievraiedu vecteur des coe±cients du dans le casm= 20 etn= 8. Nous pouvons constater que l'inversion directeest trµes mauvaise et que les techniques de lapseudo-inverseet parfactorisation QRdonnent >> % LMS: problµeme de l'approximation polynomiale >> clear all >> format long e >> m=20; >> n=8; >> t=[0:1:m-1]'; >> x=ones(n,1); >> a=[]; >> for ii=1:n,a=[a t.^ii];end; >> y=a*x; >> % Inversion directe: >> xhat1=inv(a'*a)*a'*y Warning: Matrix is close to singular or badly scaled.

Results may be inaccurate. RCOND = 1.315754e-22.

xhat1 =

4.990038871765137e-01

1.020576477050781e+00

1.205293655395508e+00

1.030517876148224e+00

9.941211566329002e-01

1.000405412632972e+00

9.999893351923674e-01

1.000000218589548e+00

>> norm(xhat1-x)/norm(x) ans =

1.918762776683313e-01

>> % Utilisation de la pseudo-inverse: >> xhat4=pinv(a)*y xhat4 =

1.000003337860107e+00

9.999985694885254e-01

1.000000953674316e+00

9.999998211860657e-01

1.000000022351742e+00

9.999999990686774e-01

1.000000000014552e+00

1.000000000000227e+00

>> norm(xhat4-x)/norm(x) ans =

1.328986586111962e-06

>> [q,r]=qr(a); >> u=r(1:n,1:n); >> qt=q'; >> q1t=qt(1:n,:); >> xhat3=zeros(n,1); >> sec=q1t*y; >> for ii=n:-1:1, prem=0; for jj=ii+1:n, prem=prem+u(ii,jj)*xhat3(jj); end xhat3(ii)=1/u(ii,ii)*(sec(ii)-prem); end >> xhat3 xhat3 =

1.2 Problµeme de l'inversion19

9.999995821321698e-01

1.000000000037892e+00

1.000000094150625e+00

9.999999700429867e-01

1.000000004047405e+00

9.999999997290243e-01

1.000000000008738e+00

9.999999999998931e-01

>> norm(xhat3-x)/norm(x) ans =

1.518188652864724e-07

d'inversion matricielle y 2¸ =·A11A12 A

21A22¸·

x1 x 2¸ ou½y1=A11x1+A12x2 y

2=A21x1+A22x2:

x

1=A¡111y1¡A¡111A12x2

y

2=A21A¡111y1+ (A22¡A21A¡111A12)x2

Posons: ¢ =A22¡A21A¡111A12, alors :

x

2= ¢¡1y2¡¢¡1A21A¡111y1

x

1= (A¡111+A¡111A12¢¡1A21A¡111)y1¡A¡111A12¢¡1y2

A

¡1=·A11A12

A

21A22¸

¡1

¡¢¡1A21A¡111¢¡1¸

·A11A12

A

21A22¸

¡1 =·r¡1¡r¡1A12A¡122 avecr=A11¡A12A¡122A21. D'oµu le lemme d'inversion : A ¡111+A¡111A12(A22¡A21A¡111A12)¡1A21A¡111= (A11¡A12A¡122A21)¡1 de covariance en estimation). avec le cas de blocs deJordan),

V= [v1; v2;¢¢¢; vn].

Av i=¸iBvi: systµeme:½_x=Ax+Bu y=Cx avec: dim(A) =n£n, dim(B) =n£m, dim(C) =p£net on suppose queAest diagonalisable.

E®ectuons le changement de variable :

x=VexavecVmatrice des vecteurs propresquotesdbs_dbs47.pdfusesText_47
[PDF] Matrice de Léontiéf

[PDF] Matrice de suites

[PDF] matrice de trace nulle semblable ? une matrice de diagonale nulle

[PDF] matrice de transition cours

[PDF] matrice de transition definition

[PDF] matrice de transition exemple

[PDF] matrice de transition terminale s

[PDF] matrice des coefficients techniques

[PDF] matrice diagonalisable exemple

[PDF] Matrice et variable aléatoire

[PDF] matrice identité d'ordre 3

[PDF] matrice inverse de leontief definition

[PDF] matrice inversible exercice corrigé

[PDF] matrice nilpotente exercice corrigé

[PDF] Matrice probabiliste, terminale