[PDF] Observabilité et inversibilité de la matrice dinformation de Fisher





Previous PDF Next PDF



Observabilité et systèmes discrets:

29 mars 2018 ir the control constant on [0ô] and equal to u(k6). There exist many notions of observability



Analyse des propriétés structurelles dobservabilité de létat et de l

25 sept. 2008 Définissons la matrice de transfert du système struc- turé comme T?(s) = C?(sI?A?)?1B?+D? et assumons que rang(T?(s)) = q. La définition.



Chapitre III Commandabilité et observabilité des systèmes

Définition 3.1 : Un état xi du système est commandable en t0 s'il existe un signal d'entrée u(t)/t ? [t0



Observabilité et inversibilité de la matrice dinformation de Fisher

la question de l'observabilité de ? se pose en termes d'injectivité de h. D'où une première définition : Definition 1. Le paramètre ? est (simplement) 



Cours dAutomatique Master de Mathématiques Université d

5 Observabilité. 51. 5.1 Définition et critères d'observabilité . . . . . . . . . . . . . . . . . 51. 5.2 Stabilisation par retour d'état statique .



??? ?????????????? ??????????????????????????????????? ? ???? ?? ??

Définition 1.3.2. On appelle observabilité d'un système la possibilité d'évaluer l'ensemble des gran- deurs constitutives du vecteur d'état à partir des 



M A S T E R

Définitions et caractérisations de quelques concepts d'observabilité . Définition 1.1 Le déterminant d'une matrice carrée A=(ai j )1?ij?n d'ordre n ...



Observation et commande des systèmes singuliers non linéaires

7 juin 2012 1.3.5.1 Observabilité. Définition 1.3.8. (Observabilité) Le système (1.3) est dit observable si la condition initiale.



Controllability and Observability

They can be roughly defined as follows. Controllability: In order to be able to do whatever we want with the given dynamic system under control input the 



Cours dAutomatique

28 juin 2017 La définition de l'observabilité ne fait pas d'hypoth`ese particuli`ere sur la nature de l'entrée. Cette propriété peut.

Comment utiliser l’observabilité ?

Pour l’observabilité, vous devez recueillir des données à partir de sources ouvertes et propriétaires et les regrouper en un seul endroit. Vous devez appliquer automatiquement de l’instrumentation là où cela a du sens et en ajouter là où vous avez le plus besoin de visibilité. M.E.L.T. - Description rapide

Quels sont les avantages de l’observabilité ?

Bien plus qu’un simple mot à la mode, l’observabilité est une approche stratégique et utile pour comprendre l’état de l’ensemble de votre infrastructure. Le cloud, les conteneurs, les microservices et autres nouvelles technologies ont rendu les systèmes plus complexes qu’ils ne l’ont jamais été.

Comment accroître l’observabilité du système ?

On effectue une supervision pour accroître l’observabilité du système. En informatique, l’observabilité est une propriété de ce système, comme sa fonctionnalité ou sa testabilité. Plus précisément, la supervision consiste à observer les performances d’un système dans le temps.

Quelle est la différence entre la supervision et l’observabilité ?

La supervision et l’observabilité sont des concepts distincts qui dépendent l’un de l’autre. On effectue une supervision pour accroître l’observabilité du système. En informatique, l’observabilité est une propriété de ce système, comme sa fonctionnalité ou sa testabilité.

  • Past day

1 Observabilité et inversibilité de la matrice d"information de Fisher dans les problèmes de régression non-linéaire

Claude Jauffret

Université de Toulon et du Var

MS/GESSY

BP 132,- 83 957 LA GARDE CEDEX

Email : jauffret@isitv.univ-tln.fr

Résumé - On établit le lien entre la notion déterministe d"observabilité et la matrice d"information de Fisher.

Plus précisemment, on montre que si cette dernière est inversible alors le paramètre concerné est observable

localement, quelle que soit la loi du bruit additif dans le modèle non lineaire.

Abstract - The link between the determistic observabilty and the Fisher Information Matrix is established. More

precisely, we prove taht if that matrix is non singular, then the parameter of consideration is locally observable,

whatever the statistical law of noise be, in the nonlinear model.

1. Formulation du problème

Considérons le problème de la régression

non-linéaire qui consiste à estimer un paramètre déterministe inconnu q (élément de d ) lorsque l"on dispose d"un vecteur de mesure X (élément de n ), problème défini par l"équation de mesure e eqS+=hX.

Le vecteur

e représente le bruit additif de mesure ; le modèle liant les mesures à l"état q est donné sous la forme de la fonction déterministe h.

La tentative d"estimation du paramètre

q ne peut être lancée que si auparavant on a su répondre à la question de l"observabilité de ce paramètre à partir de mesures non-bruitées ; plus précisemment, si l"on dispose de M, vecteur de mesures non-bruitées, et du modèle déterministe (ou fonction) h tels que )()(S=qhM, la question de l"observabilité de q se pose en termes d"injectivité de h. D"où une première définition :

Definition 1

Le paramètre q est (simplement) observable en

0 qà partir de M si 00 qqqqqhh d

Par extension, on définit aussi la notion

d"observabilité simple en tout point :

Definition 2

Le paramètre q est (simplement) observable à partir de M si ())'()('',qqqqqqhh d

Remarque :

Une condition nécessaire évidente à

l"observabilité simple est que nd£ ; cette condition est désormais supposée remplie dans le reste du papier.

Il est licite de poser la définition en termes

d"injectivité locale de la fonction h. Dans ce cas, on aboutit à une autre définition :

Definition 3

Le paramètre q est dit localement faiblement

observable en 0 qsi 000 00 qqqqqq qq hhUcontenantouvertU d

Remarques :

a) Ces définitions sont issues de la caractérisation des systèmes dynamiques pour lesquels il existe d"autres notions d"observabilité lorsque le paramètre q varie dans le temps et qu"il faut tenir compte de toute la trajectoire )(tq[7]. b) Lorsque h est une fonction linéaire (en pratique une matrice), il y a confusion des deux définitions : (i) qest simplement observable observable en 0 q. (ii) q est localement faiblement observable en 0 q.

La plupart du temps, l"analyse de

l"observabilité (simple ou locale) est une tâche

2délicate et il est dit que l"observabilité est

garantie dès l"instant où la matrice d"information de Fisher, calculée sous l"hypothèse gaussienne en ce qui concerne e, est inversible [10]. Nous allons montrer que cette assertion est fausse.

2. Matrice d"information de

Fisher (MIF)

Le vecteur e est désormais supposé admettre une densité de probabilité e p de support n . Ainsi le vecteur X admet lui même une densité de probabilité X p qui, bien que paramétrée par q, a un support ne dépendant pas de q. Cette dernière est donc définie par ))(()(:qxxx e hppp Xn X a

La vraisemblance de l"échantillon X notée

()q;XL n"est donc rien d"autre que la composition de la fonction (certaine) X p avec le vecteur aléatoire X.

D"un point de vue analytique, on suppose que

e p et h sont partout différentiables sur n et d , respectivement. Nous définissons l"opérateur Jacobien par D dnnd hhhh h LMML 11 11

La matrice d"information de Fisher relative au

paramètre q à estimer, évaluée au point 0 q, se définit comme la matrice de variance- covariance du Jacobien de la fonction log- vraisemblance, i.e.

úûùêëéD=

0 000 0 0 qqqq qqqq

XLLnXLLnEXLLnCovF

TT X

Remarquons d"ailleurs que si

e est un vecteur Gaussien centré de matrice de variance-covariance e

R (supposée non-singulière), alors

00 1 0 qqe qq T X

Nous nous proposons de donner une

expression analogue pour des densités de probabilité de e quelconques (pourvu que leurs supports soient n

Nous établissons dans un premier temps le

résultat suivant :

Théorème 1

00 0 qqe qq T X où =T t ttpCovW ee e ln

Démonstration :

D"après la définition de la densité de

probabilité de X, on a e )(;hzpLnzpLn X qe h vvpLn hzv-=

La dérivée de la fonction log-vraisemblance

relativement au paramètre q est donc qe h vvpLnXLLn hXv-= Donc 0 )(0 qq q qee q h vvpLn vvpLnEhF hXvT TX

Quant au terme médian,

.1 00 dzvpvvpLn vvpLnvvpLn vvpLnE n hzvTT qeeeee q

Le changement de variable

0 qhzt-= conduit à l"expression annoncée : dzvpvvpLn vvpLn hzvT n 0 1 qeee dttpttpLn ttpLn n T eee 1 =T t ttpLnCov ee

3Remarque :

Si e est gaussien, il est facile de vérifier que 1- ee RW.

3. Quelques cas pathologiques

a) Premier contre-exemple :

Considérons la mesure monodimensionnelle

e eqS+= 3 X (ici, n=d=1).

L"équation de mesure sans bruit est donc

()S= 3 qM et le paramètre q est (simplement) observable en tout point.

Sous l"hypothèse gaussienne, la MIF est

4 9qq= X F (on suppose que e est centré réduit). Donc ()q X F n"est pas inversible en 0=q.

Commentaires:

1) Dans des cas semblables, on peut

montrer qu"il n"existe pas d"estimateur sans biais : la borne de Cramèr-Rao ne peut donc pas être l"inverse de la MIF.

2) Ce cas se rencontre en traitement

d"antenne lorsqu"il s"agit d"estimer l"angle d"arrivée d"un source située dans l" " end- fire ». Il est d"ailleurs d"usage d"estimer les cosinus des angles (ou fréquences spatiales) pour lesquels l"information de Fisher n"est jamais nulle [11].

3) La singularité de la MIF en certains

points de d pose problème lorsque l"on calcule l"estimé (pour des mesures gaussiennes) par la procédure numérique de Gauss-Newton dans laquelle le Hessien est approché par la MIF évaluée au point de l"itération courante. Le palliatif est alors l" "augmentation » de la MIF selon la méthode de Levenberg-Marquardt [12]. b) Second contre-exemple (tiré de [8]) :

Considérons le vecteur de mesure

bidimensionnel .10,cossin 21
21
Daa XXX ee qqq

Nous supposons encore que

2

ICov=e

Sous l"hypothèse gaussienne, on a

ae-+= qqcos212aaaF X .Donc la MIF n"est jamais nulle et pourtant les paires ()',qq définies par a aveckk tttpqtpqsin2'2 donnent la même mesure sans bruit. Le paramètre q n"est donc pas simplement observable. Il est toutefois localement faiblement obervable.

4. Analyse

Pour mener à bien l"analyse du lien entre

l"observabilité (en un certain sens) et l"inversibilité de la matrice d"information de

Fisher, on a besoin de quelques outils

basiques d"algèbre linéaire et de géométrie différentielle.

Théorème 2

Soit A une ()dn´ matrice ()nd£. Sont

équivalents :

(i) AA T est inversible. (ii)

S" une ()nn´ matrice réelle symétrique

non-singulière, SAA T est inversible. (iii) dARang=)(.

Définition 2 [9]

Pour ()nd£,

nd h®: est une immersion en 0 q si le rang de 0 qq h est égal à d.

Théorème 3 [9]

nd h®: est une immersion en 0 q s"il existe un ouvert 0 q

Ucontenant

0 q tel que le rang de q h est égal quel que soit q dans 0 q U

Corollaire 1 [9]

Si nd h®: est une immersion en 0 q, alors h est localement injective, c"est-à-dire qu"il existe un ouvert 0 q

Ucontenant

0 q tel que nd U

Uh®Ì

00 q q est une injection.

Remarques :

Evidemment, si h est une application

linéaire, 4 d 21
21
qqqq hh

Donc, h est injective en un point, elle est

injective partout.

5. Conclusion

Combinant les arguments précédemment

quotesdbs_dbs26.pdfusesText_32
[PDF] matrice de trace nulle probleme

[PDF] querelle des anciens et des modernes jean de la fontaine

[PDF] anecdote sur anne frank

[PDF] exercice montrer que deux matrices sont semblables

[PDF] fontenelle

[PDF] vidéo anne frank

[PDF] matrice semblable exemple

[PDF] querelle des anciens et des modernes la fontaine

[PDF] anne frank reportage

[PDF] autoportrait anne frank

[PDF] pere d anne frank

[PDF] matrice de transition graphe probabiliste

[PDF] origine de la querelle des anciens et des modernes

[PDF] matrice de transition markov

[PDF] matrice de transition détat