[PDF] Observabilité et inversibilité de la matrice dinformation de Fisher





Previous PDF Next PDF



TD 3 : Information de Fisher méthode du ? 1 Information de Fisher

Dhu?l-Q. 29 1430 AH Calculer l'information de Fisher dans les mod`eles statistiques ... en effet



TD no 7 : Information de Fisher et vraisemblance

In(?) = n. 3(1 + ?)2 . Exercice 3. La durée de vie en heures d'un certain type d'ampoule peut être modélisée par une.



Année Universitaire 2006-2007 COURS DE STATISTIQUE

3.1 Un exemple introductif. 3.2 Exhaustivité. 3.3 Information de Fisher. 4. L'estimation ponctuelle. 4.1 Définition d'un estimateur.



Observabilité et inversibilité de la matrice dinformation de Fisher

Le palliatif est alors l' «augmentation » de la MIF selon la méthode de Levenberg-Marquardt [12]. b) Second contre-exemple (tiré de [8]) : Considérons le 



Information de Fisher

En termes simples moins une observation est probable



Mise `a niveau Comparaison destimateurs

Information de Fisher. Inégalité de l'Information et borne de Cramer-Rao. Efficacité asymptotique. EXEMPLES. Exemple 1 : la loi exponentielle Soit X ? E(?) 



Statistiques mathématiques

L'analyse statistique aura alors pour but par exemple de déterminer (toujours au vu des Exemple 3.5 (Information de Fisher pour une v.a. gaussienne):.



Corrigé : Feuille de travaux dirigés 3

Il reste à calculer sa variance et l'information de Fisher I1(?). Un calcul similaire à celui de la question 1. donne Var?(X1) = ? d'où. Var?(S(X)) =.



Problèmes inverses Partie 2 — Chapitre 3 Estimation par maximum

Définition. Info. de K.-L. EMV : consistance. Info. de Fisher norm. asympt. Effic. asympt. Int. conf. et test de Wald. Vraisemblance. Un exemple discret.



UV Statistique Cours n°5/6

Information de Fisher. • Exemple : Calculer l'information apportée par une observation sur le paramètre µ d'une loi normale ou ?2 est connu.

1 Observabilité et inversibilité de la matrice d"information de Fisher dans les problèmes de régression non-linéaire

Claude Jauffret

Université de Toulon et du Var

MS/GESSY

BP 132,- 83 957 LA GARDE CEDEX

Email : jauffret@isitv.univ-tln.fr

Résumé - On établit le lien entre la notion déterministe d"observabilité et la matrice d"information de Fisher.

Plus précisemment, on montre que si cette dernière est inversible alors le paramètre concerné est observable

localement, quelle que soit la loi du bruit additif dans le modèle non lineaire.

Abstract - The link between the determistic observabilty and the Fisher Information Matrix is established. More

precisely, we prove taht if that matrix is non singular, then the parameter of consideration is locally observable,

whatever the statistical law of noise be, in the nonlinear model.

1. Formulation du problème

Considérons le problème de la régression

non-linéaire qui consiste à estimer un paramètre déterministe inconnu q (élément de d ) lorsque l"on dispose d"un vecteur de mesure X (élément de n ), problème défini par l"équation de mesure e eqS+=hX.

Le vecteur

e représente le bruit additif de mesure ; le modèle liant les mesures à l"état q est donné sous la forme de la fonction déterministe h.

La tentative d"estimation du paramètre

q ne peut être lancée que si auparavant on a su répondre à la question de l"observabilité de ce paramètre à partir de mesures non-bruitées ; plus précisemment, si l"on dispose de M, vecteur de mesures non-bruitées, et du modèle déterministe (ou fonction) h tels que )()(S=qhM, la question de l"observabilité de q se pose en termes d"injectivité de h. D"où une première définition :

Definition 1

Le paramètre q est (simplement) observable en

0 qà partir de M si 00 qqqqqhh d

Par extension, on définit aussi la notion

d"observabilité simple en tout point :

Definition 2

Le paramètre q est (simplement) observable à partir de M si ())'()('',qqqqqqhh d

Remarque :

Une condition nécessaire évidente à

l"observabilité simple est que nd£ ; cette condition est désormais supposée remplie dans le reste du papier.

Il est licite de poser la définition en termes

d"injectivité locale de la fonction h. Dans ce cas, on aboutit à une autre définition :

Definition 3

Le paramètre q est dit localement faiblement

observable en 0 qsi 000 00 qqqqqq qq hhUcontenantouvertU d

Remarques :

a) Ces définitions sont issues de la caractérisation des systèmes dynamiques pour lesquels il existe d"autres notions d"observabilité lorsque le paramètre q varie dans le temps et qu"il faut tenir compte de toute la trajectoire )(tq[7]. b) Lorsque h est une fonction linéaire (en pratique une matrice), il y a confusion des deux définitions : (i) qest simplement observable observable en 0 q. (ii) q est localement faiblement observable en 0 q.

La plupart du temps, l"analyse de

l"observabilité (simple ou locale) est une tâche

2délicate et il est dit que l"observabilité est

garantie dès l"instant où la matrice d"information de Fisher, calculée sous l"hypothèse gaussienne en ce qui concerne e, est inversible [10]. Nous allons montrer que cette assertion est fausse.

2. Matrice d"information de

Fisher (MIF)

Le vecteur e est désormais supposé admettre une densité de probabilité e p de support n . Ainsi le vecteur X admet lui même une densité de probabilité X p qui, bien que paramétrée par q, a un support ne dépendant pas de q. Cette dernière est donc définie par ))(()(:qxxx e hppp Xn X a

La vraisemblance de l"échantillon X notée

()q;XL n"est donc rien d"autre que la composition de la fonction (certaine) X p avec le vecteur aléatoire X.

D"un point de vue analytique, on suppose que

e p et h sont partout différentiables sur n et d , respectivement. Nous définissons l"opérateur Jacobien par D dnnd hhhh h LMML 11 11

La matrice d"information de Fisher relative au

paramètre q à estimer, évaluée au point 0 q, se définit comme la matrice de variance- covariance du Jacobien de la fonction log- vraisemblance, i.e.

úûùêëéD=

0 000 0 0 qqqq qqqq

XLLnXLLnEXLLnCovF

TT X

Remarquons d"ailleurs que si

e est un vecteur Gaussien centré de matrice de variance-covariance e

R (supposée non-singulière), alors

00 1 0 qqe qq T X

Nous nous proposons de donner une

expression analogue pour des densités de probabilité de e quelconques (pourvu que leurs supports soient n

Nous établissons dans un premier temps le

résultat suivant :

Théorème 1

00 0 qqe qq T X où =T t ttpCovW ee e ln

Démonstration :

D"après la définition de la densité de

probabilité de X, on a e )(;hzpLnzpLn X qe h vvpLn hzv-=

La dérivée de la fonction log-vraisemblance

relativement au paramètre q est donc qe h vvpLnXLLn hXv-= Donc 0 )(0 qq q qee q h vvpLn vvpLnEhF hXvT TX

Quant au terme médian,

.1 00 dzvpvvpLn vvpLnvvpLn vvpLnE n hzvTT qeeeee q

Le changement de variable

0 qhzt-= conduit à l"expression annoncée : dzvpvvpLn vvpLn hzvT n 0 1 qeee dttpttpLn ttpLn n T eee 1 =T t ttpLnCov ee

3Remarque :

Si e est gaussien, il est facile de vérifier que 1- ee RW.

3. Quelques cas pathologiques

a) Premier contre-exemple :

Considérons la mesure monodimensionnelle

e eqS+= 3 X (ici, n=d=1).

L"équation de mesure sans bruit est donc

()S= 3 qM et le paramètre q est (simplement) observable en tout point.

Sous l"hypothèse gaussienne, la MIF est

4 9qq= X F (on suppose que e est centré réduit). Donc ()q X F n"est pas inversible en 0=q.

Commentaires:

1) Dans des cas semblables, on peut

montrer qu"il n"existe pas d"estimateur sans biais : la borne de Cramèr-Rao ne peut donc pas être l"inverse de la MIF.

2) Ce cas se rencontre en traitement

d"antenne lorsqu"il s"agit d"estimer l"angle d"arrivée d"un source située dans l" " end- fire ». Il est d"ailleurs d"usage d"estimer les cosinus des angles (ou fréquences spatiales) pour lesquels l"information de Fisher n"est jamais nulle [11].

3) La singularité de la MIF en certains

points de d pose problème lorsque l"on calcule l"estimé (pour des mesures gaussiennes) par la procédure numérique de Gauss-Newton dans laquelle le Hessien est approché par la MIF évaluée au point de l"itération courante. Le palliatif est alors l" "augmentation » de la MIF selon la méthode de Levenberg-Marquardt [12]. b) Second contre-exemple (tiré de [8]) :

Considérons le vecteur de mesure

bidimensionnel .10,cossin 21
21
Daa XXX ee qqq

Nous supposons encore que

2

ICov=e

Sous l"hypothèse gaussienne, on a

ae-+= qqcos212aaaF X .Donc la MIF n"est jamais nulle et pourtant les paires ()',qq définies par a aveckk tttpqtpqsin2'2 donnent la même mesure sans bruit. Le paramètre q n"est donc pas simplement observable. Il est toutefois localement faiblement obervable.

4. Analyse

Pour mener à bien l"analyse du lien entre

l"observabilité (en un certain sens) et l"inversibilité de la matrice d"information de

Fisher, on a besoin de quelques outils

basiques d"algèbre linéaire et de géométrie différentielle.

Théorème 2

Soit A une ()dn´ matrice ()nd£. Sont

équivalents :

(i) AA T est inversible. (ii)

S" une ()nn´ matrice réelle symétrique

non-singulière, SAA T est inversible. (iii) dARang=)(.

Définition 2 [9]

Pour ()nd£,

nd h®: est une immersion en 0 q si le rang de 0 qq h est égal à d.

Théorème 3 [9]

nd h®: est une immersion en 0 q s"il existe un ouvert 0 q

Ucontenant

0 q tel que le rang de q h est égal quel que soit q dans 0 q U

Corollaire 1 [9]

Si nd h®: est une immersion en 0 q, alors h est localement injective, c"est-à-dire qu"il existe un ouvert 0quotesdbs_dbs1.pdfusesText_1
[PDF] information de fisher loi normale

[PDF] information et création numérique

[PDF] information génétique cours

[PDF] information génétique définition

[PDF] information genetique et division cellulaire

[PDF] information génétique wikipedia

[PDF] informatique 2eme année college

[PDF] informatique 3eme college

[PDF] informatique appliquée cours

[PDF] informatique de gestion pdf s4

[PDF] informatique fondamentale pdf

[PDF] informatique generale et internet

[PDF] informatique s1 smia pdf

[PDF] informe de auditoria de gestion ejemplo

[PDF] informe de auditoria de gestion ejemplos