[PDF] Fisher information and the fourth moment theorem





Previous PDF Next PDF



RAPPELS DE STATISTIQUE M1

Exemple : On a vu plus haut que l'information de Fisher d'un mod`ele d'échantillonnage dans la loi normale est d'autant plus forte que la variance est petite.



Année Universitaire 2006-2007 COURS DE STATISTIQUE

A noter que l'espérance est prise par rapport `a la loi Pθ de X. 3.3.2 Autres expressions de l'information de Fisher. On appelle score la quantité S(x θ) = ∂.



Chapitre 4 Estimation par vraisemblance

covθ ) désigne la matrice de variance (resp. la covariance) sous la loi Pθ . Pour motiver le concept d'information de Fisher supposons pour simpli- fier que Θ 



TD 3 : Information de Fisher méthode du χ 1 Information de Fisher

17 nov. 2009 On se contente donc de calculer l'information de Fisher dans le cas ... Q3 une loi uniforme sur [0θ] avec θ > 0 inconnu. Solution: Pour une ...



Mise `a niveau Comparaison destimateurs

Exemple 3 : la loi uniforme Soit X ∼ U ([0θ]) avec θ ∈ Θ = R∗. +



T. D. n 6 Information de Fisher et maximum de vraisemblance

Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ



Mesure dordre de linformation au sens de Fisher

analogue à celle de CRAMER-RAO pour les valeurs entières de a. 3) Cas de lois normales ou uniformes a) Soit X une variable aléatoire suivant une loi normale 



T. D. n 6 Information de Fisher et maximum de vraisemblance

Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ



TD 5 : Comparaison et optimalité des estimateurs

Si oui calculer l'information de Fisher I1(θ) du modèle à une observation. 2. Donner un estimateur du maximum de vraisemblance ainsi que sa loi limite. 3. Est- 



Test dAjustement à une Loi Normale Vectorielle

8 avr. 2022 ... information de Fisher d'une loi normale mul- tidimensionnelle par la méthode directe est assez long; c'est pourquoi on es-. Page 6. 85 saie d ...



TD 3 : Information de Fisher méthode du ? 1 Information de Fisher

Nov 17 2009 1 Information de Fisher. Calculer l'information de Fisher dans les mod`eles statistiques suivants : Q1 une loi de Poisson de param`etre ? :.



Année Universitaire 2006-2007 COURS DE STATISTIQUE

la loi de X est normale (avec ?2 connue puis ?2 inconnue). IT (?) représente l'information de Fisher au point ? dans le mod`ele (Y; PT ? ) o`u PT.



RAPPELS DE STATISTIQUE M1

Exemple : On a vu plus haut que l'information de Fisher d'un mod`ele d'échantillonnage dans la loi normale est d'autant plus forte que la variance.



T. D. n 6 Information de Fisher et maximum de vraisemblance

Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ



Statistique Inférentielle Avancée

13.2.1 Table 1 de la loi normale centrée réduite . Il y a en fait un lien entre l'exhaustivité et l'information de Fisher comme on le verra plus tard.



Mesure dordre de linformation au sens de Fisher

analogue à celle de CRAMER-RAO pour les valeurs entières de a. 3) Cas de lois normales ou uniformes a) Soit X une variable aléatoire suivant une loi normale 



Modélisation Statistique (MAP-STA1) - M1-Mathématiques

définition mathématique de l'information (de Fisher) et indépendantes X et Y de même loi ... converge en loi sous IP?? vers une loi normale :.



Fisher information and the fourth moment theorem

au sens de l'information de Fisher vers la loi gaussienne d'une suite d'éléments de convergence associée pour la convergence normale d'une version ...



Sur lEstimateur du Maximum de Vraisemblance (emv)

Jan 9 2017 L'information de Fisher caractérise la borne de Cramer-Rao ; on a ... converge en loi vers une var Z suivant la loi normale N(0



T. D. n 6 Information de Fisher et maximum de vraisemblance

Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ

www.imstat.org/aihpAnnales de l"Institut Henri Poincaré - Probabilités et Statistiques

2016, Vol. 52, No. 2, 849-867

DOI:10.1214/14-AIHP656

© Association des Publications de l"Institut Henri Poincaré, 2016

Fisher information and the fourth moment theorem

Ivan Nourdin

a,1 and David Nualart b,2 a

FSTC-UR en Mathématiques, Université du Luxembourg, 6 rue Richard Coudenhove-Kalergi, Luxembourg City, 1359, Luxembourg.

E-mail:ivan.nourdin@uni.lub

Department of Mathematics, University of Kansas, Lawrence, KS 66045, USA. E-mail:nualart@ku.edu Received 20 December 2013; revised 9 October 2014; accepted 11 October 2014

Abstract.Using a representation of the score function by means of the divergence operator, we exhibit a sufficient condition,

in terms of the negative moments of the norm of the Malliavin derivative under which, convergence in Fisher information to the

standard Gaussian of sequences belonging to a given Wiener chaos is actually equivalent to convergence of only the fourth moment.

Thus, our result may be considered as a further building block associated to the recent but already rich literature dedicated to the

Fourth Moment Theorem of Nualart and Peccati (

Ann. Probab.33(2005) 177-193). To illustrate the power of our approach, we

prove a local limit theorem together with some rates of convergence for the normal convergence of a standardized version of the

quadratic variation of the fractional Brownian motion.

Résumé.À l"aide d"une représentation de la fonction score au moyen de l"opérateur de divergence, nous mettons en évidence une

condition suffisante, exprimée en terme de moments négatifs de la norme de la dérivée de Malliavin, sous laquelle la convergence

au sens de l"information de Fisher vers la loi gaussienne d"une suite d"éléments appartenant à un chaos de Wiener fixé se trouve

être équivalente à la simple convergence du moment quatrième. Nos résultats peuvent être vus comme une nouvelle pierre apportée

à l"édification de la récente mais déjà riche littérature dédiée au théorème du moment quatrième de Nualart and Peccati (Ann.

Probab.33(2005) 177-193). Pour illustrer notre approche, nous prouvons un théorème de la limite locale, avec calcul de la vitesse

de convergence associée, pour la convergence normale d"une version renormalisée de la variation quadratique du mouvement

brownien fractionnaire.MSC:60H07; 94A17; 60G22

Keywords:Fisher information; Total variation distance; Relative entropy; Fourth moment theorem; Fractional Brownian motion; Malliavin

calculus

1. Introduction

Measuring the discrepancy between the law of a given real-valued random variableFand that of itsGaussiancoun-

terpartN, is arguably an important and recurrent problem both in probability and statistics. For instance, one faces

this situation when trying to prove a central limit type theorem, or when wanting to check the asymptotic normality

of an estimator. And quite often, the choice of a suitable probability metric proves to be a crucial step.

In the present paper, we are concerned with this question within the framework of the Malliavin calculus. More

precisely, we will focus on the Wiener chaos of a given order and, as a way to measure the proximity betweens laws,

we will work either with theLr -distance between densities (especially forr=1 andr=?), or with the relative

entropyD(F?N), or with the relative Fisher informationJ(F)Š1. These three notions, which we now recall, are

strongly related to each other.1

Supported in part by the ANR grant “Malliavin, Stein and Stochastic Equations with Irregular Coefficients" [ANR-10-BLAN-0121].

2

Supported by the NSF Grant DMS-12-08625.

850I. Nourdin and D. Nualart

LetFbe a centered real-valued random variable with unit variance and densityp F . We suppose throughout that all required assumptions onp F (such as its strictly positivity, differentiability, etc.) are always satisfied. Let also

NηN(0,1)be standard Gaussian, with densityp

N (x)=e x 2 /2 /θ2?,xξR. TheL r -distancebetween densities ofFandNis given by εp F Šp N r R p F (x)Šp N (x) r d x 1/r ,rξ[1,φ); (1.1) εp F Šp N =sup xξR p F (x)Šp N (x)(assuming, say, thatp F is continuous).

Actually, in what follows we will only consider the particular casesr=1 andr=φ. This is because the bounds

we will produce are going to be of the same order. So a bound for theL r -distance will simply follow from the crude estimate: εp F Šp N r

Ωεp

F Šp N 1/r 1 εp F Šp N

1Š1/rφ

Whenr=1in(1.1), it is an easy exercise (sometimes referred to as Scheffé"s theorem) to show thatεp

F Šp N 1 2 d TV (F,N), whered TV (F,N)is thetotal variation distancedefined as d TV (F,N)=sup A

ξB(R)

P(FξA)ŠP(NξA).(1.2)

It is clear from its very definition (1.2) thatd

TV (F,N)represents a strong measure on how close the laws ofFandN are. Therelative entropyD(FεN)ofFwith respect toNis given by

D(FεN)=

R p F (x)logp F (x)/p N (x)dx.(1.3)

Our interestin this quantitycomesfrom its link with the totalvariation distance,asprovidedby the celebratedCsiszár-

Kullback-Pinsker inequality, according to which:

2 d TV (F,N) 2

ΩD(FεN).(1.4)

(In particular, note thatD(FεN)σ0.) See, e.g., [6] for a proof of (1.4) and original references.

Inequality (1.4) shows that bounds on the relative entropy translate directly into bounds on the total variation

distance. Hence, it makes perfectly sense to quantify the discrepancy between the law ofFand that of the standard

GaussianNin terms of its relative entropy. Actually, one can go even further by considering theFisher information

J(F)ofF. Let us recall its definition. Lets

F (F)denote thescoreassociated toF. This is theF-measurable random variable uniquely determined by the following integration by parts: E (F)=ŠEs F (F)(F)for all test functions:R?R.(1.5)

When it makes sense, it is easy to compute thats

F =p ∂F /p F . Set

J(F)=Es

F (F) 2 (1.6) if the random variables F (F)is square-integrable andJ(F)=+φotherwise. In the former case, it is a straightfor- ward exercise to check that

J(F)Š1=Es

F (F)+F 2

In particular,J(F)σ1=J(N)with equality if and only ifFis standard Gaussian. Our interest in the relative Fisher

informationJ(F)Š1 comes from its link with the relative entropy through the following de Bruijn"s formula (stated

Fisher information and the fourth moment theorem851

in an integral and rescaled version due to Barron [4];seealso[14], Theorem C.1). Assume, without loss of generality,

thatFandNare independent; then

D(FεN)=?

1 0

J(θtF+θ1ŠtN)Š1

2 tdt.(1.7)

Since from, e.g., [14], Lemma 1.21, one hasJ(θ

deduce that

D(FεN)Ω1

2?J(F)Š1?.(1.8)

By comparing (

1.8) with (1.4), we observe that the gap betweenJ(F)and 1=J(N)is an even stronger measure

of how close the law ofFis to the standard GaussianN. This claim is even more supported by the Shimizu"s

inequality [ 34
], which gives aL -bound betweenp F andp N providedp F is continuous and satisfiesx 2 p F (x)?0 asx?±φ: εp F Šp N

Ω?J(F)Š1.(1.9)

(In the original statement of Shimizu [34], there is actually an extra factor(1+θ 6 )in the right-hand side of (1.9); but this latter was removed by Ley and Swan in [18].)

2. Main results

In this section we present the main results of this paper. From now on, we will systematically assume thatFbelongs

to a Wiener chaosH q of orderqσ2, that is, has the form of aqth multiple Wiener-Itô integral (see Section2below

for precise definitions). Our first result is the following, withεDFεthe norm of the Malliavin derivative ofF(again,

see Section2for details).

Theorem 2.1.Letqσ2be an integer and letFξH

q have variance one.Assume in addition that>0and>0 satisfy E ?εDFε 4Š ?Ω.(2.1) Then ,there exists a constantc>0,depending onq,andbutnotonF,such that

J(F)Š1Ωc?E?F

4 ?Š3?.(2.2)

In the next result, we take advantage of the conclusion (2.2) of Theorem2.1to complete the current state of the

art related to theFourth Moment Theoremof Nualart and Peccati [31]. See also the discussion located just after the

statement of Corollary2.2.

Corollary 2.2.Fixanintegerqσ2,and let(F

n )δH q be a sequence of random variables satisfyingE[F 2n ]=1for alln.Then,the following four assertions are equivalent asn?φ: (a)E[F 4n ]?3; (b)F nlaw ?NηN(0,1); (c)d TV (F n ,N)= 1 2 εp F n Šp N 1 ?0; (d)D(F n

εN)?0.

Moreover,there existsc

1 ,cquotesdbs_dbs13.pdfusesText_19
[PDF] information et création numérique

[PDF] information génétique cours

[PDF] information génétique définition

[PDF] information genetique et division cellulaire

[PDF] information génétique wikipedia

[PDF] informatique 2eme année college

[PDF] informatique 3eme college

[PDF] informatique appliquée cours

[PDF] informatique de gestion pdf s4

[PDF] informatique fondamentale pdf

[PDF] informatique generale et internet

[PDF] informatique s1 smia pdf

[PDF] informe de auditoria de gestion ejemplo

[PDF] informe de auditoria de gestion ejemplos

[PDF] informe de investigacion ejemplo pdf