RAPPELS DE STATISTIQUE M1
Exemple : On a vu plus haut que l'information de Fisher d'un mod`ele d'échantillonnage dans la loi normale est d'autant plus forte que la variance est petite.
Année Universitaire 2006-2007 COURS DE STATISTIQUE
A noter que l'espérance est prise par rapport `a la loi Pθ de X. 3.3.2 Autres expressions de l'information de Fisher. On appelle score la quantité S(x θ) = ∂.
Chapitre 4 Estimation par vraisemblance
covθ ) désigne la matrice de variance (resp. la covariance) sous la loi Pθ . Pour motiver le concept d'information de Fisher supposons pour simpli- fier que Θ
TD 3 : Information de Fisher méthode du χ 1 Information de Fisher
17 nov. 2009 On se contente donc de calculer l'information de Fisher dans le cas ... Q3 une loi uniforme sur [0θ] avec θ > 0 inconnu. Solution: Pour une ...
Mise `a niveau Comparaison destimateurs
Exemple 3 : la loi uniforme Soit X ∼ U ([0θ]) avec θ ∈ Θ = R∗. +
T. D. n 6 Information de Fisher et maximum de vraisemblance
Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ
Mesure dordre de linformation au sens de Fisher
analogue à celle de CRAMER-RAO pour les valeurs entières de a. 3) Cas de lois normales ou uniformes a) Soit X une variable aléatoire suivant une loi normale
T. D. n 6 Information de Fisher et maximum de vraisemblance
Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ
TD 5 : Comparaison et optimalité des estimateurs
Si oui calculer l'information de Fisher I1(θ) du modèle à une observation. 2. Donner un estimateur du maximum de vraisemblance ainsi que sa loi limite. 3. Est-
Test dAjustement à une Loi Normale Vectorielle
8 avr. 2022 ... information de Fisher d'une loi normale mul- tidimensionnelle par la méthode directe est assez long; c'est pourquoi on es-. Page 6. 85 saie d ...
TD 3 : Information de Fisher méthode du ? 1 Information de Fisher
Nov 17 2009 1 Information de Fisher. Calculer l'information de Fisher dans les mod`eles statistiques suivants : Q1 une loi de Poisson de param`etre ? :.
Année Universitaire 2006-2007 COURS DE STATISTIQUE
la loi de X est normale (avec ?2 connue puis ?2 inconnue). IT (?) représente l'information de Fisher au point ? dans le mod`ele (Y; PT ? ) o`u PT.
RAPPELS DE STATISTIQUE M1
Exemple : On a vu plus haut que l'information de Fisher d'un mod`ele d'échantillonnage dans la loi normale est d'autant plus forte que la variance.
T. D. n 6 Information de Fisher et maximum de vraisemblance
Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ
Statistique Inférentielle Avancée
13.2.1 Table 1 de la loi normale centrée réduite . Il y a en fait un lien entre l'exhaustivité et l'information de Fisher comme on le verra plus tard.
Mesure dordre de linformation au sens de Fisher
analogue à celle de CRAMER-RAO pour les valeurs entières de a. 3) Cas de lois normales ou uniformes a) Soit X une variable aléatoire suivant une loi normale
Modélisation Statistique (MAP-STA1) - M1-Mathématiques
définition mathématique de l'information (de Fisher) et indépendantes X et Y de même loi ... converge en loi sous IP?? vers une loi normale :.
Fisher information and the fourth moment theorem
au sens de l'information de Fisher vers la loi gaussienne d'une suite d'éléments de convergence associée pour la convergence normale d'une version ...
Sur lEstimateur du Maximum de Vraisemblance (emv)
Jan 9 2017 L'information de Fisher caractérise la borne de Cramer-Rao ; on a ... converge en loi vers une var Z suivant la loi normale N(0
T. D. n 6 Information de Fisher et maximum de vraisemblance
Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ
2016, Vol. 52, No. 2, 849-867
DOI:10.1214/14-AIHP656
© Association des Publications de l"Institut Henri Poincaré, 2016Fisher information and the fourth moment theorem
Ivan Nourdin
a,1 and David Nualart b,2 aFSTC-UR en Mathématiques, Université du Luxembourg, 6 rue Richard Coudenhove-Kalergi, Luxembourg City, 1359, Luxembourg.
E-mail:ivan.nourdin@uni.lub
Department of Mathematics, University of Kansas, Lawrence, KS 66045, USA. E-mail:nualart@ku.edu Received 20 December 2013; revised 9 October 2014; accepted 11 October 2014Abstract.Using a representation of the score function by means of the divergence operator, we exhibit a sufficient condition,
in terms of the negative moments of the norm of the Malliavin derivative under which, convergence in Fisher information to the
standard Gaussian of sequences belonging to a given Wiener chaos is actually equivalent to convergence of only the fourth moment.
Thus, our result may be considered as a further building block associated to the recent but already rich literature dedicated to the
Fourth Moment Theorem of Nualart and Peccati (
Ann. Probab.33(2005) 177-193). To illustrate the power of our approach, weprove a local limit theorem together with some rates of convergence for the normal convergence of a standardized version of the
quadratic variation of the fractional Brownian motion.Résumé.À l"aide d"une représentation de la fonction score au moyen de l"opérateur de divergence, nous mettons en évidence une
condition suffisante, exprimée en terme de moments négatifs de la norme de la dérivée de Malliavin, sous laquelle la convergence
au sens de l"information de Fisher vers la loi gaussienne d"une suite d"éléments appartenant à un chaos de Wiener fixé se trouve
être équivalente à la simple convergence du moment quatrième. Nos résultats peuvent être vus comme une nouvelle pierre apportée
à l"édification de la récente mais déjà riche littérature dédiée au théorème du moment quatrième de Nualart and Peccati (Ann.
Probab.33(2005) 177-193). Pour illustrer notre approche, nous prouvons un théorème de la limite locale, avec calcul de la vitesse
de convergence associée, pour la convergence normale d"une version renormalisée de la variation quadratique du mouvement
brownien fractionnaire.MSC:60H07; 94A17; 60G22Keywords:Fisher information; Total variation distance; Relative entropy; Fourth moment theorem; Fractional Brownian motion; Malliavin
calculus1. Introduction
Measuring the discrepancy between the law of a given real-valued random variableFand that of itsGaussiancoun-
terpartN, is arguably an important and recurrent problem both in probability and statistics. For instance, one faces
this situation when trying to prove a central limit type theorem, or when wanting to check the asymptotic normality
of an estimator. And quite often, the choice of a suitable probability metric proves to be a crucial step.
In the present paper, we are concerned with this question within the framework of the Malliavin calculus. More
precisely, we will focus on the Wiener chaos of a given order and, as a way to measure the proximity betweens laws,
we will work either with theLr -distance between densities (especially forr=1 andr=?), or with the relativeentropyD(F?N), or with the relative Fisher informationJ(F)1. These three notions, which we now recall, are
strongly related to each other.1Supported in part by the ANR grant Malliavin, Stein and Stochastic Equations with Irregular Coefficients" [ANR-10-BLAN-0121].
2Supported by the NSF Grant DMS-12-08625.
850I. Nourdin and D. Nualart
LetFbe a centered real-valued random variable with unit variance and densityp F . We suppose throughout that all required assumptions onp F (such as its strictly positivity, differentiability, etc.) are always satisfied. Let alsoNηN(0,1)be standard Gaussian, with densityp
N (x)=e x 2 /2 /θ2?,xξR. TheL r -distancebetween densities ofFandNis given by εp F p N r R p F (x)p N (x) r d x 1/r ,rξ[1,φ); (1.1) εp F p N =sup xξR p F (x)p N (x)(assuming, say, thatp F is continuous).Actually, in what follows we will only consider the particular casesr=1 andr=φ. This is because the bounds
we will produce are going to be of the same order. So a bound for theL r -distance will simply follow from the crude estimate: εp F p N rΩεp
F p N 1/r 1 εp F p N11/rφ
Whenr=1in(1.1), it is an easy exercise (sometimes referred to as Scheffé"s theorem) to show thatεp
F p N 1 2 d TV (F,N), whered TV (F,N)is thetotal variation distancedefined as d TV (F,N)=sup AξB(R)
P(FξA)P(NξA).(1.2)
It is clear from its very definition (1.2) thatd
TV (F,N)represents a strong measure on how close the laws ofFandN are. Therelative entropyD(FεN)ofFwith respect toNis given byD(FεN)=
R p F (x)logp F (x)/p N (x)dx.(1.3)Our interestin this quantitycomesfrom its link with the totalvariation distance,asprovidedby the celebratedCsiszár-
Kullback-Pinsker inequality, according to which:
2 d TV (F,N) 2ΩD(FεN).(1.4)
(In particular, note thatD(FεN)σ0.) See, e.g., [6] for a proof of (1.4) and original references.
Inequality (1.4) shows that bounds on the relative entropy translate directly into bounds on the total variation
distance. Hence, it makes perfectly sense to quantify the discrepancy between the law ofFand that of the standard
GaussianNin terms of its relative entropy. Actually, one can go even further by considering theFisher information
J(F)ofF. Let us recall its definition. Lets
F (F)denote thescoreassociated toF. This is theF-measurable random variable uniquely determined by the following integration by parts: E (F)=Es F (F)(F)for all test functions:R?R.(1.5)When it makes sense, it is easy to compute thats
F =p ∂F /p F . SetJ(F)=Es
F (F) 2 (1.6) if the random variables F (F)is square-integrable andJ(F)=+φotherwise. In the former case, it is a straightfor- ward exercise to check thatJ(F)1=Es
F (F)+F 2In particular,J(F)σ1=J(N)with equality if and only ifFis standard Gaussian. Our interest in the relative Fisher
informationJ(F)1 comes from its link with the relative entropy through the following de Bruijn"s formula (stated
Fisher information and the fourth moment theorem851in an integral and rescaled version due to Barron [4];seealso[14], Theorem C.1). Assume, without loss of generality,
thatFandNare independent; thenD(FεN)=?
1 0J(θtF+θ1tN)1
2 tdt.(1.7)Since from, e.g., [14], Lemma 1.21, one hasJ(θ
deduce thatD(FεN)Ω1
2?J(F)1?.(1.8)
By comparing (
1.8) with (1.4), we observe that the gap betweenJ(F)and 1=J(N)is an even stronger measure
of how close the law ofFis to the standard GaussianN. This claim is even more supported by the Shimizu"s
inequality [ 34], which gives aL -bound betweenp F andp N providedp F is continuous and satisfiesx 2 p F (x)?0 asx?±φ: εp F p N
Ω?J(F)1.(1.9)
(In the original statement of Shimizu [34], there is actually an extra factor(1+θ 6 )in the right-hand side of (1.9); but this latter was removed by Ley and Swan in [18].)2. Main results
In this section we present the main results of this paper. From now on, we will systematically assume thatFbelongs
to a Wiener chaosH q of orderqσ2, that is, has the form of aqth multiple Wiener-Itô integral (see Section2belowfor precise definitions). Our first result is the following, withεDFεthe norm of the Malliavin derivative ofF(again,
see Section2for details).Theorem 2.1.Letqσ2be an integer and letFξH
q have variance one.Assume in addition that>0and>0 satisfy E ?εDFε 4 ?Ω.(2.1) Then ,there exists a constantc>0,depending onq,andbutnotonF,such thatJ(F)1Ωc?E?F
4 ?3?.(2.2)In the next result, we take advantage of the conclusion (2.2) of Theorem2.1to complete the current state of the
art related to theFourth Moment Theoremof Nualart and Peccati [31]. See also the discussion located just after the
statement of Corollary2.2.Corollary 2.2.Fixanintegerqσ2,and let(F
n )δH q be a sequence of random variables satisfyingE[F 2n ]=1for alln.Then,the following four assertions are equivalent asn?φ: (a)E[F 4n ]?3; (b)F nlaw ?NηN(0,1); (c)d TV (F n ,N)= 1 2 εp F n p N 1 ?0; (d)D(F nεN)?0.
Moreover,there existsc
1 ,cquotesdbs_dbs13.pdfusesText_19[PDF] information génétique cours
[PDF] information génétique définition
[PDF] information genetique et division cellulaire
[PDF] information génétique wikipedia
[PDF] informatique 2eme année college
[PDF] informatique 3eme college
[PDF] informatique appliquée cours
[PDF] informatique de gestion pdf s4
[PDF] informatique fondamentale pdf
[PDF] informatique generale et internet
[PDF] informatique s1 smia pdf
[PDF] informe de auditoria de gestion ejemplo
[PDF] informe de auditoria de gestion ejemplos
[PDF] informe de investigacion ejemplo pdf