[PDF] Corrigé : Feuille de travaux dirigés 3





Previous PDF Next PDF



TD 3 : Information de Fisher méthode du ? 1 Information de Fisher

Dhu?l-Q. 29 1430 AH Calculer l'information de Fisher dans les mod`eles statistiques ... en effet



TD no 7 : Information de Fisher et vraisemblance

In(?) = n. 3(1 + ?)2 . Exercice 3. La durée de vie en heures d'un certain type d'ampoule peut être modélisée par une.



Année Universitaire 2006-2007 COURS DE STATISTIQUE

3.1 Un exemple introductif. 3.2 Exhaustivité. 3.3 Information de Fisher. 4. L'estimation ponctuelle. 4.1 Définition d'un estimateur.



Observabilité et inversibilité de la matrice dinformation de Fisher

Le palliatif est alors l' «augmentation » de la MIF selon la méthode de Levenberg-Marquardt [12]. b) Second contre-exemple (tiré de [8]) : Considérons le 



Information de Fisher

En termes simples moins une observation est probable



Mise `a niveau Comparaison destimateurs

Information de Fisher. Inégalité de l'Information et borne de Cramer-Rao. Efficacité asymptotique. EXEMPLES. Exemple 1 : la loi exponentielle Soit X ? E(?) 



Statistiques mathématiques

L'analyse statistique aura alors pour but par exemple de déterminer (toujours au vu des Exemple 3.5 (Information de Fisher pour une v.a. gaussienne):.



Corrigé : Feuille de travaux dirigés 3

Il reste à calculer sa variance et l'information de Fisher I1(?). Un calcul similaire à celui de la question 1. donne Var?(X1) = ? d'où. Var?(S(X)) =.



Problèmes inverses Partie 2 — Chapitre 3 Estimation par maximum

Définition. Info. de K.-L. EMV : consistance. Info. de Fisher norm. asympt. Effic. asympt. Int. conf. et test de Wald. Vraisemblance. Un exemple discret.



UV Statistique Cours n°5/6

Information de Fisher. • Exemple : Calculer l'information apportée par une observation sur le paramètre µ d'une loi normale ou ?2 est connu.

MDI 220 Statistiques année 2019/2020

Corrigé : Feuille de travaux dirigés 3

Solution Exercice 1On aXii.i.d.≂ Poiss(λ). Le modèle pour une observation estP= {Poiss(λ),λ >0}. Le paramètre estλet l"espace des paramètres estΛ =]0,+∞[. 1. On a E

λ(X1) =?

k≥0kλkk!e-λ k≥1kλk-1(k-1)!e-λ k≥0λ k(k)!e-λ Donc en considérant l"observationX= (X1,...,Xn)et en posant

S(X) =1n

n i=1X i

On a (par linéarité de l"espérance)

E

λ(S(X)) =1n

n i=1E

λ(Xi) =λ.

Le biais deSen tant qu"estimateur deλ, est donc biais(S,λ) =Eλ(S(X))-λ= 0, de sorte queSest un estimateur non biaisé deλ. 2. On est dans le cadre de l"estimation d"une fonction du paramètre, θ=g(λ) =e-λ. (a) Un estimateur est une fonction des données, donc S

1(X) =e-S(X)

est un estimateur deθ, qui parait " raisonnable » puisqueSestime sans biaisλ. CependantS1est biaisé. En effet, puisque la fonctiongest strictement convexe, et puisque la variable aléatoireY=S(X) : Ω→R+n"est pas constante, on a g(E(Y))0etS1est biaisé. - 1 -

MDI 220 Statistiques année 2019/2020

(b) Un estimate urno nbiaisé de θ=e-λest une statistiqueS2telle queEλ(S2(X)) = e -λ. On remarque quee-λ=Pλ(X1= 0) =E?? {0}(X1)?, où?est la fonction indicatrice :?A(x) =? ?1six?A

0sinon.

Ainsi, en posant

S

2(X) =1n

n i=1? {0}(Xi) on a bienEλ(S2(X)) =1n ni=1Pλ(Xi= 0) =e-λ. 3. Efficac itédes estimateurs : rapp elonsqu"un estimateur S(X)non-biaisé d"une quan- titég(λ)?Rest appeléefficacelorsqueVarλ(S2) =g?(λ)2/I(λ), oùI(λ)est l"infor- mation de Fisher relative à l"observationX, lorsqueX≂Pλ. Dans le cas oùX= (X1,...,Xn)est un échantillon i.i.d. , avecXi≂Pλ, le vecteurXest distribué selon la loi produitP?nλet l"information de Fisher pour le n-échantillon estI(λ) =nI1(λ), oùI1(λ)est l"information de Fisher pour une seule observationX1≂Pλ. (a)S1est biaisé donc il ne peut pas être efficace. (b)Sest non biaisé. Il reste à calculer sa variance et l"information de FisherI1(λ). Un calcul similaire à celui de la question 1. donneVarλ(X1) =λ, d"où

Varλ(S(X)) =1n

2×Varλ(n

i=1X i) =1n

2×n

i=1Varλ(Xi) =λn où l"on a utilisé l"indépendance desXipour que la variance de la somme soit la somme des variances. Calculons l"information de Fisher pour une observation. Ici, le modèle est dominé par la mesure discrète surN,μ=? i?Nδi, et la densité par rapport à cette mesure de référence estpλ(x) =Pλ(X=x) =λx/x!e-λ. I

1(λ) =Eλ?

??∂logpλ(X1)∂λ 2? =Eλ? 2? =Eλ?(X1/λ-1)2? 1λ

2E?(X1-λ)2?

2Varλ(X1)

= 1/λ D"où, pournobservations,I(λ) =nI1(λ) =n/λ. - 2 -

MDI 220 Statistiques année 2019/2020

On peut conclure : l"estimateurSdeλest non biaisé et vérifie : ?λ >0,Varλ(S(X)) =λn =1I(λ). DoncSatteint la borne de Cramér-Rao (car icig0(λ) =λ, de sorte queg?(λ) =

1), c"est-à-direSest efficace.

(c) Puisque S2est un estimateur deg(λ), non biaisé,S2est efficace si et seulement siS2atteint la borne de Cramér-Rao, qui vaut g ?(λ)2/I(λ) =λe-2λ/n. On remarque que les variables aléatoiresZi=?{0}(Xi)sont des variables de Bernoulli de paramètrep=P(Xi= 0) =e-λ. Ainsi,nS2suit une loi binomiale de paramètres(n,p=e-λ), de sorte queVarλ(S2) =e-λ(1-e-λ)/n. D"après le cours (on admet que le modèle est régulier), on a pour toutλ Varλ(S2) =e-λ(1-e-λ)/n≥g?(λ)2/I(λ) =λe-2λ/n De plus, l"inégalité est stricte pour au moins une valeur deλ(prendreλ= 1), doncS2n"est pas efficace.

Solution Exercice 2[parametre de translation]

Remarque préliminaire : le modèle n"est pas régulier car l"ensemble des pointsxtels quepθ(x)>0dépend deθ(c"est ensemble est[θ,+∞[). 1. l"esp érancede X1vaut E

θ(X1) =?

θxeθ-xdxcalcul simple=θ+ 1.

En prenant

?θn(X) =1n ?(Xi)-1, on a bien par linéarité de l"espérance E

θ(?θn(X)) =1n

iE(Xi)-1 =θ. Ainsi ?θnest non biaisé. 2. Risque quadratique : P ourθ >0, il est donnée par

R(θ,?θn) =E?(?θn(X)-θ)2?

et puiqueE(?θn(X)) =θ, on aR(θ,?θn) =Varθ(?θn(X)). De plus, pour une observation X

1≂Pθ,

Varθ(X1) =?

θ(x-θ-1)2eθ-xdx

0(t-1)2e-tdt

?-(t-1)2e-t?∞ 0+ 2?

0(t-1)e-t

0 = 1. - 3 -

MDI 220 Statistiques année 2019/2020

Ainsi, par indépendance desXi,

Varθ(?θn(X)) =1n

Varθ(X1) =1n

3.

On considère

˜θn(X) = minni=1Xi.

Remarque :l"idée de choisir˜θnvient du fait queθest la borne inférieur des

Pour calculer la loi de

˜θn(X), il est dans ce cas plus facile de calculer sa fonction de répartition que sa densité (à supposer que cette dernière existe). En effet, si on appelle˜Fθcette fonction de répartition, on a

1-˜Fθ(x) =Pθ(˜θn(X)> x)

=Pθ[∩ni=1Xi> x] n i=1P

θ(Xi> n) (indépendance)

=Pθ(X1> x)n. Reste à calculer cette dernière quantité en intégrant la densité deX1, ce qui donne ?x≥θ,Pθ(X1> x) =? xeθ-tdt=eθ-x,

Fθ(x) = 1-e-nmax(x-θ,0).

4.

Puisque

˜Fθ(θ) = 0, on a, avec probabilité 1,˜θn(X)≥θ. Ainsi,la variable aléatoire

Z=˜θn(X)-θest presque surement positive. Comme elle n"est pas constante, sont espérance est strictement positive. D"où :˜θnest biaisé. 5.

Le risque quadratique de

˜θnestR(θ,˜θn) =E[(θ-˜θn(X))2]. On utilise le fait que pour une variable aléatoireY: Ω→R+,E(Y) =?+ t=0∞P(Y > t)dt. On pose

Y= (˜θn-θ)2. Alors, pourt≥0,Pθ(Y > t) =P(˜θn-θ >⎷t)car avec probabilité

- 4 -

MDI 220 Statistiques année 2019/2020

1,

˜θn-θ≥0. Ainsi,

R(θ,˜θn) =E(Y)

t=0Pθ(Y > t)dt t=0Pθ(˜θn-θ >⎷t)dt t=0Pθ(˜θn-θ >⎷t)dt t=0e-n⎷t dt(cf question précédente) u=0e-nu2udu 2n 2? r=0e-rrdr 2n 2 6.

Lorsque nest plus grand que2, on a

?θ, R(θ,˜θn) = 2/n2<1/n=R(θ,?θn). Le risque du deuxième estimateur (qui est pourtant biaisé) est uniformément plus faible que celui du premier estimateur.˜θnest donc préférable à?θn. Solution Exercice 3X= (X1,...,Xn)un éhantillon i.i.d. oùXi≂ Ber(θ)(θ?]0,1[). 1.

On considère

¯X=1n

ni=1Xicomme estimateur deθ. Pour que¯Xsoit efficace, il faut et il suffit que (i) ¯Xsoit non biaisé et (ii) la variance de¯Xatteigne la borne de Cramer-Rao pour le modèle de Bernoulli avecnobservations. -¯Xest sans biais carE(¯X) =1n ?E(Xi) =E(X1) =θ.

La v ariancede

¯Xest

2? iVar(Xi) =θ(1-θ)n Ca lculonsl"information de Fisher p ourune observ ation: T outd"ab ord,la mesure de référence estμ=δ0+δ1et la densité de la loiPθpar rapport àμest ?x? {0,1}, pθ(x) =θx(1-θ)1-x. (en effet, on vérifie que l"on apθ(1) =θ=Pθ(X1= 1)etpθ(0) = 1-θ= P

θ(X1= 0). Ainsi

?x? {0,1},?θ?]0,1[,∂logpθ(x)∂θ =xθ -1-x1-θ=x-θθ(1-θ) - 5 -

MDI 220 Statistiques année 2019/2020

D"où

I

1(θ) =Eθ(∂logpθ(X1)∂θ

)2 =Eθ? (X1-θθ(1-θ))2? 1θ

2(1-θ)2Varθ(X1)

1θ(1-θ).

D"où, pournobservations,I(θ) =nI1(θ) =nθ(1-θ).

Conclusion :

¯Xest non biaisé etVarθ(X) = 1/I(θ), pour toutθ?]0,1[donc¯Xest efficace. 2. On c herchemain tenantun estimateur de la v ariancedes Xi,g(θ) =Varθ(X1) = θ(1-θ). Puisque¯Xest un estimateur non biaisé deθ, l"estimateurS(X) =¯X(1-¯X) est un candidat naturel pour estimerg(θ). Pourtant il est biaisé : E

θ[S(X)] =Eθ(¯X)-Eθ(¯X2) =θ-1n

2? n? i=1E(X2i) + 2? iθ2? car par indépendanceE(XiXj) =E(Xi)E(Xj) =θ2 =θ-1n

θ+ (n-1)θ2?

= (1-1n )θ(1-θ)< θ(1-θ) On cherche un estimateur non biaisé de la forme v=ηS. C"est-à-dire, on cherche à "débiaiser"Sen le multipliant par une constante. D"après ce qui précède, si l"on prendη=11-1n =nn-1, on a E ?v(X) =ηES(X) =θ(1-θ), de sorte que ?vest non biaisé. - 6 -quotesdbs_dbs1.pdfusesText_1
[PDF] information de fisher loi normale

[PDF] information et création numérique

[PDF] information génétique cours

[PDF] information génétique définition

[PDF] information genetique et division cellulaire

[PDF] information génétique wikipedia

[PDF] informatique 2eme année college

[PDF] informatique 3eme college

[PDF] informatique appliquée cours

[PDF] informatique de gestion pdf s4

[PDF] informatique fondamentale pdf

[PDF] informatique generale et internet

[PDF] informatique s1 smia pdf

[PDF] informe de auditoria de gestion ejemplo

[PDF] informe de auditoria de gestion ejemplos