TD 3 : Information de Fisher méthode du ? 1 Information de Fisher
Dhu?l-Q. 29 1430 AH Calculer l'information de Fisher dans les mod`eles statistiques ... en effet
TD no 7 : Information de Fisher et vraisemblance
In(?) = n. 3(1 + ?)2 . Exercice 3. La durée de vie en heures d'un certain type d'ampoule peut être modélisée par une.
Année Universitaire 2006-2007 COURS DE STATISTIQUE
3.1 Un exemple introductif. 3.2 Exhaustivité. 3.3 Information de Fisher. 4. L'estimation ponctuelle. 4.1 Définition d'un estimateur.
Observabilité et inversibilité de la matrice dinformation de Fisher
Le palliatif est alors l' «augmentation » de la MIF selon la méthode de Levenberg-Marquardt [12]. b) Second contre-exemple (tiré de [8]) : Considérons le
Information de Fisher
En termes simples moins une observation est probable
Mise `a niveau Comparaison destimateurs
Information de Fisher. Inégalité de l'Information et borne de Cramer-Rao. Efficacité asymptotique. EXEMPLES. Exemple 1 : la loi exponentielle Soit X ? E(?)
Statistiques mathématiques
L'analyse statistique aura alors pour but par exemple de déterminer (toujours au vu des Exemple 3.5 (Information de Fisher pour une v.a. gaussienne):.
Corrigé : Feuille de travaux dirigés 3
Il reste à calculer sa variance et l'information de Fisher I1(?). Un calcul similaire à celui de la question 1. donne Var?(X1) = ? d'où. Var?(S(X)) =.
Problèmes inverses Partie 2 — Chapitre 3 Estimation par maximum
Définition. Info. de K.-L. EMV : consistance. Info. de Fisher norm. asympt. Effic. asympt. Int. conf. et test de Wald. Vraisemblance. Un exemple discret.
UV Statistique Cours n°5/6
Information de Fisher. • Exemple : Calculer l'information apportée par une observation sur le paramètre µ d'une loi normale ou ?2 est connu.
MDI 220 Statistiques année 2019/2020
Corrigé : Feuille de travaux dirigés 3
Solution Exercice 1On aXii.i.d.≂ Poiss(λ). Le modèle pour une observation estP= {Poiss(λ),λ >0}. Le paramètre estλet l"espace des paramètres estΛ =]0,+∞[. 1. On a Eλ(X1) =?
k≥0kλkk!e-λ k≥1kλk-1(k-1)!e-λ k≥0λ k(k)!e-λ Donc en considérant l"observationX= (X1,...,Xn)et en posantS(X) =1n
n i=1X iOn a (par linéarité de l"espérance)
Eλ(S(X)) =1n
n i=1Eλ(Xi) =λ.
Le biais deSen tant qu"estimateur deλ, est donc biais(S,λ) =Eλ(S(X))-λ= 0, de sorte queSest un estimateur non biaisé deλ. 2. On est dans le cadre de l"estimation d"une fonction du paramètre, θ=g(λ) =e-λ. (a) Un estimateur est une fonction des données, donc S1(X) =e-S(X)
est un estimateur deθ, qui parait " raisonnable » puisqueSestime sans biaisλ. CependantS1est biaisé. En effet, puisque la fonctiongest strictement convexe, et puisque la variable aléatoireY=S(X) : Ω→R+n"est pas constante, on a g(E(Y))MDI 220 Statistiques année 2019/2020
(b) Un estimate urno nbiaisé de θ=e-λest une statistiqueS2telle queEλ(S2(X)) = e -λ. On remarque quee-λ=Pλ(X1= 0) =E?? {0}(X1)?, où?est la fonction indicatrice :?A(x) =? ?1six?A0sinon.
Ainsi, en posant
S2(X) =1n
n i=1? {0}(Xi) on a bienEλ(S2(X)) =1n ni=1Pλ(Xi= 0) =e-λ. 3. Efficac itédes estimateurs : rapp elonsqu"un estimateur S(X)non-biaisé d"une quan- titég(λ)?Rest appeléefficacelorsqueVarλ(S2) =g?(λ)2/I(λ), oùI(λ)est l"infor- mation de Fisher relative à l"observationX, lorsqueX≂Pλ. Dans le cas oùX= (X1,...,Xn)est un échantillon i.i.d. , avecXi≂Pλ, le vecteurXest distribué selon la loi produitP?nλet l"information de Fisher pour le n-échantillon estI(λ) =nI1(λ), oùI1(λ)est l"information de Fisher pour une seule observationX1≂Pλ. (a)S1est biaisé donc il ne peut pas être efficace. (b)Sest non biaisé. Il reste à calculer sa variance et l"information de FisherI1(λ). Un calcul similaire à celui de la question 1. donneVarλ(X1) =λ, d"oùVarλ(S(X)) =1n
2×Varλ(n
i=1X i) =1n2×n
i=1Varλ(Xi) =λn où l"on a utilisé l"indépendance desXipour que la variance de la somme soit la somme des variances. Calculons l"information de Fisher pour une observation. Ici, le modèle est dominé par la mesure discrète surN,μ=? i?Nδi, et la densité par rapport à cette mesure de référence estpλ(x) =Pλ(X=x) =λx/x!e-λ. I1(λ) =Eλ?
??∂logpλ(X1)∂λ 2? =Eλ? 2? =Eλ?(X1/λ-1)2? 1λ2E?(X1-λ)2?
1λ2Varλ(X1)
= 1/λ D"où, pournobservations,I(λ) =nI1(λ) =n/λ. - 2 -MDI 220 Statistiques année 2019/2020
On peut conclure : l"estimateurSdeλest non biaisé et vérifie : ?λ >0,Varλ(S(X)) =λn =1I(λ). DoncSatteint la borne de Cramér-Rao (car icig0(λ) =λ, de sorte queg?(λ) =1), c"est-à-direSest efficace.
(c) Puisque S2est un estimateur deg(λ), non biaisé,S2est efficace si et seulement siS2atteint la borne de Cramér-Rao, qui vaut g ?(λ)2/I(λ) =λe-2λ/n. On remarque que les variables aléatoiresZi=?{0}(Xi)sont des variables de Bernoulli de paramètrep=P(Xi= 0) =e-λ. Ainsi,nS2suit une loi binomiale de paramètres(n,p=e-λ), de sorte queVarλ(S2) =e-λ(1-e-λ)/n. D"après le cours (on admet que le modèle est régulier), on a pour toutλ Varλ(S2) =e-λ(1-e-λ)/n≥g?(λ)2/I(λ) =λe-2λ/n De plus, l"inégalité est stricte pour au moins une valeur deλ(prendreλ= 1), doncS2n"est pas efficace.Solution Exercice 2[parametre de translation]
Remarque préliminaire : le modèle n"est pas régulier car l"ensemble des pointsxtels quepθ(x)>0dépend deθ(c"est ensemble est[θ,+∞[). 1. l"esp érancede X1vaut Eθ(X1) =?
θxeθ-xdxcalcul simple=θ+ 1.
En prenant
?θn(X) =1n ?(Xi)-1, on a bien par linéarité de l"espérance Eθ(?θn(X)) =1n
iE(Xi)-1 =θ. Ainsi ?θnest non biaisé. 2. Risque quadratique : P ourθ >0, il est donnée parR(θ,?θn) =E?(?θn(X)-θ)2?
et puiqueE(?θn(X)) =θ, on aR(θ,?θn) =Varθ(?θn(X)). De plus, pour une observation X1≂Pθ,
Varθ(X1) =?
θ(x-θ-1)2eθ-xdx
0(t-1)2e-tdt
?-(t-1)2e-t?∞ 0+ 2?0(t-1)e-t
0 = 1. - 3 -MDI 220 Statistiques année 2019/2020
Ainsi, par indépendance desXi,
Varθ(?θn(X)) =1n
Varθ(X1) =1n
3.On considère
˜θn(X) = minni=1Xi.
Remarque :l"idée de choisir˜θnvient du fait queθest la borne inférieur desPour calculer la loi de
˜θn(X), il est dans ce cas plus facile de calculer sa fonction de répartition que sa densité (à supposer que cette dernière existe). En effet, si on appelle˜Fθcette fonction de répartition, on a1-˜Fθ(x) =Pθ(˜θn(X)> x)
=Pθ[∩ni=1Xi> x] n i=1Pθ(Xi> n) (indépendance)
=Pθ(X1> x)n. Reste à calculer cette dernière quantité en intégrant la densité deX1, ce qui donne ?x≥θ,Pθ(X1> x) =? xeθ-tdt=eθ-x,Fθ(x) = 1-e-nmax(x-θ,0).
4.Puisque
˜Fθ(θ) = 0, on a, avec probabilité 1,˜θn(X)≥θ. Ainsi,la variable aléatoire
Z=˜θn(X)-θest presque surement positive. Comme elle n"est pas constante, sont espérance est strictement positive. D"où :˜θnest biaisé. 5.Le risque quadratique de
˜θnestR(θ,˜θn) =E[(θ-˜θn(X))2]. On utilise le fait que pour une variable aléatoireY: Ω→R+,E(Y) =?+ t=0∞P(Y > t)dt. On poseY= (˜θn-θ)2. Alors, pourt≥0,Pθ(Y > t) =P(˜θn-θ >⎷t)car avec probabilité
- 4 -MDI 220 Statistiques année 2019/2020
1,˜θn-θ≥0. Ainsi,
R(θ,˜θn) =E(Y)
t=0Pθ(Y > t)dt t=0Pθ(˜θn-θ >⎷t)dt t=0Pθ(˜θn-θ >⎷t)dt t=0e-n⎷t dt(cf question précédente) u=0e-nu2udu 2n 2? r=0e-rrdr 2n 2 6.Lorsque nest plus grand que2, on a
?θ, R(θ,˜θn) = 2/n2<1/n=R(θ,?θn). Le risque du deuxième estimateur (qui est pourtant biaisé) est uniformément plus faible que celui du premier estimateur.˜θnest donc préférable à?θn. Solution Exercice 3X= (X1,...,Xn)un éhantillon i.i.d. oùXi≂ Ber(θ)(θ?]0,1[). 1.On considère
¯X=1n
ni=1Xicomme estimateur deθ. Pour que¯Xsoit efficace, il faut et il suffit que (i) ¯Xsoit non biaisé et (ii) la variance de¯Xatteigne la borne de Cramer-Rao pour le modèle de Bernoulli avecnobservations. -¯Xest sans biais carE(¯X) =1n ?E(Xi) =E(X1) =θ.La v ariancede
¯Xest
2? iVar(Xi) =θ(1-θ)n Ca lculonsl"information de Fisher p ourune observ ation: T outd"ab ord,la mesure de référence estμ=δ0+δ1et la densité de la loiPθpar rapport àμest ?x? {0,1}, pθ(x) =θx(1-θ)1-x. (en effet, on vérifie que l"on apθ(1) =θ=Pθ(X1= 1)etpθ(0) = 1-θ= Pθ(X1= 0). Ainsi
?x? {0,1},?θ?]0,1[,∂logpθ(x)∂θ =xθ -1-x1-θ=x-θθ(1-θ) - 5 -MDI 220 Statistiques année 2019/2020
D"où
I1(θ) =Eθ(∂logpθ(X1)∂θ
)2 =Eθ? (X1-θθ(1-θ))2? 1θ2(1-θ)2Varθ(X1)
1θ(1-θ).
D"où, pournobservations,I(θ) =nI1(θ) =nθ(1-θ).Conclusion :
¯Xest non biaisé etVarθ(X) = 1/I(θ), pour toutθ?]0,1[donc¯Xest efficace. 2. On c herchemain tenantun estimateur de la v ariancedes Xi,g(θ) =Varθ(X1) = θ(1-θ). Puisque¯Xest un estimateur non biaisé deθ, l"estimateurS(X) =¯X(1-¯X) est un candidat naturel pour estimerg(θ). Pourtant il est biaisé : Eθ[S(X)] =Eθ(¯X)-Eθ(¯X2) =θ-1n
2? n? i=1E(X2i) + 2? iθ+ (n-1)θ2?
= (1-1n )θ(1-θ)< θ(1-θ) On cherche un estimateur non biaisé de la forme v=ηS. C"est-à-dire, on cherche à "débiaiser"Sen le multipliant par une constante. D"après ce qui précède, si l"on prendη=11-1n =nn-1, on a E ?v(X) =ηES(X) =θ(1-θ), de sorte que ?vest non biaisé. - 6 -quotesdbs_dbs1.pdfusesText_1[PDF] information et création numérique
[PDF] information génétique cours
[PDF] information génétique définition
[PDF] information genetique et division cellulaire
[PDF] information génétique wikipedia
[PDF] informatique 2eme année college
[PDF] informatique 3eme college
[PDF] informatique appliquée cours
[PDF] informatique de gestion pdf s4
[PDF] informatique fondamentale pdf
[PDF] informatique generale et internet
[PDF] informatique s1 smia pdf
[PDF] informe de auditoria de gestion ejemplo
[PDF] informe de auditoria de gestion ejemplos