TD 3 : Information de Fisher méthode du ? 1 Information de Fisher
Dhu?l-Q. 29 1430 AH Calculer l'information de Fisher dans les mod`eles statistiques ... en effet
TD no 7 : Information de Fisher et vraisemblance
In(?) = n. 3(1 + ?)2 . Exercice 3. La durée de vie en heures d'un certain type d'ampoule peut être modélisée par une.
Année Universitaire 2006-2007 COURS DE STATISTIQUE
3.1 Un exemple introductif. 3.2 Exhaustivité. 3.3 Information de Fisher. 4. L'estimation ponctuelle. 4.1 Définition d'un estimateur.
Observabilité et inversibilité de la matrice dinformation de Fisher
Le palliatif est alors l' «augmentation » de la MIF selon la méthode de Levenberg-Marquardt [12]. b) Second contre-exemple (tiré de [8]) : Considérons le
Information de Fisher
En termes simples moins une observation est probable
Mise `a niveau Comparaison destimateurs
Information de Fisher. Inégalité de l'Information et borne de Cramer-Rao. Efficacité asymptotique. EXEMPLES. Exemple 1 : la loi exponentielle Soit X ? E(?)
Statistiques mathématiques
L'analyse statistique aura alors pour but par exemple de déterminer (toujours au vu des Exemple 3.5 (Information de Fisher pour une v.a. gaussienne):.
Corrigé : Feuille de travaux dirigés 3
Il reste à calculer sa variance et l'information de Fisher I1(?). Un calcul similaire à celui de la question 1. donne Var?(X1) = ? d'où. Var?(S(X)) =.
Problèmes inverses Partie 2 — Chapitre 3 Estimation par maximum
Définition. Info. de K.-L. EMV : consistance. Info. de Fisher norm. asympt. Effic. asympt. Int. conf. et test de Wald. Vraisemblance. Un exemple discret.
UV Statistique Cours n°5/6
Information de Fisher. • Exemple : Calculer l'information apportée par une observation sur le paramètre µ d'une loi normale ou ?2 est connu.
Statistiques
TD 3 : Information de Fisher, m
ethode du2L3, ENS-Cachan, 2009-20101 Information de Fisher
Calculer l'information de Fisher dans les modeles statistiques suivants : +Q1 une loi de Poisson de parametre:P((X=k)) =ekk!pourk2NSolution:
Dans le cas ou le modele est regulier, on peut calculer l'information de Fisher sous sa deuxieme forme etInegale anfois l'information de Fisher pour une observation (I1). On se contente donc de calculer l'information de Fisher dans le casn= 1. Montrons que la loi de Poisson conduit a un modele regulier. Le modele s'ecrit : (X1;:::;Xn);Xn=Nn;P n ;2R+ On a bien les deux hypotheses necessaires :Xne depend pas deet7!f(k) = e kk!estC1donc derivable deux fois. L1() =ekk!
logL1() =+kloglog(k!) @logL1@ () =1 +k2logL1@
2() =k
2OrI1() =Eh@2logL1@
2()i etE[X] =, doncI1() =1 etIn() =n +Q2 une loi de Pareto de parametresavec >1 avec >0 xe, de densite : f(x) =1 x 1 xSolution:
IciX= [;+1[ ne depend pas de(ici, xe, n'est pas un parametre mais une constante). La fonction7!1 exp(loglogx) est bien derivable deux fois.On peut donc se limiter a calculerI1() :
L1(x1;) =1
x 1 1 [;+1[(x) logL1(x1;) = log(1)log+loglogx1On calcule les derivees de la Log-vraisemblance :
@logL1@ = 1=(1) + loglogx;2logL1@
2=1(1)2
D'ouI1() =1(1)2etIn() =n(1)2.
+Q3 une loi uniforme sur [0;] avec >0 inconnu.Solution:Pour une donnee, la vraisemblance du modele est
L1() =f(x) =1
1[0;](x) =1
1[x;+1[();
l'ensembleXtel quef(x)>0 depend donc de. Ceci contredit la regularite du modele. L'information de Fisher est denie mais on ne peut pas utiliser sa deuxieme forme, niIn=nI1. L n() =Y i1 1xi=1 n1maxifxig; donc S n() =@logLn() =n1maxifxig:
I n() =ESn()2=E n 2 =n2 2 Remarquons que sous la deuxieme forme, on aurait obtenu un autre resultat (faux) E @2logLn@ 2() =E @Sn@ =Eh n 2i =n 26=n22 En eet, pour ce modele n'est pas regulier, puisqueX= [0;] depend de.In() existe et est egale par denition a la variance du score, mais elle ne peut ^etre calculee a partir de la derivee seconde de la logvraisemblance.
2 Methode du2
Des le premier TD, H
2K se fait une idee sur les 1D3. Son jugement sur l'etudiantiprend
la forme d'une v.a.Xiuniforme dont on souhaite conna^tre la borne superieure. En eet, s'il est clair qu'un etudiant completement nul vaut 0, jusqu'ou peut monter l'estime de l'enseignant pour un de ses etudiants?On releve donc les impressions d'H
2K sur les 1D3, qu'on suppose ^etre i.i.d. de loiU([0;0]).
7:68 7:84 3:36 1:2 1:2 5:52 1:04 0:88 5:6 4:88
0:16 7:84 1:92 1:84 3:04 2:96 7:84 5:6 5:52 7:28
+Q1 Calculer l'esperance deX1. En deduire un estimateur par substitution de0.Solution:L'esperance deX1vaut
Z R +xf0(x)dx=Z
R +x01[0;0](x)dx=x220
0 0 =2020=02On peut alors estimer
02 par la moyenneXet donc0par 2X. On trouve 2X= 8;32. +Q2 On veut estimer par la methode du2la borne superieure0. Pour une valeurdu parametre, on decoupeX= [0;] en 4 classes : C1= [0;2]C2=]2;4]C3=]4;6]C4=]6;]
Quel est l'estimateur du2pour0?Solution:
On calcule les eectifs empiriques ^nket theoriquesnk() :ClasseC1= [0;2]C
2=]2;4]C
3=]4;6]C
4=]6;]^nk7355
n k()20 20204220
6420
6 en eet, l'eectif theorique pour la deuxieme classe par exemple est n
2() =nFU([0;])(4)FU([0;])(2)= 20400200
= 2042On a alors
eDn() =1n
4 X k=1(^nk)2n k()=4940=+940=+2540=+2520(6)==8340 +2520(6)Pour trouver le minimum, on derive en:
eDn() =8340152(6)2
eDn(^) = 0,(^6)2=1540832,^= 6 +r1540832,^7;9: N.B. :Puisqu'il y a des observations superieures a 6, on cherche unsuperieur a6 on a doncq(
^6)2=^6.On verie que la derivee seconde est positive :
2@2eDn(^) =302(
^6)3>0On a bien un minimum.
En fait, il s'agit de donneesU([0;8]). L'estimateur du2est donc meilleur que l'estimateur par substitution.quotesdbs_dbs1.pdfusesText_1[PDF] information et création numérique
[PDF] information génétique cours
[PDF] information génétique définition
[PDF] information genetique et division cellulaire
[PDF] information génétique wikipedia
[PDF] informatique 2eme année college
[PDF] informatique 3eme college
[PDF] informatique appliquée cours
[PDF] informatique de gestion pdf s4
[PDF] informatique fondamentale pdf
[PDF] informatique generale et internet
[PDF] informatique s1 smia pdf
[PDF] informe de auditoria de gestion ejemplo
[PDF] informe de auditoria de gestion ejemplos