RAPPELS DE STATISTIQUE M1
Exemple : On a vu plus haut que l'information de Fisher d'un mod`ele d'échantillonnage dans la loi normale est d'autant plus forte que la variance est petite.
Année Universitaire 2006-2007 COURS DE STATISTIQUE
A noter que l'espérance est prise par rapport `a la loi Pθ de X. 3.3.2 Autres expressions de l'information de Fisher. On appelle score la quantité S(x θ) = ∂.
Chapitre 4 Estimation par vraisemblance
covθ ) désigne la matrice de variance (resp. la covariance) sous la loi Pθ . Pour motiver le concept d'information de Fisher supposons pour simpli- fier que Θ
Mise `a niveau Comparaison destimateurs
Exemple 3 : la loi uniforme Soit X ∼ U ([0θ]) avec θ ∈ Θ = R∗. +
T. D. n 6 Information de Fisher et maximum de vraisemblance
Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ
Mesure dordre de linformation au sens de Fisher
analogue à celle de CRAMER-RAO pour les valeurs entières de a. 3) Cas de lois normales ou uniformes a) Soit X une variable aléatoire suivant une loi normale
T. D. n 6 Information de Fisher et maximum de vraisemblance
Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ
TD 5 : Comparaison et optimalité des estimateurs
Si oui calculer l'information de Fisher I1(θ) du modèle à une observation. 2. Donner un estimateur du maximum de vraisemblance ainsi que sa loi limite. 3. Est-
Test dAjustement à une Loi Normale Vectorielle
8 avr. 2022 ... information de Fisher d'une loi normale mul- tidimensionnelle par la méthode directe est assez long; c'est pourquoi on es-. Page 6. 85 saie d ...
TD 3 : Information de Fisher méthode du ? 1 Information de Fisher
Nov 17 2009 1 Information de Fisher. Calculer l'information de Fisher dans les mod`eles statistiques suivants : Q1 une loi de Poisson de param`etre ? :.
Année Universitaire 2006-2007 COURS DE STATISTIQUE
la loi de X est normale (avec ?2 connue puis ?2 inconnue). IT (?) représente l'information de Fisher au point ? dans le mod`ele (Y; PT ? ) o`u PT.
RAPPELS DE STATISTIQUE M1
Exemple : On a vu plus haut que l'information de Fisher d'un mod`ele d'échantillonnage dans la loi normale est d'autant plus forte que la variance.
T. D. n 6 Information de Fisher et maximum de vraisemblance
Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ
Statistique Inférentielle Avancée
13.2.1 Table 1 de la loi normale centrée réduite . Il y a en fait un lien entre l'exhaustivité et l'information de Fisher comme on le verra plus tard.
Mesure dordre de linformation au sens de Fisher
analogue à celle de CRAMER-RAO pour les valeurs entières de a. 3) Cas de lois normales ou uniformes a) Soit X une variable aléatoire suivant une loi normale
Modélisation Statistique (MAP-STA1) - M1-Mathématiques
définition mathématique de l'information (de Fisher) et indépendantes X et Y de même loi ... converge en loi sous IP?? vers une loi normale :.
Fisher information and the fourth moment theorem
au sens de l'information de Fisher vers la loi gaussienne d'une suite d'éléments de convergence associée pour la convergence normale d'une version ...
Sur lEstimateur du Maximum de Vraisemblance (emv)
Jan 9 2017 L'information de Fisher caractérise la borne de Cramer-Rao ; on a ... converge en loi vers une var Z suivant la loi normale N(0
T. D. n 6 Information de Fisher et maximum de vraisemblance
Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ
Statistiques
TD 3 : Information de Fisher, m
ethode du2L3, ENS-Cachan, 2009-20101 Information de Fisher
Calculer l'information de Fisher dans les modeles statistiques suivants : +Q1 une loi de Poisson de parametre:P((X=k)) =ekk!pourk2NSolution:
Dans le cas ou le modele est regulier, on peut calculer l'information de Fisher sous sa deuxieme forme etInegale anfois l'information de Fisher pour une observation (I1). On se contente donc de calculer l'information de Fisher dans le casn= 1. Montrons que la loi de Poisson conduit a un modele regulier. Le modele s'ecrit : (X1;:::;Xn);Xn=Nn;P n ;2R+ On a bien les deux hypotheses necessaires :Xne depend pas deet7!f(k) = e kk!estC1donc derivable deux fois. L1() =ekk!
logL1() =+kloglog(k!) @logL1@ () =1 +k2logL1@
2() =k
2OrI1() =Eh@2logL1@
2()i etE[X] =, doncI1() =1 etIn() =n +Q2 une loi de Pareto de parametresavec >1 avec >0 xe, de densite : f(x) =1 x 1 xSolution:
IciX= [;+1[ ne depend pas de(ici, xe, n'est pas un parametre mais une constante). La fonction7!1 exp(loglogx) est bien derivable deux fois.On peut donc se limiter a calculerI1() :
L1(x1;) =1
x 1 1 [;+1[(x) logL1(x1;) = log(1)log+loglogx1On calcule les derivees de la Log-vraisemblance :
@logL1@ = 1=(1) + loglogx;2logL1@
2=1(1)2
D'ouI1() =1(1)2etIn() =n(1)2.
+Q3 une loi uniforme sur [0;] avec >0 inconnu.Solution:Pour une donnee, la vraisemblance du modele est
L1() =f(x) =1
1[0;](x) =1
1[x;+1[();
l'ensembleXtel quef(x)>0 depend donc de. Ceci contredit la regularite du modele. L'information de Fisher est denie mais on ne peut pas utiliser sa deuxieme forme, niIn=nI1. L n() =Y i1 1xi=1 n1maxifxig; donc S n() =@logLn() =n1maxifxig:
I n() =ESn()2=E n 2 =n2 2 Remarquons que sous la deuxieme forme, on aurait obtenu un autre resultat (faux) E @2logLn@ 2() =E @Sn@ =Eh n 2i =n 26=n22 En eet, pour ce modele n'est pas regulier, puisqueX= [0;] depend de.In() existe et est egale par denition a la variance du score, mais elle ne peut ^etre calculee a partir de la derivee seconde de la logvraisemblance.
2 Methode du2
Des le premier TD, H
2K se fait une idee sur les 1D3. Son jugement sur l'etudiantiprend
la forme d'une v.a.Xiuniforme dont on souhaite conna^tre la borne superieure. En eet, s'il est clair qu'un etudiant completement nul vaut 0, jusqu'ou peut monter l'estime de l'enseignant pour un de ses etudiants?On releve donc les impressions d'H
2K sur les 1D3, qu'on suppose ^etre i.i.d. de loiU([0;0]).
7:68 7:84 3:36 1:2 1:2 5:52 1:04 0:88 5:6 4:88
0:16 7:84 1:92 1:84 3:04 2:96 7:84 5:6 5:52 7:28
+Q1 Calculer l'esperance deX1. En deduire un estimateur par substitution de0.Solution:L'esperance deX1vaut
Z R +xf0(x)dx=Z
R +x01[0;0](x)dx=x220
0 0 =2020=02On peut alors estimer
02 par la moyenneXet donc0par 2X. On trouve 2X= 8;32. +Q2 On veut estimer par la methode du2la borne superieure0. Pour une valeurdu parametre, on decoupeX= [0;] en 4 classes : C1= [0;2]C2=]2;4]C3=]4;6]C4=]6;]
Quel est l'estimateur du2pour0?Solution:
On calcule les eectifs empiriques ^nket theoriquesnk() :ClasseC1= [0;2]C
2=]2;4]C
3=]4;6]C
4=]6;]^nk7355
n k()20 20204220
6420
6 en eet, l'eectif theorique pour la deuxieme classe par exemple est n
2() =nFU([0;])(4)FU([0;])(2)= 20400200
= 2042On a alors
eDn() =1n
4 X k=1(^nk)2n k()=4940=+940=+2540=+2520(6)==8340 +2520(6)Pour trouver le minimum, on derive en:
eDn() =8340152(6)2
eDn(^) = 0,(^6)2=1540832,^= 6 +r1540832,^7;9: N.B. :Puisqu'il y a des observations superieures a 6, on cherche unsuperieur a6 on a doncq(
^6)2=^6.On verie que la derivee seconde est positive :
2@2eDn(^) =302(
^6)3>0On a bien un minimum.
En fait, il s'agit de donneesU([0;8]). L'estimateur du2est donc meilleur que l'estimateur par substitution.quotesdbs_dbs13.pdfusesText_19[PDF] information génétique cours
[PDF] information génétique définition
[PDF] information genetique et division cellulaire
[PDF] information génétique wikipedia
[PDF] informatique 2eme année college
[PDF] informatique 3eme college
[PDF] informatique appliquée cours
[PDF] informatique de gestion pdf s4
[PDF] informatique fondamentale pdf
[PDF] informatique generale et internet
[PDF] informatique s1 smia pdf
[PDF] informe de auditoria de gestion ejemplo
[PDF] informe de auditoria de gestion ejemplos
[PDF] informe de investigacion ejemplo pdf