TD 3 : Information de Fisher méthode du ? 1 Information de Fisher
Dhu?l-Q. 29 1430 AH Calculer l'information de Fisher dans les mod`eles statistiques ... en effet
TD no 7 : Information de Fisher et vraisemblance
In(?) = n. 3(1 + ?)2 . Exercice 3. La durée de vie en heures d'un certain type d'ampoule peut être modélisée par une.
Année Universitaire 2006-2007 COURS DE STATISTIQUE
3.1 Un exemple introductif. 3.2 Exhaustivité. 3.3 Information de Fisher. 4. L'estimation ponctuelle. 4.1 Définition d'un estimateur.
Observabilité et inversibilité de la matrice dinformation de Fisher
Le palliatif est alors l' «augmentation » de la MIF selon la méthode de Levenberg-Marquardt [12]. b) Second contre-exemple (tiré de [8]) : Considérons le
Information de Fisher
En termes simples moins une observation est probable
Mise `a niveau Comparaison destimateurs
Information de Fisher. Inégalité de l'Information et borne de Cramer-Rao. Efficacité asymptotique. EXEMPLES. Exemple 1 : la loi exponentielle Soit X ? E(?)
Statistiques mathématiques
L'analyse statistique aura alors pour but par exemple de déterminer (toujours au vu des Exemple 3.5 (Information de Fisher pour une v.a. gaussienne):.
Corrigé : Feuille de travaux dirigés 3
Il reste à calculer sa variance et l'information de Fisher I1(?). Un calcul similaire à celui de la question 1. donne Var?(X1) = ? d'où. Var?(S(X)) =.
Problèmes inverses Partie 2 — Chapitre 3 Estimation par maximum
Définition. Info. de K.-L. EMV : consistance. Info. de Fisher norm. asympt. Effic. asympt. Int. conf. et test de Wald. Vraisemblance. Un exemple discret.
UV Statistique Cours n°5/6
Information de Fisher. • Exemple : Calculer l'information apportée par une observation sur le paramètre µ d'une loi normale ou ?2 est connu.
Intro.VraisemblanceDéfinitionInfo. de K.-L.EMV : consistanceInfo. de Fishernorm. asympt.Effic. asympt.Int. conf. et test de Wald
Problèmes inverses
Partie 2 - Chapitre 3
Estimation par maximum de vraisemblance
Nicolas Champagnat
Ecole des Mines de Nancy, 05/05/2020
Intro.VraisemblanceDéfinitionInfo. de K.-L.EMV : consistanceInfo. de Fishernorm. asympt.Effic. asympt.Int. conf. et test de Wald
1Introduction
2Vraisemblance
3Estimation par maximum de vraisemblance : définition
4Information de Kullback-Leibler
5EMV : consistance
6Information de Fisher
7EMV : normalité asymptotique
8EMV : efficacité asymptotique
9Intervalles de confiance et test de Wald
Intro.VraisemblanceDéfinitionInfo. de K.-L.EMV : consistanceInfo. de Fishernorm. asympt.Effic. asympt.Int. conf. et test de Wald
Modèle discret, modèle continu
On considère le modèle statistique paramétriqueHn;fPg2:
On suppose que le paramètre d"intérêt est(cf.-méthode du chapitre précédent pour en déduire le cas général)On se restreindra à deux cas :
Le cas discret , oùHest un ensemble fini ou dénombrable :Pest caractérisée par les probabilités des événements élémentaires P f(X1;:::;Xn) = (x1;:::;xn)g;8(x1;:::;xn)2 Hn: Le cas continu , oùH Rket on suppose quePestabsolument continue par rapport à la mesure de Lebesgue : Pest caractérisée par sa densité f (x1;:::;xn);8(x1;:::;xn)2 Hn:Intro.VraisemblanceDéfinitionInfo. de K.-L.EMV : consistanceInfo. de Fishernorm. asympt.Effic. asympt.Int. conf. et test de Wald
Vraisemblance
1Introduction
2Vraisemblance
3Estimation par maximum de vraisemblance : définition
4Information de Kullback-Leibler
5EMV : consistance
6Information de Fisher
7EMV : normalité asymptotique
8EMV : efficacité asymptotique
9Intervalles de confiance et test de Wald
Intro.VraisemblanceDéfinitionInfo. de K.-L.EMV : consistanceInfo. de Fishernorm. asympt.Effic. asympt.Int. conf. et test de Wald
Vraisemblance
Un exemple discret
Au jeu de pile-ou-face, supposons qu"on observe les trois lancers PPF, c-à-d(x1;x2;x3) = (0;0;1)Pour la valeur1=1=2 du paramètre,
P1((X1;X2;X3) = (0;0;1)) =12
3 =18Pour la valeur2=1=4, cette probabilité est
P2((X1;X2;X3) = (0;0;1)) =14
14 34=364 Puisque 3=64<1=8, la valeur1du paramètre estplus vraisemblable que la valeur2. Ceci revient à étudier la fonction7!P((X1;X2;X3) = (0;0;1)), et comparer ses valeurs en1et2.
Intro.VraisemblanceDéfinitionInfo. de K.-L.EMV : consistanceInfo. de Fishernorm. asympt.Effic. asympt.Int. conf. et test de Wald
Vraisemblance
Un exemple continu
Considérons le modèle statistique gaussien d"échantillon de taille 1 (R;fN(;1)g2R):Supposons que l"observationxest 0.
On a P (X2[0;dx]) =f(0)dx=1p2e22 dx; oùdxpeut-être interprété comme une incertitude sur l"observation. La valeur1=0 du paramètre donne une probabilité 1=p2dxaux observations.La valeur2=1 donne une probabilitée1=2=p2dx.
Ainsi, la valeur1du paramètre estplus vraisemblable que la v aleur2.Ceci revient à
comparer les densités des lois du modèle statistique, évaluées sur les observations (icix=0), c-à-d étudier la fonction7!f(0).
Intro.VraisemblanceDéfinitionInfo. de K.-L.EMV : consistanceInfo. de Fishernorm. asympt.Effic. asympt.Int. conf. et test de Wald
Vraisemblance
Vraisemblance
Définition
On considère le modèle statistique(Hn;fPg2)et une observation (x1;:::;xn)2 Hn.Dans le
cas discr et , la vr aisemblance de l"observation (x1;:::;xn)est l"application dedans[0;1]définie par7!P((X1;:::;Xn) = (x1;:::;xn)):
Dans le
cas continu , la vr aisemblance de l"observation (x1;:::;xn)est l"application dedans[0;1]définie par7!f(x1;:::;xn);
où f est la densité de la loiP. Dans tous les cas, on note7!Ln(x1;:::;xn;)lafonction de vraisemblance définie ci-dessus.Intro.VraisemblanceDéfinitionInfo. de K.-L.EMV : consistanceInfo. de Fishernorm. asympt.Effic. asympt.Int. conf. et test de Wald
Vraisemblance
Notations
On définit également
7!`n(x1;:::;xn;) =logLn(x1;:::;xn;)
la fonction de log-vraisemblance Pour alléger les écritures, on noteraX= (X1;:::;Xn)etx= (x1;:::;xn). Ainsi, la fonction de vraisemblance s"écriraLn(x;).Intro.VraisemblanceDéfinitionInfo. de K.-L.EMV : consistanceInfo. de Fishernorm. asympt.Effic. asympt.Int. conf. et test de Wald
Vraisemblance
Exemples
Dans le jeu de pile-ou-face
L n(x;) =nombre de pile(1)nombre de face=nxn(1)n(1xn);(1) où xn=1n P n i=1xiest la moyenne empirique des observations.Dans le modèle statistique
Rn;N(m;2)
n m2R; >0 la vraisemblance dex1;:::;xns"écrit L n(x;) =nY i=11p2 e(xim)222=1(22)n=2exp P n i=1(xim)222Intro.VraisemblanceDéfinitionInfo. de K.-L.EMV : consistanceInfo. de Fishernorm. asympt.Effic. asympt.Int. conf. et test de Wald
Vraisemblance
Positivité de la vraisemblance
Proposition
Pour tout2,
L n(X;) =Ln(X1;:::;Xn;)>0;P-p.s.Démonstration : Dans le cas discret, le résultat est évident. En effet, pour tout(x1;:::;xn)2 Hn,Ln(x;)>0 ssiP(X=x)>0, puisque les deux quantités sont égales.Dans le cas continu,
P (Ln(X;) =0) =Z fLn(;)=0gf (x)dx=Z fLn(;)=0gL n(x;)dx=0:Intro.VraisemblanceDéfinitionInfo. de K.-L.EMV : consistanceInfo. de Fishernorm. asympt.Effic. asympt.Int. conf. et test de Wald
Vraisemblance
Cas i.i.d. : une propriété évidente mais utileProposition
Si pour tout2,P=Q
n , alors L n(x1;:::;xn;) =nY i=1L(xi;)et`n(x1;:::;xn;) =nX i=1`(xi;); où L(x;) =L1(x;)et`(x;) =`1(x;).Intro.VraisemblanceDéfinitionInfo. de K.-L.EMV : consistanceInfo. de Fishernorm. asympt.Effic. asympt.Int. conf. et test de Wald
Estimation par maximum de vraisemblance : définition1Introduction
2Vraisemblance
3Estimation par maximum de vraisemblance : définition
4Information de Kullback-Leibler
5EMV : consistance
6Information de Fisher
7EMV : normalité asymptotique
8EMV : efficacité asymptotique
9Intervalles de confiance et test de Wald
Intro.VraisemblanceDéfinitionInfo. de K.-L.EMV : consistanceInfo. de Fishernorm. asympt.Effic. asympt.Int. conf. et test de Wald
Estimation par maximum de vraisemblance : définitionEstimateur du maximum de vraisemblance (EMV)
Abréviation EMV :
pour " estimationpar maximum de vraisemblance »ou "estimateur du maximum de vraisemblance» (en anglais, MLE=maximum likelihood estimator).Intuition :
la probabilité sous Pdes observations(x1;:::;xn)doit être élevée pourproche de0, la valeur réelle du paramètre.Définition Un estimateur du maximum de vr aisemblance (EMV) de est un estimateur^=^(X1;:::;Xn)tel que L n(X1;:::;Xn;^) =sup 2L n(X1;:::;Xn;):Attention!pas nécessairement unicité d"un EMV .Intro.VraisemblanceDéfinitionInfo. de K.-L.EMV : consistanceInfo. de Fishernorm. asympt.Effic. asympt.Int. conf. et test de Wald
Estimation par maximum de vraisemblance : définitionConsidérations pratiques
La construction d"un EMV nécessite de trouver un argmax de la vraisemblance, c"est-à-dire la solution d"un problème d"optimisation. Cette solution n"est généralement pas explicite, et nécessite dans les cas pratiques de réaliser une optimisation numérique , par ex. à l"aide des algorithmes de Newton-Raphson ou de Gauss-Newton. La vraisemblance n"est pas toujours explicite dans les modèles compliqués, où la denstié des observations est difficile à évaluer utiliser des méthodes d"approximation de densité , comme par exemple l"algorithme deMetropolis-Hastings
ou les méthodes MCMC (Mark ovChain Monte Carlo).
Intro.VraisemblanceDéfinitionInfo. de K.-L.EMV : consistanceInfo. de Fishernorm. asympt.Effic. asympt.Int. conf. et test de Wald
Estimation par maximum de vraisemblance : définitionCas i.i.d.
Dans le cas d"échantillons i.i.d. (P=Q
n pour tout2), on préfère généralement chercher un EMV ^en maximisant la log-vraisemblance : n(X1;:::;Xn;^) =sup 2` n(X1;:::;Xn;) =sup 2n X i=1`(Xi;): En effet, les techniques de calcul différentiel sont souvent plus simples à mettre en oeuvre pour des sommes de fonctions que pour des produits.Intro.VraisemblanceDéfinitionInfo. de K.-L.EMV : consistanceInfo. de Fishernorm. asympt.Effic. asympt.Int. conf. et test de Wald
Estimation par maximum de vraisemblance : définitionExemple du jeu de pile-ou-face
D"après (1), la log-vraisemblance est donnée par n(x1;:::;xn;) =nxnlog+n(1xn)log(1):Ainsi,@@
`n(x1;:::;xn;) =nxn n(1xn)1 s"annule ssi=xn, est positive avant et négative après. La log-vraisemblance est donc maximale enxn, et il existe ununiqueEMV^n=Xn:
Remarque :
c"est le même estimateur que par la méthode des moments (cf. chapitre précédent).Intro.VraisemblanceDéfinitionInfo. de K.-L.EMV : consistanceInfo. de Fishernorm. asympt.Effic. asympt.Int. conf. et test de Wald
Information de Kullback-Leibler
1Introduction
2Vraisemblance
3Estimation par maximum de vraisemblance : définition
4Information de Kullback-Leibler
5EMV : consistance
6Information de Fisher
7EMV : normalité asymptotique
8EMV : efficacité asymptotique
9Intervalles de confiance et test de Wald
Intro.VraisemblanceDéfinitionInfo. de K.-L.EMV : consistanceInfo. de Fishernorm. asympt.Effic. asympt.Int. conf. et test de Wald
Information de Kullback-Leibler
Information de Kullback-Leibler
Objectif :
étudier la consistance de l"EMV .Définition
Pour tout;2, l"information de Kullback-Leibler(ou diver gencedeKullback-Leibler
, ou entr opier elative ) entrePetPest K n(;) =ElogLn(X;)L n(X;)=E[`n(X;)`n(X;)] si`n(X;)et`n(X;)appartiennent àL1(P)etPest absolument continue par rapport àP et K n(;) = +1sinon.Remarque :lorsque Pest absolument continue par rapport àP, la densité dePpar rapport àPest donnée par L n(x;)L n(x;);8x2 Hn:Intro.VraisemblanceDéfinitionInfo. de K.-L.EMV : consistanceInfo. de Fishernorm. asympt.Effic. asympt.Int. conf. et test de Wald
Information de Kullback-Leibler
Exemple
Dans le jeu de pile-ou-face, d"après la formule (1), K n(;) =E n Xnlog +n(1Xn)log11 =nlog +n(1)log11:Intro.VraisemblanceDéfinitionInfo. de K.-L.EMV : consistanceInfo. de Fishernorm. asympt.Effic. asympt.Int. conf. et test de Wald
Information de Kullback-Leibler
Propriété fondamentale
L"information de Kullback-Leibler est une mesure de dissimilarité entre les loisPetP:PropositionPour tout;2,K n(;)0.
Si de plus le modèle statistique est identifiable, alors K n(;) =0si et seulement si=.Intro.VraisemblanceDéfinitionInfo. de K.-L.EMV : consistanceInfo. de Fishernorm. asympt.Effic. asympt.Int. conf. et test de Wald
Information de Kullback-Leibler
Démonstration (1)
Supposons quePest absolument continue par rapport àP(sinon K n(;) = +1et il n"y a rien à démontrer). La fonctionlog est convexe, donc d"après l"inégalité de Jensen K n(;) logELn(X;)L n(X;):(2)Dans le cas discret,
ELn(X;)L
n(X;)=X x2HnLquotesdbs_dbs1.pdfusesText_1[PDF] information et création numérique
[PDF] information génétique cours
[PDF] information génétique définition
[PDF] information genetique et division cellulaire
[PDF] information génétique wikipedia
[PDF] informatique 2eme année college
[PDF] informatique 3eme college
[PDF] informatique appliquée cours
[PDF] informatique de gestion pdf s4
[PDF] informatique fondamentale pdf
[PDF] informatique generale et internet
[PDF] informatique s1 smia pdf
[PDF] informe de auditoria de gestion ejemplo
[PDF] informe de auditoria de gestion ejemplos