Fisher Information de Fisher Efficacité Estimation par Maximum de Vraisemblance log-vraisemblance est le vecteur aléatoire appelé score (de Fisher) et
Previous PDF | Next PDF |
[PDF] Maximum de Vraisemblance Information de Fisher - Site de
28 nov 2016 · La statistique exhaustive contient toute l'information nécessaire à l'inférence de θ Page 4 Maximum de Vraisemblance Information de Fisher
[PDF] Sur lEstimateur du Maximum de Vraisemblance (emv) - Christophe
6 Estimateurs du maximum de vraisemblance : première approche 19 L' information de Fisher caractérise la borne de Cramer-Rao ; on a un(θ) = 1 In(θ)
[PDF] Feuille 4 : Information de Fisher et vraisemblance - Université de
Déterminer l'estimateur du maximum de vraisemblance ̂θn de θ Est-il sans biais ? 3 Calculer l'information de Fisher In(θ) 4 Comparer In(θ) avec V ( ̂θn )
[PDF] Cours 5 : ESTIMATION PONCTUELLE
échantillon sur le paramètre : une information de Fisher proche de zero indique Estimation par la méthode du maximum de vraisemblance (MLE) : On choisit
[PDF] Estimation par Maximum de Vraisemblance - Département de
Fisher Information de Fisher Efficacité Estimation par Maximum de Vraisemblance log-vraisemblance est le vecteur aléatoire appelé score (de Fisher) et
[PDF] T D n 6 Information de Fisher et maximum de vraisemblance
Information de Fisher et maximum de vraisemblance Exercice 1 Information, efficacité et loi de Gauss Soit X une variable aléatoire suivant une loi normale N( µ,
[PDF] CTU, Master Enseignement des Mathématiques Statistique
Il est bien évident que d'une part l'estimateur du maximum de vraisemblance n' existe pas toujours On appelle information de Fisher la variance du score, i e
[PDF] Primes ? la rénovation - Service Public de Wallonie
[PDF] Cours 5 : ESTIMATION PONCTUELLE
[PDF] Séance 2 : Estimateurs convergents, non biaisés et exhaustifs
[PDF] statistique : estimation - Institut de Mathématiques de Bordeaux
[PDF] statistique : estimation - Institut de Mathématiques de Bordeaux
[PDF] approche des risques (version complète)
[PDF] Le barême d 'évaluation des fonds de commerce - Expercia
[PDF] valeur, prix et methodes d 'evaluation en immobilier - Immonotcom
[PDF] Estimation et intervalle de confiance - AgroParisTech
[PDF] Estimation paramétrique
[PDF] QUEL SERA LE MONTANT DE VOTRE PENSION EN 2008, 2012
[PDF] Estimations et intervalles de confiance - Institut de Mathématiques
[PDF] Séance 5 : Exercices récapitulatifs sur l 'estimation ponctuelle
[PDF] Intentions de vote - Harris Interactive
Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeModélisation Statistique (MAP-STA1)M1-Mathématiques Appliquées
Cours 2: Estimation par Maximum de Vraisemblance
Christine Keribin
1Laboratoire de Mathématiques d"Orsay
Université Paris-Sud
2018-2019
1/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeDans le cours 1
IModèle dominé
IVraisemblance
IStatistique et estimateur
I Exhaustivité : une statistique exhaustive permet de résumer l"échantillon sans perdre d"informationDans ce cours :
I définition mathématique de l"information (de Fisher) et ses propriétés I estimateur du maximum de vraisemblance 2/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeSommaire
Information de Fisher
Estimation par Maximum de Vraisemblance
3/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeModèle régulier
Définition
Un modèle paramétrique(X,A,IPθ),θ?Θouvert deRp, et tel queIPθadmette une densité f(.;θ)par rapport à une mesure dominanteν, estrégulie rsi I Le support des lois f(.;θ)est indépendant deθ?Θ I θ?→logf(x;θ)est deux fois continûment différentiable surΘ, pour tout x? X IPour tout A? A, l"intégrale?
Af(x;θ)dν(x)est au
moins deux fois dérivable sous le signe d"intégration eton peut permuter intégration et dérivationExemple: mo dèlede Bernoulli, Gaussien ;Contre-ex : U[0,θ]
4/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeVecteur du score
Soit?θ=logfθDéfinition
Dans un modèle paramétrique dominé, si pour tout x? Xla vraisemblance est différentiable, le vecteur gradient de la log-vraisemblance est le vecteur aléatoire app elé sco re (deFisher) et défini par
?θ(X) =(1?θ(X)
p?θ(X)) )I le score est additif : p ourdeux va riablesaléatoires indépendantesXetYde même loi, ?θ(X,Y) =?θ(X) +?θ(Y) I Dans un modèle régulier, le score est un vecteur aléatoire centré 5/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeInformation de Fisher
Définition
Dans un modèle paramétrique régulier, on appelleInformation de Fisher
au p ointθ?Θ?Rplamatrice de variance du score I n(θ) = IEθ[?θ(X)[?θ(X)]?] =var(?θ(X))où la notation prime ?indique la transposée. C"est une matrice de taillep×p, semi-définie positive. 6/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodePropriétés dans un modèle régulier ILa matrice d"information de Fisher est
additive symétrique semi-définie p ositive e tvérifie I n(θ) = IEθ[?θ(X)[?θ(X)]?] =-IEθ[¨?θ(X)] où ¨?θ(X)est la matrice des dérivées secondes enθde la log-vraisemblance IOn rajoute souvent l"
inversibilité de l"info rmationde Fisher dans la définition d"un modèle régulier.Exemple
: mo dèlede Bernoulli, Gaussien 7/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeInterprétation de l"information de Fisher Calibre l"information apportée par chaque observation sur l"estimation du paramètre du modèle ISiX= (X1,...,Xn)est unn-échantillon iid
d"informationIn(θ), alors I n(θ) =nI1(θ) IL"information de Fisher est liée à la
p récision avec laquelle le paramètre peut être estimé. I L"informationIT(θ)portée par une statistique quelconqueTest inférieure ou égale à celle apportée par l"échantillonX= (X1,...,Xn) I I On ne perd pas d"information en prenant une statistique exhaustive 8/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeBorne Fréchet-Darmois-Cramér-RaoThéorème (FDCR)
Soit h une fonction différentiable deΘ, un ouvert deRk.Dans un modèle est
régulier , pour tout estimateur T nde h(θ),sans biais et de ca rréintégrable et tel que h(θ) = IEθ(Tn?θ), on avar(Tn)≥[h(θ)]?In(θ)-1h(θ)La limite inférieure de la variance des estimateurs sans biais
s"appelle b ornede Cram ér-Rao 9/23