RAPPELS DE STATISTIQUE M1
Exemple : On a vu plus haut que l'information de Fisher d'un mod`ele d'échantillonnage dans la loi normale est d'autant plus forte que la variance est petite.
Année Universitaire 2006-2007 COURS DE STATISTIQUE
A noter que l'espérance est prise par rapport `a la loi Pθ de X. 3.3.2 Autres expressions de l'information de Fisher. On appelle score la quantité S(x θ) = ∂.
Chapitre 4 Estimation par vraisemblance
covθ ) désigne la matrice de variance (resp. la covariance) sous la loi Pθ . Pour motiver le concept d'information de Fisher supposons pour simpli- fier que Θ
TD 3 : Information de Fisher méthode du χ 1 Information de Fisher
17 nov. 2009 On se contente donc de calculer l'information de Fisher dans le cas ... Q3 une loi uniforme sur [0θ] avec θ > 0 inconnu. Solution: Pour une ...
Mise `a niveau Comparaison destimateurs
Exemple 3 : la loi uniforme Soit X ∼ U ([0θ]) avec θ ∈ Θ = R∗. +
T. D. n 6 Information de Fisher et maximum de vraisemblance
Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ
Mesure dordre de linformation au sens de Fisher
analogue à celle de CRAMER-RAO pour les valeurs entières de a. 3) Cas de lois normales ou uniformes a) Soit X une variable aléatoire suivant une loi normale
T. D. n 6 Information de Fisher et maximum de vraisemblance
Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ
TD 5 : Comparaison et optimalité des estimateurs
Si oui calculer l'information de Fisher I1(θ) du modèle à une observation. 2. Donner un estimateur du maximum de vraisemblance ainsi que sa loi limite. 3. Est-
Test dAjustement à une Loi Normale Vectorielle
8 avr. 2022 ... information de Fisher d'une loi normale mul- tidimensionnelle par la méthode directe est assez long; c'est pourquoi on es-. Page 6. 85 saie d ...
TD 3 : Information de Fisher méthode du ? 1 Information de Fisher
Nov 17 2009 1 Information de Fisher. Calculer l'information de Fisher dans les mod`eles statistiques suivants : Q1 une loi de Poisson de param`etre ? :.
Année Universitaire 2006-2007 COURS DE STATISTIQUE
la loi de X est normale (avec ?2 connue puis ?2 inconnue). IT (?) représente l'information de Fisher au point ? dans le mod`ele (Y; PT ? ) o`u PT.
RAPPELS DE STATISTIQUE M1
Exemple : On a vu plus haut que l'information de Fisher d'un mod`ele d'échantillonnage dans la loi normale est d'autant plus forte que la variance.
T. D. n 6 Information de Fisher et maximum de vraisemblance
Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ
Statistique Inférentielle Avancée
13.2.1 Table 1 de la loi normale centrée réduite . Il y a en fait un lien entre l'exhaustivité et l'information de Fisher comme on le verra plus tard.
Mesure dordre de linformation au sens de Fisher
analogue à celle de CRAMER-RAO pour les valeurs entières de a. 3) Cas de lois normales ou uniformes a) Soit X une variable aléatoire suivant une loi normale
Modélisation Statistique (MAP-STA1) - M1-Mathématiques
définition mathématique de l'information (de Fisher) et indépendantes X et Y de même loi ... converge en loi sous IP?? vers une loi normale :.
Fisher information and the fourth moment theorem
au sens de l'information de Fisher vers la loi gaussienne d'une suite d'éléments de convergence associée pour la convergence normale d'une version ...
Sur lEstimateur du Maximum de Vraisemblance (emv)
Jan 9 2017 L'information de Fisher caractérise la borne de Cramer-Rao ; on a ... converge en loi vers une var Z suivant la loi normale N(0
T. D. n 6 Information de Fisher et maximum de vraisemblance
Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ
Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeModélisation Statistique (MAP-STA1)M1-Mathématiques Appliquées
Cours 2: Estimation par Maximum de Vraisemblance
Christine Keribin
1Laboratoire de Mathématiques d"Orsay
Université Paris-Sud
2018-2019
1/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeDans le cours 1
IModèle dominé
IVraisemblance
IStatistique et estimateur
I Exhaustivité : une statistique exhaustive permet de résumer l"échantillon sans perdre d"informationDans ce cours :
I définition mathématique de l"information (de Fisher) et ses propriétés I estimateur du maximum de vraisemblance 2/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeSommaire
Information de Fisher
Estimation par Maximum de Vraisemblance
3/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeModèle régulier
Définition
Un modèle paramétrique(X,A,IPθ),θ?Θouvert deRp, et tel queIPθadmette une densité f(.;θ)par rapport à une mesure dominanteν, estrégulie rsi I Le support des lois f(.;θ)est indépendant deθ?Θ I θ?→logf(x;θ)est deux fois continûment différentiable surΘ, pour tout x? X IPour tout A? A, l"intégrale?
Af(x;θ)dν(x)est au
moins deux fois dérivable sous le signe d"intégration eton peut permuter intégration et dérivationExemple: mo dèlede Bernoulli, Gaussien ;Contre-ex : U[0,θ]
4/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeVecteur du score
Soit?θ=logfθDéfinition
Dans un modèle paramétrique dominé, si pour tout x? Xla vraisemblance est différentiable, le vecteur gradient de la log-vraisemblance est le vecteur aléatoire app elé sco re (deFisher) et défini par
?θ(X) =(1?θ(X)
p?θ(X)) )I le score est additif : p ourdeux va riablesaléatoires indépendantesXetYde même loi, ?θ(X,Y) =?θ(X) +?θ(Y) I Dans un modèle régulier, le score est un vecteur aléatoire centré 5/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeInformation de Fisher
Définition
Dans un modèle paramétrique régulier, on appelleInformation de Fisher
au p ointθ?Θ?Rplamatrice de variance du score I n(θ) = IEθ[?θ(X)[?θ(X)]?] =var(?θ(X))où la notation prime ?indique la transposée. C"est une matrice de taillep×p, semi-définie positive. 6/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodePropriétés dans un modèle régulier ILa matrice d"information de Fisher est
additive symétrique semi-définie p ositive e tvérifie I n(θ) = IEθ[?θ(X)[?θ(X)]?] =-IEθ[¨?θ(X)] où ¨?θ(X)est la matrice des dérivées secondes enθde la log-vraisemblance IOn rajoute souvent l"
inversibilité de l"info rmationde Fisher dans la définition d"un modèle régulier.Exemple
: mo dèlede Bernoulli, Gaussien 7/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeInterprétation de l"information de Fisher Calibre l"information apportée par chaque observation sur l"estimation du paramètre du modèle ISiX= (X1,...,Xn)est unn-échantillon iid
d"informationIn(θ), alors I n(θ) =nI1(θ) IL"information de Fisher est liée à la
p récision avec laquelle le paramètre peut être estimé. I L"informationIT(θ)portée par une statistique quelconqueTest inférieure ou égale à celle apportée par l"échantillonX= (X1,...,Xn) I I On ne perd pas d"information en prenant une statistique exhaustive 8/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeBorne Fréchet-Darmois-Cramér-RaoThéorème (FDCR)
Soit h une fonction différentiable deΘ, un ouvert deRk.Dans un modèle est
régulier , pour tout estimateur T nde h(θ),sans biais et de ca rréintégrable et tel que h(θ) = IEθ(Tn?θ), on avar(Tn)≥[h(θ)]?In(θ)-1h(θ)La limite inférieure de la variance des estimateurs sans biais
s"appelle b ornede Cram ér-Rao 9/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeEfficacité
Définition
Un estimateur
sans biais T nestefficace p ourh (θ)s"il atteint la borne de Cramér-Rao, ie pour toutθ?Θ, var(Tn) = [h(θ)]?In(θ)-1h(θ) et il est donc UVMB, optimal parmi les estimateurs sans biais. 10/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeEfficacité mais...
Théorème
La borne de Cramér-Rao n"est atteinte que si
(a)la loi des observations est d"une famille exponentielle : modèle dominé dont la densité de la loi mère peut s"écrire sous la forme f(x;θ) =exp? a(x)α(θ) +β(θ) +c(x)? pour tout x?R (b)et pour l"estimation d"une fonction particulière deθ définie à une transformation affine près h(θ) = IEθ(a(X)).Rem: il p eutne pas exister d"estimateurs efficaces - Il p eut y avoir des estimateurs optimaux (UVMB) non efficaces; il peut ne pas exister d"estimateurs optimaux ... 11/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeSommaire
Information de Fisher
Estimation par Maximum de Vraisemblance
12/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeMéthode du maximum de vraisemblance SoitL(θ;x)la vraisemblance d"un modèle dominé. La valeur1deθest plus vraisemblable que la valeurθ2, si
L(θ1;x)>L(θ2;x)Définition (EMV)
On appelle
estimation du maximum de vraisemblance, une valeur ?θnmaximisant la vraisemblanceθn?argmaxθ?ΘL(θ;x).
θn=t(x1,...,xn)est une fonction des données, ce qui induit la statistique t(X1,...,Xn)que l"on note (abusivement) avec la même notation : ?θn=t(X1,...,Xn)est appeléEstimateur du Maximum deVraisemblance
13/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
quotesdbs_dbs13.pdfusesText_19[PDF] information génétique cours
[PDF] information génétique définition
[PDF] information genetique et division cellulaire
[PDF] information génétique wikipedia
[PDF] informatique 2eme année college
[PDF] informatique 3eme college
[PDF] informatique appliquée cours
[PDF] informatique de gestion pdf s4
[PDF] informatique fondamentale pdf
[PDF] informatique generale et internet
[PDF] informatique s1 smia pdf
[PDF] informe de auditoria de gestion ejemplo
[PDF] informe de auditoria de gestion ejemplos
[PDF] informe de investigacion ejemplo pdf