Analyse du modèle de régression logistique
où I(?) désigne la matrice d'information de Fisher du modèle au point ?. Comment tester l'effet d'une variable explicative qualitative ? Pour.
POUR COMPRENDRE LINDICE DES PRIX
Comment faire la synthèse des évolutions de prix élémentaires ? ............ 19 ... Un résultat important est que l'indice de Fisher est une.
Statistiques mathématiques
3.2.1 Modèle statistique régulier information de Fisher . En statistiques il n'est pas question de comprendre exactement comment l'observation X.
Modélisation Statistique (MAP-STA1) - M1-Mathématiques
Information de Fisher. Efficacité. Estimation par. Maximum de. Vraisemblance. Définition. Propriétés. Wald et Delta-méthode.
4 Lois a priori
Rappels sur l'information de Fisher – Soit un n-échantillon (X1···
Notes et commentaires au sujet des conférences de S. Mallat du
19 janv. 2022 Concernant l'Information de Fisher c'est l'idée de calculer ... "assez loin de comprendre" (sic): pourquoi cela marche? comment relier les ...
Cours de Statistiques inférentielles
suit une loi de Fisher-Snedecor à (?1?2) degrés de liberté
Processus dapprentissage savoirs complexes et traitement de l
14 nov. 2013 Processus d'apprentissage – Traitement cognitif de l'information – Changement ... Comment comprendre le rejet de l'école et des matières ...
8. La Vraisemblance
que nous allons considérer comment fonction de ? pour 0 ? ? ? 1 espérée (parfois aussi information de Fisher) I(?) sont. J(?) = ?d.
Comprendre lergothérapie auprès des enfants [ANFE]
28-29 Les actions d'information L'ergothérapie consiste à comprendre et ... Son ergothérapeute utilise l'AMPS (Fisher & James
Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeModélisation Statistique (MAP-STA1)M1-Mathématiques Appliquées
Cours 2: Estimation par Maximum de Vraisemblance
Christine Keribin
1Laboratoire de Mathématiques d"Orsay
Université Paris-Sud
2018-2019
1/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeDans le cours 1
IModèle dominé
IVraisemblance
IStatistique et estimateur
I Exhaustivité : une statistique exhaustive permet de résumer l"échantillon sans perdre d"informationDans ce cours :
I définition mathématique de l"information (de Fisher) et ses propriétés I estimateur du maximum de vraisemblance 2/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeSommaire
Information de Fisher
Estimation par Maximum de Vraisemblance
3/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeModèle régulier
Définition
Un modèle paramétrique(X,A,IPθ),θ?Θouvert deRp, et tel queIPθadmette une densité f(.;θ)par rapport à une mesure dominanteν, estrégulie rsi I Le support des lois f(.;θ)est indépendant deθ?Θ I θ?→logf(x;θ)est deux fois continûment différentiable surΘ, pour tout x? X IPour tout A? A, l"intégrale?
Af(x;θ)dν(x)est au
moins deux fois dérivable sous le signe d"intégration eton peut permuter intégration et dérivationExemple: mo dèlede Bernoulli, Gaussien ;Contre-ex : U[0,θ]
4/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeVecteur du score
Soit?θ=logfθDéfinition
Dans un modèle paramétrique dominé, si pour tout x? Xla vraisemblance est différentiable, le vecteur gradient de la log-vraisemblance est le vecteur aléatoire app elé sco re (deFisher) et défini par
?θ(X) =(1?θ(X)
p?θ(X)) )I le score est additif : p ourdeux va riablesaléatoires indépendantesXetYde même loi, ?θ(X,Y) =?θ(X) +?θ(Y) I Dans un modèle régulier, le score est un vecteur aléatoire centré 5/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeInformation de Fisher
Définition
Dans un modèle paramétrique régulier, on appelleInformation de Fisher
au p ointθ?Θ?Rplamatrice de variance du score I n(θ) = IEθ[?θ(X)[?θ(X)]?] =var(?θ(X))où la notation prime ?indique la transposée. C"est une matrice de taillep×p, semi-définie positive. 6/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodePropriétés dans un modèle régulier ILa matrice d"information de Fisher est
additive symétrique semi-définie p ositive e tvérifie I n(θ) = IEθ[?θ(X)[?θ(X)]?] =-IEθ[¨?θ(X)] où ¨?θ(X)est la matrice des dérivées secondes enθde la log-vraisemblance IOn rajoute souvent l"
inversibilité de l"info rmationde Fisher dans la définition d"un modèle régulier.Exemple
: mo dèlede Bernoulli, Gaussien 7/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeInterprétation de l"information de Fisher Calibre l"information apportée par chaque observation sur l"estimation du paramètre du modèle ISiX= (X1,...,Xn)est unn-échantillon iid
d"informationIn(θ), alors I n(θ) =nI1(θ) IL"information de Fisher est liée à la
p récision avec laquelle le paramètre peut être estimé. I L"informationIT(θ)portée par une statistique quelconqueTest inférieure ou égale à celle apportée par l"échantillonX= (X1,...,Xn) I I On ne perd pas d"information en prenant une statistique exhaustive 8/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeBorne Fréchet-Darmois-Cramér-RaoThéorème (FDCR)
Soit h une fonction différentiable deΘ, un ouvert deRk.Dans un modèle est
régulier , pour tout estimateur T nde h(θ),sans biais et de ca rréintégrable et tel que h(θ) = IEθ(Tn?θ), on avar(Tn)≥[h(θ)]?In(θ)-1h(θ)La limite inférieure de la variance des estimateurs sans biais
s"appelle b ornede Cram ér-Rao 9/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeEfficacité
Définition
Un estimateur
sans biais T nestefficace p ourh (θ)s"il atteint la borne de Cramér-Rao, ie pour toutθ?Θ, var(Tn) = [h(θ)]?In(θ)-1h(θ) et il est donc UVMB, optimal parmi les estimateurs sans biais. 10/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeEfficacité mais...
Théorème
La borne de Cramér-Rao n"est atteinte que si
(a)la loi des observations est d"une famille exponentielle : modèle dominé dont la densité de la loi mère peut s"écrire sous la forme f(x;θ) =exp? a(x)α(θ) +β(θ) +c(x)? pour tout x?R (b)et pour l"estimation d"une fonction particulière deθ définie à une transformation affine près h(θ) = IEθ(a(X)).Rem: il p eutne pas exister d"estimateurs efficaces - Il p eut y avoir des estimateurs optimaux (UVMB) non efficaces; il peut ne pas exister d"estimateurs optimaux ... 11/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeSommaire
Information de Fisher
Estimation par Maximum de Vraisemblance
12/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeMéthode du maximum de vraisemblance SoitL(θ;x)la vraisemblance d"un modèle dominé. La valeur1deθest plus vraisemblable que la valeurθ2, si
L(θ1;x)>L(θ2;x)Définition (EMV)
On appelle
estimation du maximum de vraisemblance, une valeur ?θnmaximisant la vraisemblanceθn?argmaxθ?ΘL(θ;x).
θn=t(x1,...,xn)est une fonction des données, ce qui induit la statistique t(X1,...,Xn)que l"on note (abusivement) avec la même notation : ?θn=t(X1,...,Xn)est appeléEstimateur du Maximum deVraisemblance
13/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeCalcul de l"EMV
Remarque
: quand l"échantillon est i. i.d.on utilise plutôt la log-vraisemblance n(θ;x) =logL(θ;x) =n? i=1logfθ(xi) Méthode (pour une vraisemblance régulière) : I Chercher?θnannulant les équations de vraisemblance (ou équations du sco re U n(?θn) :=?n(?θn;x) =?∂∂θ k?n(?θn;x)? k=1,...,dim(θ)=0, I Vérifier que?θnest bien un maximum :Hn(θ) =¨?n(θ;x) est définie négative autour de ?θn.Exemple
: loi gaussienne, loi de Bernoulli 14/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeEMVpitfalls
I si la vraisemblance n"est pas strictement concave pour toutθ, il peut exister des d"optima locaux I l"EMV n"est pas forcément unique I l"EMV peut ne pas exister I pb de dérivabilité, par ex :U(0,θ) I utilisation d"un schéma numérique si le calcul analytique n"est pas possible mais I SiTest une statistique exhaustive pourθ, alors l"EMV ?θest une fonction deTn I Pour n"importe quelle applicationgdeΘ, si?θest l"EMV deθ, alorsg(?θ)est l"EMV deg(θ). I de bonnes propriétés asymptotiques 15/23Modélisation
Statistique
(MAP-STA1)Christine Keribin
Information de
Fisher
Information de Fisher
Efficacité
Estimation par
Maximum de
Vraisemblance
Définition
Propriétés
Wald et Delta-méthodeConsistance l"EMV
Proposition
Dans le modèle dominé(IPθ)θ?Θ, soit?θnl"EMV obtenu à partir d"un n-échantillon i.i.d. X i≂fθ?. On suppose IH1: le modèle estidentifiable
I H2:Θest compact et pour tout x? X,θ→fθ(x) continue I H3: soit h(x) =sups?Θ|logfs(x)|. Pour toutθ?Θ, h?L1(IPθ) alors ?θnest consistant.Rem: ?θnestasymptotiquement sans biais et p eutêtre biaiséà distance finie
16/23Modélisation
Statistique
(MAP-STA1)quotesdbs_dbs22.pdfusesText_28[PDF] La fiscalité intérieure au Burkina Faso est régi par les principaux
[PDF] Télécharger en français - Direction Générale des Impôts
[PDF] le guide du retraite - crrae
[PDF] Le calcul des pluies moyennes mensuelles et annuelles sur bassin
[PDF] Pension de vieillesse au Luxembourg - CNAP
[PDF] Taxe professionnelle - Fondation Création d 'Entreprises
[PDF] Limites de fonctions 1 Théorie 2 Calculs
[PDF] Le contrôle de gestion dans la Grande Distribution - DoYouBuzz
[PDF] Exercices - Calcul d intégrales : corrigé Intégration par parties
[PDF] Seconde - Calcul de probabilités - Parfenoff
[PDF] formules de topographie2016AP
[PDF] TD d 'exercices de Géométrie dans l 'espace - Math93
[PDF] Limitation desdébitsd 'eauxpluvialesen - AgroParisTech
[PDF] referentiel indemnisation - Oniam