Estimation paramétrique
L'estimateur obtenu par la méthode des moments est alors. ˆ?n = 2Xn. Cet estimateur est sans bias et consistant. 2.3 Loi gaussienne. Ici k = 2 on prend ? = (m
Méthode des moments de probabilité pondérés : application à la loi
MOTS-CLÉS : Loi de probabilité - Estimation de paramètres - Méthode des teur % du paramètre k suit asymptotiquement une loi normale de moyenne 0 et de ...
Projet Etienne Marceau Méthodes statistiques en assurance non vie
3.2.1 Estimation des param`etres par la méthode des moments . La fonction de maximum de vraisemblance pour la loi log-normale (µ ?2) s'écrit : ?.
Introduction aux Statistiques de deuxième espèce : applications des
Les méthodes utilisées en statistique pour étudier une distribution de probabilité loi normale ainsi que sur un modèle de bruit bien adapté à ce.
Statistique appliquée
méthode des moments et la méthode du maximum de vraisemblance. Si X suit la loi normale standard N(01)
Analyse dImpact Budgétaire de la Prise en Charge de la
Risques relatifs [0 ;?[ : log normale ou loi Gamma. Utilité ]-?;1] : loi Beta ou Normale Méthode des moments;Utilisation de la Loi Normale.
10. Estimation
Estimation de param`etres : deux méthodes : Méthode des moments ... une loi normale d'écart-type ? = 0.10 quelle taille d'échantillon.
La loi normale
3.6 Génération de variables aléatoires normales via la méthode de. Box-Muller . La fonction génératrice des moments d'une loi normale.
Statistique L3 CPES Notes de cours
16 oct. 2021 3.1 Méthode des moments . ... Loi uniforme sur un ensemble fini I. Une variable aléatoire X ? U(I) si X ? I et
EVALUATION DES DIFFERENTES LOIS STATISTIQUES POUR L
Gumbel avec la méthode du maximum de vraisemblance et la loi Log-Normale sont la loi de Gumbel avec les méthodes des moments et des moindres carrés ...
Estimation paramétrique - univ-toulousefr
de maximisant la vraisemblance c’est à dire véri?ant ^= argmax 2 p( ;X): Remarque — L’estimateur de maximum de vraisemblance n’existe pas tou-jours et n’est pas toujours unique Considérons le cas typique où X= (1;:::;X n)0 les X i formant un n-échantillon de loi Q 0 où Q 0 est une loi sur Xde paramètre inconnu 0 2 ˆ Rk
Statistique inferentielle´ Estimation - CNRS
D´e?nitions Estimation de la moyenne et de la variance Methode des moments´ Maximum de Vraisemblance Comparaison EXEMPLES Exemple : la loi uniforme On considere des variables` aleatoires i i d´ X 1;:::;X n suivant une loi uniforme sur 0; 2 avec >0 i e de densit´e f d´e?nie pour tout x 2R par f (x) = 1 2 1 [0; 2](x): Exemple : la loi
TD1 : méthode des moments et maximum de vraisemblance - unicefr
n) un n-échantillon de loi normale centrée en m ? R et de variance ?2 > 0 Les quantités m et ?2 sont supposées inconnues On rappelle que la loi de Y 1 admet la densité suivante sur R : f m?2(x) = 1 ? 2??2 exp ? (x?m)2 2?2 1 Donner un estimateur de m par la méthode des moments Est-il sans biais? Si non modi?er-le
Searches related to méthode des moments loi normale PDF
Université de Caen M1 TD no 8 : Méthode des moments Exercice 1 Soient >0 et Xune var suivant la loi de Bernoulli B 1 +1 i e dont la loi est donnéepar P(X= 0) = +1; P(X= 1) = 1 +1: 1 Déterminerunestimateurde parlaméthodedesmoments 2 Est-cequecetestimateurestconsistant? Est-cequ’ilestasymptotiquementnormal?
A.2 Choix Du Modèle fréquentiel
La validité des résultats d'une analyse fréquentielle dépend du choix du modèle fréquentiel et plus particulièrement de son type. Diverses pistes peuvent contribuer à faciliter ce choix, mais il n'existe malheureusement pas de méthode universelle et infaillible.
A.3 Ajustement Du Modèle fréquentiel
Dans ce chapitre nous étudierons les techniques de l'ajustement ou du calage d'un modèle fréquentiel à une série de données : il s'agit de définir les paramètres de la loi retenue. Nous utiliserons comme support pédagogique la loi de Gumbel, fréquemment utilisée en hydrologie, pour modéliser les événements extrêmes, les pluies notamment.
A.4 Contrôle de L'ajustement
A.4.1 Examen visuel de l'ajustement
Comment calculer la méthode des moments ?
La méthode des moments consiste à trouver une fonction m , continue et inversible, et une fonction (continue) ? telles que m(?) = E[?(X1)] . On sait que cet estimateur est consistant. L'estimateur du maximum de vraisemblance, comme son nom l'indique, maximise la vraisemblance définie comme suit :
Qu'est-ce que la loi normale ?
La loi normale se justifie, théoriquement r par le théorème central-limite, comme la loi d'une variable aléatoire formée de la somme d'un grand nombre de variables aléatoires.
Comment calculer la loi de ?
Si est une variable aléatoire de loi , la loi de dépend aussi en général de , et il en est de même de son espérance. Mais peut être estimée par la moyenne empirique de . Si s'exprime en fonction de , on en déduira alors un estimateur de . Nous avons déjà utilisé cette technique plusieurs fois dans les deux paragraphes précédents.
Comment exprimer et en fonction de la loi gamma de paramètres et ?
Si suit la loi gamma de paramètres et , son espérance et sa variance valent : On peut donc exprimer et en fonction de et . Si on dispose d'un échantillon de la loi gamma de paramètres et , la moyenne empirique et la variance empirique sont des estimateurs convergents de et respectivement. On en déduit deux estimateurs convergents de et : Lois béta.
![Estimation paramétrique Estimation paramétrique](https://pdfprof.com/Listes/18/5839-18st-m-inf-esti.pdf.pdf.jpg)
Estimation paramétrique
Estimation paramétrique
Retour au
plan du cours Soit( ;A;P)un espace probabilisé etXune v.a. de( ;A)dans(E;E). La donnée d"un modèle statistique c"est la donnée d"une famille de proba- bilités sur(E;E),fP; 2g. Le modèle étant donné, on suppose alors que la loi deXappartient au modèlefP; 2g. Par exemple dans le modèle de Bernoulli,X= (X1;:::;Xn)où lesXisont i.i.d. de loi de Bernoulli de paramètre2]0;1[.E=f0;1gn,E=P(E), =]0;1[et P = ((1)0+1) n.1 Premières définitions
DÉFINITION1. - On dit que le modèlefP; 2gest identifiable si l"ap- plication ! fP; 2g 7!P est injective. DÉFINITION2. - Soitg: 7!Rk. On appelle estimateur deg()au vu de l"observationX, toute applicationT:7!Rkde la formeT=h(X)où
h:E7!Rkmesurable. Un estimateur ne doit pas dépendre de la quantitég()que l"on cherche à estimer. On introduit les propriètes suivantes d"un estimateur : DÉFINITION3. -Test un estimateur sans biais deg()si pour tout2, E [T] =g(). Dans le cas contraire, on dit que l"estimateurTest biaisé et on appelle biais la quantitéE(T)g(). GénéralementXest un vecteur(X1;:::;Xn)d"observations (nétant le nombre d"entre elles). Un exemple important est le cas oùX1;:::;Xnforme unn-échantillonc"est à dire lorsque queX1;:::;Xnsont i.i.d. On peut alorsregarder des propriétés asymptotiques de l"estimateur, c"est à dire en faisanttendre le nombre d"observationsnvers+1. Dans ce cas, il est naturel de
noterT=Tncomme dépendant den. On a alors la définition suivante : DÉFINITION4. -Tnest un estimateur consistant deg()si pour tout2, T nconverge en probabilité versg()sousPlorsquen! 1. On définit le risque quadratique de l"estimateur dans le cas oùg()2R. DÉFINITION5. - SoitTnest un estimateur deg(). Le risque quadratique de T nest défini parR(Tn;g()) =E[(Tng())2]:
Remarque. -Le risque quadratique est la somme de la variance et du carré du biais de l"estimateur. L"inégalité de Cramer-Rao et la définition de l"information de Fisher ont été vues en année 3 et ne sont pas rappelées ici.2 Estimation par la méthode des moments
Dans cette section,Xest le vecteur formé par unn-échantillonX1;:::;Xn.LesXisont à valeurs dans un ensembleX.
Soitf= (f1;:::;fk)une application deXdansRktelle que l"application !Rk :7!E[f(X1)] soitinjective. On définit l"estimateur^ncomme la solution dans(quand elle existe) de l"équation () =1n n X i=1f(Xi):(1) Souvent, lorsqueX R, la fonction on prendfi(x) =xietcorrespond donc auième moment de la variablesX1sousP. Ce choix justifie le nom donné à la méthode. Voici quelques exemples d"estimateurs bâtis sur par cette méthode.1Estimation paramétrique
2.1 Loi exponentielle
Icik= 1,Q=E()pour2R+. Comme pour tout,E[X1] = 1=
on prend() = 1=etf=Id:R+!R+. L"estimateur obtenu par la méthode des moments est n=1X noùX n=1n n X i=1X i: Par continuité de l"applicationx!1=x,^nest un estimateur consistant de.Remarquons queX
n>0p.s. ce qui justifie l"égalité ci-dessus.2.2 Loi uniforme
Icik= 1,Qest la loi uniforme sur[0;]avec >0. On a que pour tout,E[X1] ==2, on peut donc prendre par exemple() ==2et f=Id:R!R. L"estimateur obtenu par la méthode des moments est alors^n= 2X n. Cet estimateur est sans bias et consistant.2.3 Loi gaussienne
Icik= 2, on prend= (m;)2RR+,Q=N(m;). Pour tout
= (m;),E[X1] =metE[X21] =m2+. On peut donc prendre, par exemple,f1(x) =xetf2(x) =x2ce qui donne(m;) = (m;m2+). L"estimateur obtenus par la méthode des moments vérifie ^mn=X net ^m2n+ ^n=1n n X i=1X 2i: c"est a dire n= X n;1n n X i=1 XiX n 2! L"estimateur est consistant mais l"estimateur de la variance est biaisé.2.4 Propriétés asymptotiques
Notons() =E(1n
P n i=1f(Xi)). Supposons queX1;:::;Xnsont i.i.d.de loiP0. Les résultats de consistance précédents étaient obtenus grâce au faitque d"une part,
1n n X i=1f(Xi)p:s:!(0); et donc, comme1existe et est continue au voisinage de(0), on en déduit que ^nexiste et vérifie np:s:!1(0) =0:Mais que peut-on dire de la distance de
^nà0? Sous l"hypothèse que E0[kfk2]<+1on a grâce au théorème central limite que
pn 1n n X i=1f(Xi)(0)!Loi! Nk(0;(0));
où(0)la matrice covariance def(X1)sousP0. Elle est définie pouri;j2 f1;:::;kg i;j(0) =Cov0[fi(X1)fj(X1)]:La Delta méthode (cf Proposition
16 ) va nous permettre de déduire un résultat similaire pour^n: THÉORÈME6. - Supposons quesoit de classeC1dedansRket que02, et queD0 :Rk!Rksoit inversible. Supposons de plus que
E0[kf(X1)k2]<+1et notons(0)la matrice covariance def(X1)sous
P0. Alors sousP0:
^nexiste avec une probabilité tendant vers 1 on a la con vergenceen loi pn ^n0Loi! N
0;(D0)1(0)
(D0)10 Démonstration. -CommeD0est inversible,Dreste inversible dans un voisinage de0et donc, d"après le théorème de l"inversion locale,réalise un difféomorphisme d"un voisinageUde0dansVun voisinage de(0). Par la2Estimation paramétrique
loi des grands nombres, ^Yn=n1Pn i=1f(Xi)converge en probabilité (car p.s.) vers(0)et donc^Ynappartient àVavec une probabilité tendant vers 1 quandntend vers+1. Sur cet événement, l"équation (1) admet une uniquesolution^ndans(par injectivité de) et cette solution vérifie^n2Uet^n= 1(^Yn)où1est définie deVdansU. On a par ailleurs,
pn ^n0 =pn ^n1^Yn=2V+pn ^n1^Yn2V0 pn ^n1^Yn=2V+pn[~1^Yn ~1((0))](2) où ~1(y) = 1(y)1y2V. Orpn ^n1^Yn=2Vconverge vers 0 en probabilité car pour tout" >0, P 0[apn ^n1^Yn=2V> "]P0[^Yn62V]!n!+10: D"après le lemme de Slutsky, il suffit donc de montrer que le second terme du membre de droite de ( 2 ) converge en loi vers la limite annoncée. Or par théoreme centrale limite vectoriel pn ^Yn(0)Loi! N(0;(0));
et on conclut en utilisant la Proposition 16 .3 Estimation par maximum de vraisem- blance SoitfE;E;fP; 2ggun modèle statistique, oùRk(nous sommes dans un cadre paramétrique). On suppose qu"il existe une mesure-finiequi domine le modèle, c"est à dire que82,Padmet une densitép(;:)par rapport à. DÉFINITION7. - SoitXune observation. On appelle vraisemblance deX l"application !R+7!p(;X):On appelle estimateur du maximum de vraisemblance de, tout élément^
demaximisant la vraisemblance , c"est à dire vérifiant = argmax2p(;X): Remarque. -L"estimateur de maximum de vraisemblance n"existe pas tou- jours et n"est pas toujours unique. Considérons le cas typique oùX= (X1;:::;Xn)0, lesXiformant unn- R k. On suppose en outre que pour tout2,Qest absolument continue par rapport à une mesuresurX. Dans ce cas, en notant q(;x) =dQd (x); et en prenant= non a que la vraisemblance s"écrit p(;X) =nY i=1q(;Xi) et donc n= argmax21n n X i=1log[q(;Xi)]; avec la conventionlog(0) =1. Voyons quelques exemples.3.1 Modèle de Bernoulli
SoitQ0=B()avec2[0;1] = , etla mesure de comptage surN.Pour tout2]0;1[etx2 f0;1g
q(;x) =x(1)1x= (1)exp[xlog1 et donc l"estimateur du maximum de vraisemblance doit maximiser dans[0;1] logSn(1)nSn=Snlog1
+nlog(1); ce qui conduit à ^n=X.3Estimation paramétrique
3.2 Lois exponentielles
SoitQ=E()avec2=]0;+1[,=1R+dx. On a pour toutx >0,
q(;x) =expx; et le maximum de vraisemblance ^nmaximisant nlog()Sn; est donné par ^=X1.3.3 Lois de Poisson
SoitQ=P()avec2 =]0;+1[etla mesure de comptage surN.On a pour toutx2N,
q(;x) =xx!e=eexp[xlog()ln(x!)]: L"estimateur du maximum de vraisemblance maximisant S nlog()n; est donné par ^n=X.4 Estimateurs exhaustifs complets
DÉFINITION8. - On dit qu"un estimateurTest exhaustif (ou suffisant) si pour tout ensembleB2 E, il existe une version de l"espérance conditionnelle E [1X2BjT]qui ne dépend pas de. Exemple. -SoitX1;:::;Xni.i.d. de loi de Bernoulli de paramètre.S= X1+:::+Xnest une statistique exhaustive. La loi de(X1;:::;Xn)=S=s
ne dépend pas de.THÉORÈME9. -Théorème de factorisation
Si la vraisemblance de l"observationXs"écrit sous la forme f(X;) =h(X)g(T(X)); alorsT(X)est une statistique exhaustive.Exemples X1;:::;Xni.i.d. de loi de Bernoulli de paramètre,
X1;:::;Xni.i.d. de loi de normaleN(;1).
PROPOSITION10. - SoitTune statistique exhaustif etVun estimateur de g()tel queE(V2)<+1 82. SoitT=E(V=T).Test indépendant deet pour tout2, E ((Tg())2)E((Vg())2); ce qui signifie que le risque quadratique deTpour estimerg()est inférieur ou égal à celui deV. DÉFINITION11. - SoitTest un estimateur sans biais deg(). On dit que Test uniformément de variance minimale parmi les estimateurs sans biais (UMVB) si, pour tout estimateur sans biaisUdeg(), on a82;R(T;g())R(U;g());
oùRdésigne le risque quadratique. SoitTun estimateur exhaustif deg(). On désire introduire une notion qui garantisse l"unicité d"un estimateur (T)qui a les deux propriétés suivantes :1) (T)est sans biais.
2) Parmi les les estimateurs sans biais, il est de variance minimale.
S"il existe un unique estimateur sans biais deg()fonction deTalors E ( 1(T)) =E( 2(T)) =g()82 =) 1(T) = 2(T)Pp:s:8: DÉFINITION12. - Une statistiqueTest complète si pour toute fonction telle que E (j (T)j)<+1 82; on a E ( (T)) = 082 =) (T) = 0Pp:s:8:4Estimation paramétrique
SiTest une statistique complète et si 1(T)et 2(T)sont deux estimateurs sans biais deg(), alors 1(T) = 2(T)p.s.Exemple des modèles exponentiels:
DÉFINITION13. - S"il existe une mesure de référencetelle que la loiP admette une densité par rapport àde la forme f(;x) =C()exp(hT(x);Q()i; le modèle est dit exponentiel. PROPOSITION14. - Dans un modèle exponentiel,T(X)est une statistique exhaustive. De plus, siQ()contient un ouvert non vide deRk, alorsT(X) est complète. PROPOSITION15.- Supposonsqu"ilexisteaumoinsunestimateursansbiais deg()et queTsoit exhaustive complète. Alors il existe un unique estimateur sans biais deg()fonction deT, et cet estimateur est UMVB. Remarque. -Si l"objectif est de minimiser le risque quadratique, on a parfois intérêt à considérer des estimateurs qui sont biaisés.5 Annexe : rappels sur les convergences
PROPOSITION16. - (Delta-Méthode) SoitXnune suite de v.a. à valeurs dans R ket2Rktels que r n(Xn)Loi!Y; oùrnest une suite de réels positifs tendant vers+1. Soitfune application deRkdansRmdifferentiable en. On a alors que f(Xn)Prob!f() etrn(f(Xn)f())Loi!Df[Y]: Remarque. -Ce résultat permet d"étendre à d"autres v.a. le théorème central limite. Classiquement,Ysuit une loi gaussienneN(0;)et dans ce cas D f[Y] N0;(Df)(Df)0:Remarquons que l"on ne suppose rien sur la régularité defailleurs qu"en. Notons aussi que l"on ne suppose pasDf6= 0et donc la limite peut-etre nulleéventuellement.
5quotesdbs_dbs28.pdfusesText_34[PDF] comment construire un diagramme triangulaire
[PDF] mariage mixte au maroc pièces a fournir
[PDF] mariage mixte marocaine francais
[PDF] témoignage d'un survivant d'auschwitz
[PDF] comment calculer le qaly
[PDF] introduction ? l optimisation
[PDF] optimisation numérique aspects théoriques et pratiques
[PDF] fonction coercive
[PDF] les causes de l'avortement
[PDF] livre d optimisation pdf
[PDF] pdf avortement spontané
[PDF] cours et exercices corrigés doptimisation pdf
[PDF] ivg médicamenteuse
[PDF] optimisation sous contrainte exercice corrigé