[PDF] Estimation paramétrique - univ-toulousefr





Previous PDF Next PDF



Estimation paramétrique

L'estimateur obtenu par la méthode des moments est alors. ˆ?n = 2Xn. Cet estimateur est sans bias et consistant. 2.3 Loi gaussienne. Ici k = 2 on prend ? = (m 



Méthode des moments de probabilité pondérés : application à la loi

MOTS-CLÉS : Loi de probabilité - Estimation de paramètres - Méthode des teur % du paramètre k suit asymptotiquement une loi normale de moyenne 0 et de ...



Projet Etienne Marceau Méthodes statistiques en assurance non vie

3.2.1 Estimation des param`etres par la méthode des moments . La fonction de maximum de vraisemblance pour la loi log-normale (µ ?2) s'écrit : ?.



Introduction aux Statistiques de deuxième espèce : applications des

Les méthodes utilisées en statistique pour étudier une distribution de probabilité loi normale ainsi que sur un modèle de bruit bien adapté à ce.



Statistique appliquée

méthode des moments et la méthode du maximum de vraisemblance. Si X suit la loi normale standard N(01)



Analyse dImpact Budgétaire de la Prise en Charge de la

Risques relatifs [0 ;?[ : log normale ou loi Gamma. Utilité ]-?;1] : loi Beta ou Normale Méthode des moments;Utilisation de la Loi Normale.



10. Estimation

Estimation de param`etres : deux méthodes : Méthode des moments ... une loi normale d'écart-type ? = 0.10 quelle taille d'échantillon.



La loi normale

3.6 Génération de variables aléatoires normales via la méthode de. Box-Muller . La fonction génératrice des moments d'une loi normale.



Statistique L3 CPES Notes de cours

16 oct. 2021 3.1 Méthode des moments . ... Loi uniforme sur un ensemble fini I. Une variable aléatoire X ? U(I) si X ? I et



EVALUATION DES DIFFERENTES LOIS STATISTIQUES POUR L

Gumbel avec la méthode du maximum de vraisemblance et la loi Log-Normale sont la loi de Gumbel avec les méthodes des moments et des moindres carrés ...



Estimation paramétrique - univ-toulousefr

de maximisant la vraisemblance c’est à dire véri?ant ^= argmax 2 p( ;X): Remarque — L’estimateur de maximum de vraisemblance n’existe pas tou-jours et n’est pas toujours unique Considérons le cas typique où X= (1;:::;X n)0 les X i formant un n-échantillon de loi Q 0 où Q 0 est une loi sur Xde paramètre inconnu 0 2 ˆ Rk



Statistique inferentielle´ Estimation - CNRS

D´e?nitions Estimation de la moyenne et de la variance Methode des moments´ Maximum de Vraisemblance Comparaison EXEMPLES Exemple : la loi uniforme On considere des variables` aleatoires i i d´ X 1;:::;X n suivant une loi uniforme sur 0; 2 avec >0 i e de densit´e f d´e?nie pour tout x 2R par f (x) = 1 2 1 [0; 2](x): Exemple : la loi



TD1 : méthode des moments et maximum de vraisemblance - unicefr

n) un n-échantillon de loi normale centrée en m ? R et de variance ?2 > 0 Les quantités m et ?2 sont supposées inconnues On rappelle que la loi de Y 1 admet la densité suivante sur R : f m?2(x) = 1 ? 2??2 exp ? (x?m)2 2?2 1 Donner un estimateur de m par la méthode des moments Est-il sans biais? Si non modi?er-le



Searches related to méthode des moments loi normale PDF

Université de Caen M1 TD no 8 : Méthode des moments Exercice 1 Soient >0 et Xune var suivant la loi de Bernoulli B 1 +1 i e dont la loi est donnéepar P(X= 0) = +1; P(X= 1) = 1 +1: 1 Déterminerunestimateurde parlaméthodedesmoments 2 Est-cequecetestimateurestconsistant? Est-cequ’ilestasymptotiquementnormal?

  • A.2 Choix Du Modèle fréquentiel

    La validité des résultats d'une analyse fréquentielle dépend du choix du modèle fréquentiel et plus particulièrement de son type. Diverses pistes peuvent contribuer à faciliter ce choix, mais il n'existe malheureusement pas de méthode universelle et infaillible.

  • A.3 Ajustement Du Modèle fréquentiel

    Dans ce chapitre nous étudierons les techniques de l'ajustement ou du calage d'un modèle fréquentiel à une série de données : il s'agit de définir les paramètres de la loi retenue. Nous utiliserons comme support pédagogique la loi de Gumbel, fréquemment utilisée en hydrologie, pour modéliser les événements extrêmes, les pluies notamment.

  • A.4 Contrôle de L'ajustement

    A.4.1 Examen visuel de l'ajustement

Comment calculer la méthode des moments ?

La méthode des moments consiste à trouver une fonction m , continue et inversible, et une fonction (continue) ? telles que m(?) = E[?(X1)] . On sait que cet estimateur est consistant. L'estimateur du maximum de vraisemblance, comme son nom l'indique, maximise la vraisemblance définie comme suit :

Qu'est-ce que la loi normale ?

La loi normale se justifie, théoriquement r par le théorème central-limite, comme la loi d'une variable aléatoire formée de la somme d'un grand nombre de variables aléatoires.

Comment calculer la loi de ?

Si est une variable aléatoire de loi , la loi de dépend aussi en général de , et il en est de même de son espérance. Mais peut être estimée par la moyenne empirique de . Si s'exprime en fonction de , on en déduira alors un estimateur de . Nous avons déjà utilisé cette technique plusieurs fois dans les deux paragraphes précédents.

Comment exprimer et en fonction de la loi gamma de paramètres et ?

Si suit la loi gamma de paramètres et , son espérance et sa variance valent : On peut donc exprimer et en fonction de et . Si on dispose d'un échantillon de la loi gamma de paramètres et , la moyenne empirique et la variance empirique sont des estimateurs convergents de et respectivement. On en déduit deux estimateurs convergents de et : Lois béta.

Estimation paramétrique - univ-toulousefr

Estimation paramétrique

Estimation paramétrique

Retour au

plan du cours Soit( ;A;P)un espace probabilisé etXune v.a. de( ;A)dans(E;E). La donnée d"un modèle statistique c"est la donnée d"une famille de proba- bilités sur(E;E),fP; 2g. Le modèle étant donné, on suppose alors que la loi deXappartient au modèlefP; 2g. Par exemple dans le modèle de Bernoulli,X= (X1;:::;Xn)où lesXisont i.i.d. de loi de Bernoulli de paramètre2]0;1[.E=f0;1gn,E=P(E), =]0;1[et P = ((1)0+1) n.

1 Premières définitions

DÉFINITION1. - On dit que le modèlefP; 2gest identifiable si l"ap- plication ! fP; 2g 7!P est injective. DÉFINITION2. - Soitg: 7!Rk. On appelle estimateur deg()au vu de l"observationX, toute applicationT:

7!Rkde la formeT=h(X)où

h:E7!Rkmesurable. Un estimateur ne doit pas dépendre de la quantitég()que l"on cherche à estimer. On introduit les propriètes suivantes d"un estimateur : DÉFINITION3. -Test un estimateur sans biais deg()si pour tout2, E [T] =g(). Dans le cas contraire, on dit que l"estimateurTest biaisé et on appelle biais la quantitéE(T)g(). GénéralementXest un vecteur(X1;:::;Xn)d"observations (nétant le nombre d"entre elles). Un exemple important est le cas oùX1;:::;Xnforme unn-échantillonc"est à dire lorsque queX1;:::;Xnsont i.i.d. On peut alors

regarder des propriétés asymptotiques de l"estimateur, c"est à dire en faisanttendre le nombre d"observationsnvers+1. Dans ce cas, il est naturel de

noterT=Tncomme dépendant den. On a alors la définition suivante : DÉFINITION4. -Tnest un estimateur consistant deg()si pour tout2, T nconverge en probabilité versg()sousPlorsquen! 1. On définit le risque quadratique de l"estimateur dans le cas oùg()2R. DÉFINITION5. - SoitTnest un estimateur deg(). Le risque quadratique de T nest défini par

R(Tn;g()) =E[(Tng())2]:

Remarque. -Le risque quadratique est la somme de la variance et du carré du biais de l"estimateur. L"inégalité de Cramer-Rao et la définition de l"information de Fisher ont été vues en année 3 et ne sont pas rappelées ici.

2 Estimation par la méthode des moments

Dans cette section,Xest le vecteur formé par unn-échantillonX1;:::;Xn.

LesXisont à valeurs dans un ensembleX.

Soitf= (f1;:::;fk)une application deXdansRktelle que l"application !Rk :7!E[f(X1)] soitinjective. On définit l"estimateur^ncomme la solution dans(quand elle existe) de l"équation () =1n n X i=1f(Xi):(1) Souvent, lorsqueX R, la fonction on prendfi(x) =xietcorrespond donc auième moment de la variablesX1sousP. Ce choix justifie le nom donné à la méthode. Voici quelques exemples d"estimateurs bâtis sur par cette méthode.1

Estimation paramétrique

2.1 Loi exponentielle

Icik= 1,Q=E()pour2R+. Comme pour tout,E[X1] = 1=

on prend() = 1=etf=Id:R+!R+. L"estimateur obtenu par la méthode des moments est n=1X noùX n=1n n X i=1X i: Par continuité de l"applicationx!1=x,^nest un estimateur consistant de.

Remarquons queX

n>0p.s. ce qui justifie l"égalité ci-dessus.

2.2 Loi uniforme

Icik= 1,Qest la loi uniforme sur[0;]avec >0. On a que pour tout,E[X1] ==2, on peut donc prendre par exemple() ==2et f=Id:R!R. L"estimateur obtenu par la méthode des moments est alors^n= 2X n. Cet estimateur est sans bias et consistant.

2.3 Loi gaussienne

Icik= 2, on prend= (m;)2RR+,Q=N(m;). Pour tout

= (m;),E[X1] =metE[X21] =m2+. On peut donc prendre, par exemple,f1(x) =xetf2(x) =x2ce qui donne(m;) = (m;m2+). L"estimateur obtenus par la méthode des moments vérifie ^mn=X net ^m2n+ ^n=1n n X i=1X 2i: c"est a dire n= X n;1n n X i=1 XiX n 2! L"estimateur est consistant mais l"estimateur de la variance est biaisé.

2.4 Propriétés asymptotiques

Notons() =E(1n

P n i=1f(Xi)). Supposons queX1;:::;Xnsont i.i.d.

de loiP0. Les résultats de consistance précédents étaient obtenus grâce au faitque d"une part,

1n n X i=1f(Xi)p:s:!(0); et donc, comme1existe et est continue au voisinage de(0), on en déduit que ^nexiste et vérifie np:s:!1(0) =0:

Mais que peut-on dire de la distance de

^nà0? Sous l"hypothèse que E

0[kfk2]<+1on a grâce au théorème central limite que

pn 1n n X i=1f(Xi)(0)!

Loi! Nk(0;(0));

où(0)la matrice covariance def(X1)sousP0. Elle est définie pouri;j2 f1;:::;kg i;j(0) =Cov0[fi(X1)fj(X1)]:

La Delta méthode (cf Proposition

16 ) va nous permettre de déduire un résultat similaire pour^n: THÉORÈME6. - Supposons quesoit de classeC1dedansRket que

02, et queD0 :Rk!Rksoit inversible. Supposons de plus que

E

0[kf(X1)k2]<+1et notons(0)la matrice covariance def(X1)sous

P

0. Alors sousP0:

^nexiste avec une probabilité tendant vers 1 on a la con vergenceen loi pn ^n0

Loi! N

0;(D0)1(0)

(D0)10 Démonstration. -CommeD0est inversible,Dreste inversible dans un voisinage de0et donc, d"après le théorème de l"inversion locale,réalise un difféomorphisme d"un voisinageUde0dansVun voisinage de(0). Par la2

Estimation paramétrique

loi des grands nombres, ^Yn=n1Pn i=1f(Xi)converge en probabilité (car p.s.) vers(0)et donc^Ynappartient àVavec une probabilité tendant vers 1 quandntend vers+1. Sur cet événement, l"équation (1) admet une unique

solution^ndans(par injectivité de) et cette solution vérifie^n2Uet^n= 1(^Yn)où1est définie deVdansU. On a par ailleurs,

pn ^n0 =pn ^n1^Yn=2V+pn ^n1^Yn2V0 pn ^n1^Yn=2V+pn[~1^Yn ~1((0))](2) où ~1(y) = 1(y)1y2V. Orpn ^n1^Yn=2Vconverge vers 0 en probabilité car pour tout" >0, P 0[apn ^n1^Yn=2V> "]P0[^Yn62V]!n!+10: D"après le lemme de Slutsky, il suffit donc de montrer que le second terme du membre de droite de ( 2 ) converge en loi vers la limite annoncée. Or par théoreme centrale limite vectoriel pn ^Yn(0)

Loi! N(0;(0));

et on conclut en utilisant la Proposition 16 .3 Estimation par maximum de vraisem- blance SoitfE;E;fP; 2ggun modèle statistique, oùRk(nous sommes dans un cadre paramétrique). On suppose qu"il existe une mesure-finiequi domine le modèle, c"est à dire que82,Padmet une densitép(;:)par rapport à. DÉFINITION7. - SoitXune observation. On appelle vraisemblance deX l"application !R+

7!p(;X):On appelle estimateur du maximum de vraisemblance de, tout élément^

demaximisant la vraisemblance , c"est à dire vérifiant = argmax2p(;X): Remarque. -L"estimateur de maximum de vraisemblance n"existe pas tou- jours et n"est pas toujours unique. Considérons le cas typique oùX= (X1;:::;Xn)0, lesXiformant unn- R k. On suppose en outre que pour tout2,Qest absolument continue par rapport à une mesuresurX. Dans ce cas, en notant q(;x) =dQd (x); et en prenant= non a que la vraisemblance s"écrit p(;X) =nY i=1q(;Xi) et donc n= argmax21n n X i=1log[q(;Xi)]; avec la conventionlog(0) =1. Voyons quelques exemples.

3.1 Modèle de Bernoulli

SoitQ0=B()avec2[0;1] = , etla mesure de comptage surN.

Pour tout2]0;1[etx2 f0;1g

q(;x) =x(1)1x= (1)exp[xlog1 et donc l"estimateur du maximum de vraisemblance doit maximiser dans[0;1] log

Sn(1)nSn=Snlog1

+nlog(1); ce qui conduit à ^n=X.3

Estimation paramétrique

3.2 Lois exponentielles

SoitQ=E()avec2=]0;+1[,=1R+dx. On a pour toutx >0,

q(;x) =expx; et le maximum de vraisemblance ^nmaximisant nlog()Sn; est donné par ^=X1.

3.3 Lois de Poisson

SoitQ=P()avec2 =]0;+1[etla mesure de comptage surN.

On a pour toutx2N,

q(;x) =xx!e=eexp[xlog()ln(x!)]: L"estimateur du maximum de vraisemblance maximisant S nlog()n; est donné par ^n=X.

4 Estimateurs exhaustifs complets

DÉFINITION8. - On dit qu"un estimateurTest exhaustif (ou suffisant) si pour tout ensembleB2 E, il existe une version de l"espérance conditionnelle E [1X2BjT]qui ne dépend pas de. Exemple. -SoitX1;:::;Xni.i.d. de loi de Bernoulli de paramètre.S= X

1+:::+Xnest une statistique exhaustive. La loi de(X1;:::;Xn)=S=s

ne dépend pas de.

THÉORÈME9. -Théorème de factorisation

Si la vraisemblance de l"observationXs"écrit sous la forme f(X;) =h(X)g(T(X)); alorsT(X)est une statistique exhaustive.Exemples X

1;:::;Xni.i.d. de loi de Bernoulli de paramètre,

X

1;:::;Xni.i.d. de loi de normaleN(;1).

PROPOSITION10. - SoitTune statistique exhaustif etVun estimateur de g()tel queE(V2)<+1 82. SoitT=E(V=T).Test indépendant deet pour tout2, E ((Tg())2)E((Vg())2); ce qui signifie que le risque quadratique deTpour estimerg()est inférieur ou égal à celui deV. DÉFINITION11. - SoitTest un estimateur sans biais deg(). On dit que Test uniformément de variance minimale parmi les estimateurs sans biais (UMVB) si, pour tout estimateur sans biaisUdeg(), on a

82;R(T;g())R(U;g());

oùRdésigne le risque quadratique. SoitTun estimateur exhaustif deg(). On désire introduire une notion qui garantisse l"unicité d"un estimateur (T)qui a les deux propriétés suivantes :

1) (T)est sans biais.

2) Parmi les les estimateurs sans biais, il est de variance minimale.

S"il existe un unique estimateur sans biais deg()fonction deTalors E ( 1(T)) =E( 2(T)) =g()82 =) 1(T) = 2(T)Pp:s:8: DÉFINITION12. - Une statistiqueTest complète si pour toute fonction telle que E (j (T)j)<+1 82; on a E ( (T)) = 082 =) (T) = 0Pp:s:8:4

Estimation paramétrique

SiTest une statistique complète et si 1(T)et 2(T)sont deux estimateurs sans biais deg(), alors 1(T) = 2(T)p.s.

Exemple des modèles exponentiels:

DÉFINITION13. - S"il existe une mesure de référencetelle que la loiP admette une densité par rapport àde la forme f(;x) =C()exp(hT(x);Q()i; le modèle est dit exponentiel. PROPOSITION14. - Dans un modèle exponentiel,T(X)est une statistique exhaustive. De plus, siQ()contient un ouvert non vide deRk, alorsT(X) est complète. PROPOSITION15.- Supposonsqu"ilexisteaumoinsunestimateursansbiais deg()et queTsoit exhaustive complète. Alors il existe un unique estimateur sans biais deg()fonction deT, et cet estimateur est UMVB. Remarque. -Si l"objectif est de minimiser le risque quadratique, on a parfois intérêt à considérer des estimateurs qui sont biaisés.

5 Annexe : rappels sur les convergences

PROPOSITION16. - (Delta-Méthode) SoitXnune suite de v.a. à valeurs dans R ket2Rktels que r n(Xn)Loi!Y; oùrnest une suite de réels positifs tendant vers+1. Soitfune application deRkdansRmdifferentiable en. On a alors que f(Xn)Prob!f() etrn(f(Xn)f())Loi!Df[Y]: Remarque. -Ce résultat permet d"étendre à d"autres v.a. le théorème central limite. Classiquement,Ysuit une loi gaussienneN(0;)et dans ce cas D f[Y] N0;(Df)(Df)0:Remarquons que l"on ne suppose rien sur la régularité defailleurs qu"en. Notons aussi que l"on ne suppose pasDf6= 0et donc la limite peut-etre nulle

éventuellement.

5quotesdbs_dbs28.pdfusesText_34
[PDF] methode des moments exercices corrigés

[PDF] comment construire un diagramme triangulaire

[PDF] mariage mixte au maroc pièces a fournir

[PDF] mariage mixte marocaine francais

[PDF] témoignage d'un survivant d'auschwitz

[PDF] comment calculer le qaly

[PDF] introduction ? l optimisation

[PDF] optimisation numérique aspects théoriques et pratiques

[PDF] fonction coercive

[PDF] les causes de l'avortement

[PDF] livre d optimisation pdf

[PDF] pdf avortement spontané

[PDF] cours et exercices corrigés doptimisation pdf

[PDF] ivg médicamenteuse

[PDF] optimisation sous contrainte exercice corrigé