[PDF] Corrigé du TD no 1 Corrigé du TD no 1.





Previous PDF Next PDF



CTU Master Enseignement des Mathématiques Statistique

Ce polycopié contient le cours les sujets d'exercice et leurs corrigés l'estimation par la méthode des moments redonne l'estimateur intuitif de µ par.



Corrigé du TD no 1

Corrigé du TD no 1. Mod`eles linéaires et généralisations. Exercice 1 Cela veut dire que l'estimateur par la méthode des moments ne peut pas être défini ...



Feuille 3 : Méthodes destimation 1 Méthode des moments

Déterminer l'estimateur du maximum de vraisemblance de ?. Exercice 6 La hauteur maximale en mètres de la crue annuelle d'un fleuve est une variable aléatoire 



Estimation paramétrique

T est un estimateur sans biais de g(?) si pour tout ? ? ?. E?[T] = g(?). f = Id : R ? R. L'estimateur obtenu par la méthode des moments est alors.



Exercices et problèmes de statistique et probabilités

1.4 Moments d'une variable aléatoire . Corrigés des exercices . ... Chapitre 5 Estimateur sans biais de variance minimale ..................... 97.



TD no 8 : Méthode des moments

0 1 0 0 1 0 1 0 0 1 0 1 0 0 1. Donner une estimation ponctuelle pour ?. Exercice 2. Soit X le caractère égale au nombre de pannes que subit un certain type d' 



Fascicule dexercices

Construction et choix d'estimateur : comparaison d'estimateur méthode des moments



Devoir de statistiques: CORRIGE durée 2h

Proposer un esitmateur ˆ? de ? basé sur la méthode des moments. On On va maintenant s'intéresser `a l'estimateur du maximum de vraisemblance.



Corrigé : Estimation Paramétrique

ainsi un contre-exemple où l'estimateur par max. de vraisemblance (EMV) est différent de celui par méthode des moments (EMM). Exercice 2.



Estimation paramétrique

Sep 16 2022 III.1.3 Exercices et compléments . ... de Z en ? (la méthode proposée à l'exercice 4 p.17 pour ... L'estimation par méthode de moments.

Corrige du TD no 1Modeles lineaires et generalisations

Exercice 1

Question(1).SoientX1;:::;Xni.i.d. de densitex11l(x1), ou >0. On suppose que >1, estimerpar la methode des moments.

On calcule l'esperance deX1:

1() =E(X1) =Z

1 1xx +1dx=x1(1) 1 1 =1: La fonction1(:) etablit une bijection de =]1;+1[ dans ]1;+1[, d'inverse11=1. CommeXappartient p.s. a ]1;+1[, l'estimateur par la methode des moments est bien deni p.s. sur =]1;+1[ et est l'uniquetel que1() =X;c'est-a-dire MMn=X X1: Question(2).On suppose maintenant que =f >0g. Estimerpar la methode des moments generalisee et du maximum de vraisemblance. Montrons d'abord que la methode des moments ne peut pas ^etre appliquee dans ce cas.

On calcule les moments d'ordrerdeX1pour unr >0 :

r() =E(Xr1) =Z 1 1x rx +1dx=( xr(r)1

1=r;si > r;

+1;sir: On voit qu'il n'existe pas der >0 tel que la fonction2 =]0;+1[7!r() soit injective. Cela veut dire que l'estimateur par la methode des moments ne peut pas ^etre deni dans ce cas. (On ne pourra jamais trouver un ensembleDcontenant pour lequel2D7!r() soit injective.) En revanche, on peut denir l'estimateur par la methode des moments generalisee.

On poseg(x) = 1=x. Dans ce cas

g() =E(g(X1)) =Z 1 1x

2+dx=1 +:

La fonctiong(:) etablit une bijection de =]0;+1[ dans ]0;1[, d'inverse1g(y) =y=(1 y). Comme1=X=n1Pn i=1g(Xi) appartient p.s. a ]0;1[, l'estimateur par la methode des moments est bien deni p.s. sur =]0;+1[ et est l'uniquetel queg() =1=X;c'est-a-dire

MMn=1=X11=X:

Calculons a present l'estimateur du maximum de vraisemblance sur =]0;+1[, on a

L((x1;:::;xn);) =n1l(x(1)1)nY

i=11x +1i:

CommeX(1)1 p.s., l'egalite ci-dessus implique

l n() =log+(+ 1)n n X i=1logXi 1 2 La fonction de log-vraisemblanceln(:) est derivable sur =]0;+1[ et on al0n() =1+ n 1Pn i=1logXi, de sorte que l

0n()0()1n

n X i=1logXi 1

Comme l'inverse den1Pn

i=1logXiest p.s. dans =]0;+1[, la fonction de log-vraisemblance admet un unique maximum sur =]0;+1[ et

MVn=1n

n X i=1log(Xi) 1 On remarque que l'EMV aurait pu ^etre obtenu en appliquant la methode des moments avec g(x) = log(x). Question(3).Le modele statistique en question est-il regulier? Calculer l'information de

FisherI().

Pour prouver que le modele est regulier, il faut verier les hypotheses (D), (H1)-(H4) (voir cours). L'hypothese (D) est evidemment satisfaite avec la mesure de Lebesgue. L'hypothese (H1) equivaut a verier que pour dierentes valeurs de, les densitesfont le m^eme support. Dans notre cas il est evident que le support defest [1;1[ et il est independant de. La fonction7!l(x;) = logf(x) = log(1 +)logxdenie sur l'intervalle ouvert >0 est inniment derivable, donc (H2) est egalement satisfaite. Pour verier (H3), on remarque que pour tout>0 et pour tout2]=2;2[:=U, on a jl0(x;)j=j1logxj 2 + logx;8x >1 j(l0(x;))2j 2 + logx 2

8()2+ 2log2(x);8x >1

jl00(x;)j=j 2j 4()2;8x >1 sup

2Uf(x)2x

=2+1;8x >1: L'hypothese (H3) decoule immediatement de ces inegalites, en posant (x) =2 + logx+

8()2+ 2log2(x).

Calculons a present l'information de Fisher, ce qui nous permettra de verier (H4). Par denition,

I() =Edlogfd

(X) 2 =E1 logX 2 On poseYi= log(Xi); par integration par parties, on trouve

E(Yi) =Z

1

1log(x)x

+1dx=log(x)x 1 1 +Z 1 11x +1dx=1x 1 1 =1 et

E(Y2i) =Z

1 1log 2xx +1dx=Z 1

12logxx

+1dx=2E(Y1) =2 2: 3 Par suiteI() =Var(Y1) =2>0, ce qui nous permet de conclure que le modele statistique qu'on considere est regulier. Question(4).Sans utiliser le theoreme general, etudier la loi limite de l'estimateur du maximum de vraisemblance ^EMVn. Est ce que la variance asymptotique depn(^EMVn)est egale aI()1? Pourquoi? Pour trouver la loi limite deMVn, on utilise la loi forte des grands nombres et le theoreme central limite pour les variablesYi= log(Xi) i.i.d. : d'une part, on remarque queYi0 p.s. carX11 p.s., de sorte queE(jY1j) =E(Y1) = 1= <1et en utilisant la loi forte des grands nombres on obtient ^MVn=1

Yp:s:!n!11E(Y1)=:(1)

Pour determiner la loi limite, on utilise le theoreme central limite (carE(Y2i) = 2=2<1), pn(Y1)D!n!1N(0;2):(2) En utilisant les convergences (1), (2), la representation pn(^MVn) =pn(Y1) =pn YY1 ainsi que le theoreme de Slutsky, on obtient pn(^MVn)D!n!1N(0;2) =N(0;2):

La variance asymptotique de

pn(^EMVn) est donc egale aI()1. Ceci est coherent avec le resultat general du cours sur la distribution asymptotique de l'EMV, valable dans tout modele regulier lorsque l'EMV est consistant (donc par exemple, tout a fait applicable dans le contexte present).

Exercice 2

On observeX1de loiU[0;1]sousH0, ouU[2;3]sousH1. Proposer un test de l'hypotheseH0 contre l'alternativeH1, et calculer ses erreurs de premiere et deuxieme espece. Vu que les intervalles [0;1] et [2;3] sont disjoints, le test le plus naturel consiste a accepter H

0si la valeur observeeX1appartient a [0;1] et accepterH1dans le cas contraire.

L'erreur de premiere espece est alors la probabilite de rejeterH0alors qu'elle etait vraie : P

U[0;1](X162[0;1]) = 0:

De la m^eme fa

Aon, on verie que l'erreur de second espece est egalement nulle. C'est donc un test ideal, car la probabilite de commettre une erreur est nulle.

Exercice 3

On suppose que l'on observeX1;:::;Xni.i.d. de loiN(;1). On veut testerH0:= 0contre H

1:=mo?mest un nombre reel negatif xe.

Question(1).Donner la forme du test de Neyman-Pearson de niveau2(0;1)pour ce probleme. 4 Pour denir le test de Neyman-Pearson (N-P), on determine d'abord la fonction de vraisem- blance :

L(;X1;:::;Xn) = (2)n=2nY

i=1e (Xi)2=2 et le rapport des vraisemblances :

L(1;X1;:::;Xn)L(0;X1;:::;Xn)=nY

i=1exp[(Xi1)2(Xi0)2]=2 = exp n(10)X+12 n(2021)=e12 nm2+mnX; o? la derniere egalite est due au fait que dans notre cas0= 0 et1=m. Cette expression du rapport de vraisemblance implique que le test N-P est deni par la region critique

R=fe12

nm2+nmX> cg o?cverieP0(e12 nm2+nmXc) =. Si l'on posec0= (2n1logc+m2)=2m, alors la regionRse simplie :

R=fX < c0g:

Il est evident que sousH0, la variable aleatoireXsuit la loiN(0;1=n) =n1=2N(0;1). Donc =P0(R) =P(n1=2N(0;1)< c0) = (pnc 0); o? designe la fonction de repartition deN(0;1). On en deduit que pnc

0= 1() =qN;ou encorec0=n1=21() =n1=2qN;

o?qNest le quantile d'ordrede la loi normaleN(0;1). Question(2).Calculer la puissancem2R7!n(m)de ce test et tracer son graphe. Etudier la convergence simple denlorsquentend vers+1. Peut{on parler de convergence uniforme surR?

La puissance de ce test est denie par

n(m) =Pm(X < c0):

Lorsque

X N(m;n1), on apn(Xm) N(0;1). Donc

n(m) =PN(0;1)Question(3).On considere l'alternativeH1:=Cn , avecC >0et

2R.Etudier le

comportement de la puissance du test en fonction de lorsquen! 1. 5

Posons ~n(

) =n(Cn ). En substituantmparCn dans l'expression de la puissance de la question precedente, on obtient : ~n( ) = qN+Cn12 Si >1=2, alorsn12 !0 et donc ~n( )!(qN) =. Si <1=2, alorsn12 !+1et donc ~n( )!(qN+1) = 1. Si = 1=2, on a ~n( ) = qN+C. En conclusion, lim n!1~n( ) =8 :;si >1=2; qN+C;si = 1=2; 1;si <1=2:

On voit que pour

1=2 ce test n'est pas consistant (6!1). Ceci implique qu'on ne peut

pas distinguer l'alternative de l'hypothese si elles sont \trop proches".

Exercice 4

Un marchand de graines a l'habitude de fournir a un ingenieur agronome un melange de 6 types de graines qui entrent toutes dans le melange avec les m^emes proportions. Quelque soit le type, les graines ont sensiblement le m^eme poids la m^eme taille. Elles dierent d'un type a l'autre par leurs formes. On designe ces 6 types par A,...,F. Un jour, l'ingenieur lui demande de preparer un melange special dans lequel il y aura1=4de graines A,1=2de B, les autres graines restent en proportion inchangees. Le jour de livraison, un employe un peu trop zele a deplace les sacs. Le grainetier, fort perplexe, croit que le premier sac est bon, mais il n'en est pas certain. Comment faire? Evidemment, on pourrait trier les graines de ce sac, mais ceci serait fastidieux. On propose ici un test pour apporter une solution a ce probleme : il s'agit, a partir d'un echantillon de graines du sac, de decider entre deux hypotheses : \ ce sac est bon" et \ce sac est ordinaire". Question(1).A partir des observations de la forme \lai-ieme graine tiree est de type A ou non", formuler un modele statistique et poser le probleme de test d'hypotheses. SoientYiune variable aleatoire qui vaut 1 si lei-eme graine de l'echantillon choisi est de type A, et 0 dans le cas contraire. Il est bien evident queYsuit une loi de Bernoulli qu'on notera Be(p), pour un parametre d'inter^etp2]0;1[. L'hypotheseH0est alors \le sac est bon", qui se traduit parH0:p= 1=4, l'alternative etant \le sac est ordinaire"H1:p= 1=6. Question(2).Quelle est, sous chacune des ces hypotheses, la loi du nombreXde graines de type A dans un echantillon de taillen? Donner les valeurs deE(X)etVar(X)correspondant a chaque cas. La variableXest simplement la somme desYi, donc elle suit la loi binomiale : X=nX i=1Y iB(n;p): SousH0cela donneXB(n;1=4), alors que sousH1,XB(n;1=6). On a deja calcule l'esperance et la variance de la loi binomiale : sousH0E(X) =nE(Y1) =np=n=4;Var(X) =nVar(Y1) =np(1p) = 3n=16; sousH1E(X) =nE(Y1) =np=n=6;Var(X) =nVar(Y1) =np(1p) = 5n=36: 6 Question(3).Donner la forme du test Neyman{Pearson de niveaupour tester l'hypothese "ce sac est bon" contre l'alternative "c'est un sac ordinaire". Pour toutp, la vraisemblance de ce modele de Bernoulli s'ecrit

L(Y1:::Yn;p) =nY

i=1 pYi(1p)1Yi=pX(1p)nX; de sorte que le rapport de vraisemblance entrep1= 1=6 etp0= 1=4 est

L(Y1:::Yn;p1)L(Y1:::Yn;p0)=p1p

0

X1p11p0

nX =46 X56 43
nX =35 X109 n Par consequent, la region critique du test de N-P est R =fL(Y1:::Yn;p1)> cL(Y1:::Yn;p0)g=fX < c0g o?c0= (nlog(10=9)log(c))=log(5=3). La valeurc0est telle que =P1=4(R) =P1=4(X < c0) =P(Z < c0) avecZB(n;1=4): Question(4).En utilisant une approximation de la loi de la variable aleatoireXpar une loi normale (sous chacune des hypotheses), determiner la taille minimalen0de l'echantillon et la region critique pour avoir un test de niveau de conanceet de puissance plus grande que

1avec0< = <1. Que vaut la region de rejet etn0pour== 0:05? Conclure.

Comme les variablesYisont i.i.d. telles queE(jYj2) =E(Y)<1, on peut leur appliquer le theoreme central limite : pour toutp,

Xnppnp(1p)=pn

Yppp(1p)D!n!1N(0;1):

Apres calcul, ceci nous donne pourp0= 1=4 etp1= 1=6 les convergences : sousH0:4Xnp3nD! N(0;1) (3) sousH1:6Xnp5nD! N(0;1) (4) Choisissons a present la constantec0de tel sorte que=P1=4X < c0, en utilisant l'ap- proximation (3) : =P1=4X < c0=P1=44Xnp3n<4c0np3n P

N(0;1)<4c0np3n

= 4c0np3n L'approximation (3) nous suggere donc de choisirc0telle que= (4c0n)=p3n(en toute rigueur, il faudrait noter cette constantec00car elle diere legerement dec0; on la notequotesdbs_dbs1.pdfusesText_1
[PDF] estimation par intervalle de confiance exercices + corrigés pdf

[PDF] estimation par la méthode des moments exercices corrigés

[PDF] estimulacion temprana definicion pdf

[PDF] estimulacion temprana pdf libro

[PDF] estimulacion temprana pdf manual

[PDF] estimulacion temprana que es

[PDF] estm meknes 2017

[PDF] esto ecole supérieure de technologie oujda

[PDF] esto inscription 2017

[PDF] estrategia corporativa de zara

[PDF] estrategias de zara inditex

[PDF] estructura del informe de auditoria de gestion

[PDF] estructuralismo psicologia wundt pdf

[PDF] estructuralismo y funcionalismo psicologia pdf

[PDF] estudiar ingenieria en logistica en linea