[PDF] [PDF] STATISTIQUE : ESTIMATION - Institut de Mathématiques de Bordeaux

Intervalle de confiance de la différence de deux moyenne 18 On suppose dans ce paragraphe que X suit la loi normale N(m, σ2) théorème central limite s'avère être un très bon outil, pour obtenir un intervalle de confiance asymptotique



Previous PDF Next PDF





[PDF] Quelques rappels sur les intervalles de confiance - Cedric-Cnam

Les bornes de l'intervalle de confiance IC dépendent de l'échantillon, elles sont donc aléatoires Par abus de langage, On recherche dans la suite des fonctions pivotales particulières adaptées aux cas étudiés ce cas, la distribution de la moyenne empirique tend vers une loi normale d'après le théorème central limite



[PDF] Intervalles de confiance - Université de Rennes 1

s'intéresse la statistique est de décrire une loi de probabilité `a partir Donnons tout de suite des exemples archi-classiques de telles familles : Voici `a présent la définition mathématique d'un intervalle de confiance telle qu'on peut pour θ, toutes deux basées principalement sur l'utilisation du théor`eme limite central :



[PDF] Statistiques

Définition 1 3 1 La v a X suit une loi uniforme sur l'intervalle borné [a, b] si elle a Un résultat général de probabilité (le théor`eme central limite, TCL) justifie l'ap L'intervalle de confiance de la variance σ2 se calcule `a partir de l'échantillon 



[PDF] Estimation et tests statistiques, TD 5 Solutions

Exercice 1 – Dans un centre avicole, des études antérieures ont montré que la masse c) Donner un intervalle de confiance au niveau 95 , puis 98 , de la masse approcher cette loi par la loi normale N(np,√np(1 − p)), et donc F suit 



[PDF] Estimations et intervalles de confiance - Institut de Mathématiques

mations : intervalle de confiance d'une proportion, d'une moyenne si la variance qui ne suit plus une loi normale mais une loi dite de Student à n − 1 degrés



[PDF] Cours de Statistiques inférentielles

Une variable aléatoire réelle X suit une loi normale (ou loi gaussienne, loi de Corollaire 2 3 2 (Théorème central limite) Soit une suite (Xn) de variables aléatoires L'intervalle de confiance pour la moyenne d'une population de variance σ2 



[PDF] Lois normales

exemple la détermination d'intervalles de confiance), on cherche à approcher pour tout entier naturel non nul n, la variable aléatoire Xn suit la loi binomiale



[PDF] STATISTIQUE : ESTIMATION - Institut de Mathématiques de Bordeaux

Intervalle de confiance de la différence de deux moyenne 18 On suppose dans ce paragraphe que X suit la loi normale N(m, σ2) théorème central limite s'avère être un très bon outil, pour obtenir un intervalle de confiance asymptotique



[PDF] Intervalles de confiance - Mathieu Mansuy

1 2 Intervalle de confiance par l'inégalité de Bienaymé-Tchebychev On considère une suite (Xn) de variables aléatoires i i d suivant la même loi de Bernoulli 



[PDF] Estimation: intervalle de fluctuation et de confiance

Confiance Th éorie approximation 1,96 ? intervalle ? Estimation Term 1 Estimation: intervalle de √np(1 − p)suit une loi normale N(0; 1) • Xn − np √ np(1 

[PDF] intervalle de confiance student

[PDF] intervalle de confiance d'une moyenne excel

[PDF] unité commerciale définition

[PDF] climat définition cycle 3

[PDF] definition de meteorologie

[PDF] unité commerciale physique et virtuelle complémentaire

[PDF] definition meteo

[PDF] dispense cap petite enfance

[PDF] deaes

[PDF] formule variance

[PDF] problème du second degré seconde

[PDF] bpjeps

[PDF] moyenne nationale bac francais 2017

[PDF] moyenne nationale math bac s

[PDF] moyenne nationale bac philo 2015

STATISTIQUE : ESTIMATION

Préparation à l"Agrégation Bordeaux 1

Année 2012 - 2013

Jean-Jacques Ruch

Table des Matières

Chapitre I. Estimation ponctuelle5

1. Définitions5

2. Critères de comparaison d"estimateurs 6

3. Exemples fondamentaux 6

3.a. Estimation dem6

3.b. Estimation de2en supposantmconnu 7

3.c. Estimation de2lorsquemest inconnu 7

4. Cas particulier de la loi normale 8

5. Construction d"estimateur par la méthode du maximum de vraisemblance 11

5.a. Cas discret11

5.b. Cas à densité12

Chapitre II. Estimation par intervalle13

1. Définition d"une région de confiance 13

2. Construction de régions de confiance 13

3. Exemples classiques d"estimation par intervalle 15

3.a. Estimation de la moyenne quand la variance est connue 15

3.b. Estimation de la moyenne quand la variance est inconnue 15

3.c. Estimation de la variance quand la moyenne est connue 16

3.d. Estimation de la variance quand la moyenne est inconnue 18

4. Comparaison de moyennes et de variances 18

4.a. Intervalle de confiance de la différence de deux moyenne 18

4.b. Intervalle de confiance du rapport de deux variances 20

5. Estimation d"une proportion 20

5.a. Estimation ponctuelle 21

5.b. Estimation par intervalle 21

5.c. Méthode du Bootstrap 22

3

CHAPITRE I

Estimation ponctuelle

En statistique, comme dans la théorie des probabilités le hasard intervient fortement. Mais dans la théorie

des probabilités, on suppose la loi connue précisément et on cherche à donner les caractéristiques de la

variable qui suit cette loi. L"objectif de la statistique est le contraire : à partir de la connaissance de la

variable, que peut-on dire de la loi de cette variable?

1. Définitions

SoitXune variable aléatoire dont la densité de probabilitéf(x;)dépend d"un paramètreappartenant

àIR. A l"aide d"un échantillon issu deX, il s"agit de déterminer au mieux la vraie valeur0de. On

pourra utiliser deux méthodes : -estimation ponctuelle: on calcule une valeur vraisemblable^de0

-estimation par intervalle: on cherche un intervalle dans lequel0se trouve avec une probabilité élevée.

Définition 1.Unn-échantillondeXest unn-uplet(X1;X2;:::;Xn)tel que lesXkont la même loi queXet sont indépendantes.

Uneréalisation de l"échantillonest alors unn-uplet(x1;x2;:::;xn)de valeurs prises par l"échantillon.Définition 2.Unestatistiquede l"échantillon est une variable aléatoire'(X1;X2;:::;Xn)où'est

une application deRndansR. UnestimateurTdeest une statistique à valeurs dansI. Uneestimationest la valeur de l"estimateur correspondant à une réalisation de l"échantillon.Exemple:X n=1n n X k=1X kest un estimateur de l"espérance mathématique. Définition 3.Lebiaisde l"estimateurTdeestE[T]0. S"il est nul, on dit queTest un estimateur sans biais. L"estimateurTnestasymptotiquement sans biaissilimE[Tn] =0.On note souvent le biaisb(T). Définition 4.L"estimateur est ditconvergentsi la suite(Tn)converge en probabilité vers0:

8" >0;P(jTn0j> ")!n!+10:

On parle d"estimateurfortement convergentlorsqu"on a convergence presque sûre.D"après Bienaymé-Tchebychev pour qu"un estimateur asymptotiquement sans biais soit convergent il

suffit que

Var(Tn)!n!+10:

5

6Chapitre I. Estimation ponctuelle

2. Critères de comparaison d"estimateurs

Un bon critère de comparaison est lerisque quadratique. Définition 5.SoientTun estimateur de. Le risque quadratique est défini par R(T;) =E[(T)2]On peut alors comparer deux estimateurs. Définition 6.On dit queT1est unmeilleur estimateurqueT2si

82I; R(T1;)R(T2;)

et

92I; R(T1;)< R(T2;):Un estimateur est ditadmissibles"il n"existe pas d"estimateur meilleur.

L"erreur quadratique moyenne deTse décompose en deux termes, le carré du biais et la variance deT:

E[(T)2] =b2(T) +Var(T):

Cette décomposition permet de se ramener à une discussion sur la variance pour les estimateurs sans

biais de. Définition 7.SoientT1etT2deux estimateurs sans biais de. On dit queT1est unplus efficace queT2si

82I;Var(T1)Var(T2)

et

92I;Var(T1)

Var(T1)Var(T2):

3. Exemples fondamentaux

SoitXune variable aléatoire telle queE[X] =met Var(X) =2.

3.a. Estimation dem.

Théorème 8.La moyenne empiriqueX

n=1n n X k=1X kest un estimateur sans biais et convergent dem.On a E[X n] =1n n X k=1E[Xk] =met Var(X n) =1n 2n X k=1Var[Xk] =2n !n!+10:

D"après la loi forte des grands nombresX

nest même fortemement convergent. Il est possible de déterminer la loi asymptotique de la moyenne empirique.

Jean-Jacques Ruch

3.Exemples fondamentaux7

Proposition 9.Sinest assez grand on peut utiliser l"approximation normale (lorsqueXadmet un moment d"ordre2)X nL N(m;2=n):C"est une conséquence du TCL qui nous assure que pn(X nm)L!n!+1N(0;2):

3.b. Estimation de2en supposantmconnu.

Théorème 10.Lorsquemest connu

S 2n=1n n X k=1(Xkm)2 est un estimateur sans biais et convergent de2.On a

E[S2n] =E"

1n n X k=1(Xkm)2# 1n n X k=1Var(Xk) =2 Par ailleurs, les variables(Xkm)2étant indépendantes :

Var(S2n) =1n

2n X k=1Var((Xkm)2) =1n

E[(Xm)4]E[(Xm)2]2=1n

44
aveck=E((Xm)k).

DoncS2nest un estimateur convergent. La loi forte des grands nombres appliquée aux variables(Xkm)2

entraîne même la convergence presque sûre vers2. Comme dans le cas de la moyenne empirique le TCL nous permet de déterminer la loi asymptotique de S

2n; on a lorsquenest assez grand :

S

2nL N(2;(44)=n):

3.c. Estimation de2lorsquemest inconnu.

En général on ne connaît pasm; on le remplace par un estimateur et on introduit la variance empirique

associée :S 2n=1n n X k=1(XkX n)2:

Théorème 11.La variance empiriqueS

2nest un estimateur biaisé et convergent de2. Il est asymptotique-

ment sans biais.On a E[S

2n] =1n

n X k=1E(X2k)E[X n2] =1n (n(m2+2))(m2+2n ) =n1n 2:

Jean-Jacques Ruch

8Chapitre I. Estimation ponctuelle

D"autre part, on peut montrer que :

Var(S

2n) =1n

442n

2424+1n

3434!0

aveck=E((Xm)k). L"estimateur est donc convergent.

Le résultat précédent et le lemme de Slutsky (Probabilité 2, Jean-Yves Ouvrard, p. 347) permet de

déterminer la loi asymptotique deS 2n:S

2nL N(2;(44)=n):

Théorème 12.La variance empirique corrigée c

S2n=1n1n

X k=1(XkX n)2: est un estimateur sans biais et convergent de2.Cela se montre facilement en remarquant que c

S2n=nn1S

2n:

4. Cas particulier de la loi normale

On suppose dans ce paragraphe queXsuit la loi normaleN(m;2). On sait queX n=1n n X k=1X ksuit alors la loi normaleN(m;2=n), ce qui confime que c"est un estimateur sans biais, convergent dem.

Les résultats obtenus au paragraphe précédent pour l"estimation de2sont encore valables; en particulier

on a :

E(S2n) =2et Var(S2n) =2(n1)n

24

En effet, calculonsk

k=E((Xm)k) =1p2Z +1 1 (xm)kexp (xm)22 dx 1p2Z +1 1 (p2u)kexp(u2)p2duen posantx=mp2u = 0sikest impair.

Lorsquek= 2pest pair on obtient

2p=2p2pp

Z +1 1 u2pexp(u2)du=2p+12pp Z +1 0 u2pexp(u2)du 2p2pp Z +1 0 vp1=2exp(v)dven posantu=pv 2p2pp (p+ 1=2) =(2p)!2 p(p!)2p et donc

Var(S2n) =1n

442n

2424+1n

3434=2(n1)n

24

Jean-Jacques Ruch

4.Cas particulier de la loi normale9

Définition 13.SoientX1;:::;Xn,nvariables aléatoires indépendantes identiquement distribuées de

loiN(0;1). La loi du2àndegrés de liberté est la loi de la variable aléatoire 2n=nX k=1X 2k:

La densité de cette loi est donnée par :

f

2n(u) =12(n=2)

u2 n=21exp u2 1 u>0 et sa fonction caractéristique par

2n(t) =1(12it)n=2f

2k Pour déterminer la densité on peut remarquer que : siUsuit une loiN(0;1)alors on a pourt >0

P(U2t) =P(tUt) =FU(pt)FU(pt)

et par conséquent f

U2(t) =12

pt fU(pt) +12 pt fU(pt) =1pt fU(pt) =1p2texp t2 Ensuite on obtient le résultat général par récurence. Théorème 14.Soit(X1;:::;Xn)unnéchantillon de le loiN(0;1). Les variables aléatoires pnX netnX k=1(XkX n)2=nS

2n= (n1)cS2n

sont indépendantes et suivent respectivement la loi normale réduite et la loi du2à(n1) degrés de liberté.

Jean-Jacques Ruch

10Chapitre I. Estimation ponctuelle

Démonstration.Montrons queX

netnX k=1(XkX n)2sont indépendantes. On a 0 B BB@X n X 1X n... X nX n1 C

CCA=A0

B @X 1... X n1 C

AoùA=0

B

BBBBB@1n

1n 1n n1n 1n 1n 1n n1n .........1n 1n 1n n1n 1 C

CCCCCA

Le vecteur aléatoire

0 B @X 1... X n1 C Aest gaussien de loiN(0;In)oùInest la matrice identité d"ordren.

Par conséquent, le vecteur

0 B BB@X n X 1X n... X nX n1 C

CCA=A0

B @X 1... X n1 C

Aest également gaussien de loiN(0;AInAt) =

N(0;AAt). Or

AA t=0 B

BBBBB@1n

0 00 0 n1n 1n 1n 01n n1n ............1n 01n 1n n1n 1 C

CCCCCA

donc la variableX nest indépendante du vecteur0 B @X 1X n... X nX n1 C

Aet donc denX

k=1(XkX n)2.

CommeX

nsuit la loiN(0;1=n)on en déduit quepnX nsuit la loiN(0;1).

MontronsnS

2n=nX k=1(XkX n)2suit la loi du2à(n1)degrés de liberté. On a 0 B @X 1X n... X nX n1 C A=B0 B @X 1... X n1 C

AoùB=0

B

BBB@n1n

1n 1n 1n n1n .........1n 1n 1n n1n 1 C CCCA CommeBest une matrice symétrique, il existe une matrice orthogonaleUet une matrice diagonaleD telle que

B=UDUt

Or les valeurs propres deBsont :

la v aleurpropre simple 0dont le sous-espace propre associé a pour équationx1==xn; la v aleurpropre d"ordre (n1)égale à1dont le sous-espace propre associé a pour équation x

1+x2++xn= 0

En ordonnant convenablement la base de vecteurs propres on peut choisir D=0 B

BBB@1 00

0 ......1 0 00 01 C CCCA

Jean-Jacques Ruch

5.Construction d"estimateur par la méthode du maximum de vraisemblance11

quotesdbs_dbs35.pdfusesText_40