Résumé du Cours de Statistique Descriptive
15-Dec-2010 appliquer les techniques de statistiques descriptives au moyen du language. R. – Références. Dodge Y.(2003) Premiers pas en statistique
Cours de statistique descriptive - Archive ouverte HAL
02-Aug-2016 Comme ce fut le cas pour le calcul de la moyenne de données groupées pour calculer la variance des données groupées
La mortalité et lespérance de vie au Québec en 2020
03-Mar-2021 nuelle moyenne a été d'environ 2 %. Le présent bulletin accompagne la diffusion par l'Institut de la statistique du Québec des données ...
STATISTIQUE : ESTIMATION
Estimation de la variance quand la moyenne est inconnue. 18. 4. Comparaison de moyennes et de variances. 18. 4.a. Intervalle de confiance de la différence
Tests statistiques élémentaires
rel de s'intéresser à la moyenne empirique Xn = 1 n. ?n i=1 Xi que l'on sait convergente vers µ par la LGN. Pour ce test Xn est appelée la statistique de.
Chapitre 3 - Comparaison de plusieurs moyennes pour des
On a alors recours à l'analyse de variance (appelée souvent ANOVA) développée par Fisher (sous hypothèse de normalité). L'ANOVA est un test statistique qui
Chapitre 3 - Distributions déchantillonnage
Ce sont les statistiques. NOTATIONS. N = taille de la population n = taille de l'échantillon. (si elle est finie). Si on étudie un moyenne de la population.
Statistiques circulaires et utilisations en psychologie
Les méthodes usuelles de calcul de paramètres comme la moyenne ne sont alors des méthodes d'inférence statistique mises au point pour des mesures ...
Bilan annuel des transports en 2019 : bilan de la circulation
Une voiture immatriculée en France métropolitaine a roulé en moyenne 12 200 km dans l'année et un véhicule utilitaire léger 14 700 km. Les véhicules lourds
STATISTIQUE : ESTIMATION
Préparation à l"Agrégation Bordeaux 1
Année 2012 - 2013
Jean-Jacques Ruch
Table des Matières
Chapitre I. Estimation ponctuelle5
1. Définitions5
2. Critères de comparaison d"estimateurs 6
3. Exemples fondamentaux 6
3.a. Estimation dem6
3.b. Estimation de2en supposantmconnu 7
3.c. Estimation de2lorsquemest inconnu 7
4. Cas particulier de la loi normale 8
5. Construction d"estimateur par la méthode du maximum de vraisemblance 11
5.a. Cas discret11
5.b. Cas à densité12
Chapitre II. Estimation par intervalle13
1. Définition d"une région de confiance 13
2. Construction de régions de confiance 13
3. Exemples classiques d"estimation par intervalle 15
3.a. Estimation de la moyenne quand la variance est connue 15
3.b. Estimation de la moyenne quand la variance est inconnue 15
3.c. Estimation de la variance quand la moyenne est connue 16
3.d. Estimation de la variance quand la moyenne est inconnue 18
4. Comparaison de moyennes et de variances 18
4.a. Intervalle de confiance de la différence de deux moyenne 18
4.b. Intervalle de confiance du rapport de deux variances 20
5. Estimation d"une proportion 20
5.a. Estimation ponctuelle 21
5.b. Estimation par intervalle 21
5.c. Méthode du Bootstrap 22
3CHAPITRE I
Estimation ponctuelle
En statistique, comme dans la théorie des probabilités le hasard intervient fortement. Mais dans la théorie
des probabilités, on suppose la loi connue précisément et on cherche à donner les caractéristiques de la
variable qui suit cette loi. L"objectif de la statistique est le contraire : à partir de la connaissance de la
variable, que peut-on dire de la loi de cette variable?1. Définitions
SoitXune variable aléatoire dont la densité de probabilitéf(x;)dépend d"un paramètreappartenant
àIR. A l"aide d"un échantillon issu deX, il s"agit de déterminer au mieux la vraie valeur0de. On
pourra utiliser deux méthodes : -estimation ponctuelle: on calcule une valeur vraisemblable^de0-estimation par intervalle: on cherche un intervalle dans lequel0se trouve avec une probabilité élevée.
Définition 1.Unn-échantillondeXest unn-uplet(X1;X2;:::;Xn)tel que lesXkont la même loi queXet sont indépendantes.Uneréalisation de l"échantillonest alors unn-uplet(x1;x2;:::;xn)de valeurs prises par l"échantillon.Définition 2.Unestatistiquede l"échantillon est une variable aléatoire'(X1;X2;:::;Xn)où'est
une application deRndansR. UnestimateurTdeest une statistique à valeurs dansI. Uneestimationest la valeur de l"estimateur correspondant à une réalisation de l"échantillon.Exemple:X n=1n n X k=1X kest un estimateur de l"espérance mathématique. Définition 3.Lebiaisde l"estimateurTdeestE[T]0. S"il est nul, on dit queTest un estimateur sans biais. L"estimateurTnestasymptotiquement sans biaissilimE[Tn] =0.On note souvent le biaisb(T). Définition 4.L"estimateur est ditconvergentsi la suite(Tn)converge en probabilité vers0:8" >0;P(jTn0j> ")!n!+10:
On parle d"estimateurfortement convergentlorsqu"on a convergence presque sûre.D"après Bienaymé-Tchebychev pour qu"un estimateur asymptotiquement sans biais soit convergent il
suffit queVar(Tn)!n!+10:
56Chapitre I. Estimation ponctuelle
2. Critères de comparaison d"estimateurs
Un bon critère de comparaison est lerisque quadratique. Définition 5.SoientTun estimateur de. Le risque quadratique est défini par R(T;) =E[(T)2]On peut alors comparer deux estimateurs. Définition 6.On dit queT1est unmeilleur estimateurqueT2si82I; R(T1;)R(T2;)
et92I; R(T1;)< R(T2;):Un estimateur est ditadmissibles"il n"existe pas d"estimateur meilleur.
L"erreur quadratique moyenne deTse décompose en deux termes, le carré du biais et la variance deT:
E[(T)2] =b2(T) +Var(T):
Cette décomposition permet de se ramener à une discussion sur la variance pour les estimateurs sans
biais de. Définition 7.SoientT1etT2deux estimateurs sans biais de. On dit queT1est unplus efficace queT2si82I;Var(T1)Var(T2)
et92I;Var(T1) Var(T1)Var(T2):
3. Exemples fondamentaux
SoitXune variable aléatoire telle queE[X] =met Var(X) =2. 3.a. Estimation dem.
Théorème 8.La moyenne empiriqueX
n=1n n X k=1X kest un estimateur sans biais et convergent dem.On a E[X n] =1n n X k=1E[Xk] =met Var(X n) =1n 2n X k=1Var[Xk] =2n !n!+10: D"après la loi forte des grands nombresX
nest même fortemement convergent. Il est possible de déterminer la loi asymptotique de la moyenne empirique. Jean-Jacques Ruch
3.Exemples fondamentaux7
Proposition 9.Sinest assez grand on peut utiliser l"approximation normale (lorsqueXadmet un moment d"ordre2)X nL N(m;2=n):C"est une conséquence du TCL qui nous assure que pn(X nm)L!n!+1N(0;2): 3.b. Estimation de2en supposantmconnu.
Théorème 10.Lorsquemest connu
S 2n=1n n X k=1(Xkm)2 est un estimateur sans biais et convergent de2.On a E[S2n] =E"
1n n X k=1(Xkm)2# 1n n X k=1Var(Xk) =2 Par ailleurs, les variables(Xkm)2étant indépendantes : Var(S2n) =1n
2n X k=1Var((Xkm)2) =1n E[(Xm)4]E[(Xm)2]2=1n
44
aveck=E((Xm)k). DoncS2nest un estimateur convergent. La loi forte des grands nombres appliquée aux variables(Xkm)2
entraîne même la convergence presque sûre vers2. Comme dans le cas de la moyenne empirique le TCL nous permet de déterminer la loi asymptotique de S 2n; on a lorsquenest assez grand :
S 2nL N(2;(44)=n):
3.c. Estimation de2lorsquemest inconnu.
En général on ne connaît pasm; on le remplace par un estimateur et on introduit la variance empirique
associée :S 2n=1n n X k=1(XkX n)2: Théorème 11.La variance empiriqueS
2nest un estimateur biaisé et convergent de2. Il est asymptotique-
ment sans biais.On a E[S 2n] =1n
n X k=1E(X2k)E[X n2] =1n (n(m2+2))(m2+2n ) =n1n 2: Jean-Jacques Ruch
8Chapitre I. Estimation ponctuelle
D"autre part, on peut montrer que :
Var(S 2n) =1n
442n
2424+1n
3434!0
aveck=E((Xm)k). L"estimateur est donc convergent. Le résultat précédent et le lemme de Slutsky (Probabilité 2, Jean-Yves Ouvrard, p. 347) permet de
déterminer la loi asymptotique deS 2n:S 2nL N(2;(44)=n):
Théorème 12.La variance empirique corrigée c S2n=1n1n
X k=1(XkX n)2: est un estimateur sans biais et convergent de2.Cela se montre facilement en remarquant que c S2n=nn1S
2n: 4. Cas particulier de la loi normale
On suppose dans ce paragraphe queXsuit la loi normaleN(m;2). On sait queX n=1n n X k=1X ksuit alors la loi normaleN(m;2=n), ce qui confime que c"est un estimateur sans biais, convergent dem. Les résultats obtenus au paragraphe précédent pour l"estimation de2sont encore valables; en particulier
on a : E(S2n) =2et Var(S2n) =2(n1)n
24
En effet, calculonsk
k=E((Xm)k) =1p2Z +1 1 (xm)kexp (xm)22 dx 1p2Z +1 1 (p2u)kexp(u2)p2duen posantx=mp2u = 0sikest impair. Lorsquek= 2pest pair on obtient
2p=2p2pp
Z +1 1 u2pexp(u2)du=2p+12pp Z +1 0 u2pexp(u2)du 2p2pp Z +1 0 vp1=2exp(v)dven posantu=pv 2p2pp (p+ 1=2) =(2p)!2 p(p!)2p et donc Var(S2n) =1n
442n
2424+1n
3434=2(n1)n
24
Jean-Jacques Ruch
4.Cas particulier de la loi normale9
Définition 13.SoientX1;:::;Xn,nvariables aléatoires indépendantes identiquement distribuées de
loiN(0;1). La loi du2àndegrés de liberté est la loi de la variable aléatoire 2n=nX k=1X 2k: La densité de cette loi est donnée par :
f 2n(u) =12(n=2)
u2 n=21exp u2 1 u>0 et sa fonction caractéristique par 2n(t) =1(12it)n=2f
2k Pour déterminer la densité on peut remarquer que : siUsuit une loiN(0;1)alors on a pourt >0 P(U2t) =P(tUt) =FU(pt)FU(pt)
et par conséquent f U2(t) =12
pt fU(pt) +12 pt fU(pt) =1pt fU(pt) =1p2texp t2 Ensuite on obtient le résultat général par récurence. Théorème 14.Soit(X1;:::;Xn)unnéchantillon de le loiN(0;1). Les variables aléatoires pnX netnX k=1(XkX n)2=nS 2n= (n1)cS2n
sont indépendantes et suivent respectivement la loi normale réduite et la loi du2à(n1) degrés de liberté. Jean-Jacques Ruch
10Chapitre I. Estimation ponctuelle
Démonstration.Montrons queX
netnX k=1(XkX n)2sont indépendantes. On a 0 B BB@X n X 1X n... X nX n1 C CCA=A0
B @X 1... X n1 C AoùA=0
B BBBBB@1n
1n 1n n1n 1n 1n 1n n1n .........1nquotesdbs_dbs47.pdfusesText_47
[PDF] moyenne si pourcentage
[PDF] moyenne statistique définition
[PDF] Moyenne, fréquence et diagramme
[PDF] Moyenne, pourcentage
[PDF] Moyenne, pourcentage d'une classe
[PDF] Moyenne, probabilités
[PDF] moyenne, quartiles ect
[PDF] Moyenne, variance et ecart-type
[PDF] moyenne/médiane/étendue
[PDF] Moyennes
[PDF] Moyennes arithmétiques
[PDF] Moyennes et fonctions
[PDF] Moyennes et pourcentages
[PDF] Moyennes Mathématiques