tisfait √n(θ∗n(X) − θ0) loi −→ N(0, 1 I(θ0) ), o`u I(θ) est l'information de Fisher 1 5 Comparaison des estimateurs Efficacité Inégalité de Cramer-Rao
Previous PDF | Next PDF |
[PDF] Année Universitaire 2006-2007 COURS DE STATISTIQUE
désigne la tribu des Boréliens de IR, et o`u N(θ) désigne la loi normale de param `etre θ, revient `a 3 3 2 Autres expressions de l'information de Fisher
[PDF] Statistique Inférentielle Avancée
si elles proviennent d'une loi normale, tester si plusieurs échantillons proviennent de Il y a en fait un lien entre l'exhaustivité et l'information de Fisher , comme
[PDF] T D n 6 Information de Fisher et maximum de vraisemblance
Soit X une variable aléatoire suivant une loi normale N(µ, σ) Soit (X1, ,Xn) un échantillon aléatoire de taille n de loi parente X 1 Calculer l'
[PDF] MAITRISE de MATH´EMATIQUES STATISTIQUE - Login - CAS
tisfait √n(θ∗n(X) − θ0) loi −→ N(0, 1 I(θ0) ), o`u I(θ) est l'information de Fisher 1 5 Comparaison des estimateurs Efficacité Inégalité de Cramer-Rao
[PDF] Cours de Statistique de Base - Université de Nantes
1 Fonction de répartion F de la loi normale standard X ∼ N(0, 1) La table (2) La quantité I(θ) définie en (2 4), s'appelle information de Fisher En uti- lisant la
[PDF] Mesure dordre de linformation au sens de Fisher - Numdam
analogue à celle de CRAMER-RAO pour les valeurs entières de a 3) Cas de lois normales ou uniformes a) Soit X une variable aléatoire suivant une loi normale
[PDF] Cours 5 : ESTIMATION PONCTUELLE
vecteur de caractéristiques), dont la loi dépend d'un paramètre inconnu • On note échantillon sur le paramètre : une information de Fisher proche de zero Ex : Pour la distribution normale N( , s), la moyenne et la médiane empiriques
[PDF] Statistique mathématique - Laboratoire de Probabilités, Statistique
5 mai 2015 · 5 3 Information de Fisher Figure 1 1 – Densité et fonction de répartition de la loi normale centrée réduite 1 1 1 Modes de convergence
[PDF] Statistique inférentielle I - Estimation - UFR SEGMI
9 juil 2007 · La variable aléatoire X suit une loi normale d'espérance m et de variance o`u In(θ) l'information de Fisher de θ donnée par l'échantillon, est
[PDF] information génétique cours
[PDF] information génétique définition
[PDF] information genetique et division cellulaire
[PDF] information génétique wikipedia
[PDF] informatique 2eme année college
[PDF] informatique 3eme college
[PDF] informatique appliquée cours
[PDF] informatique de gestion pdf s4
[PDF] informatique fondamentale pdf
[PDF] informatique generale et internet
[PDF] informatique s1 smia pdf
[PDF] informe de auditoria de gestion ejemplo
[PDF] informe de auditoria de gestion ejemplos
[PDF] informe de investigacion ejemplo pdf
MAITRISE de MATH´EMATIQUES
STATISTIQUE
M. Gradinaru
2002-2005
2Avant propos
Ces notes sont une r´edaction du cours oral en amphith´eˆatre. Il s"agit d"un documentde travail et pas d"un ouvrage; il est destin´e `a la distribution aux ´etudiants de Maˆıtrise
de Math´ematiques de l"Universit´e de Nancy. Certaines parties de ces notes sont inspir´ees de notes de cours (et je remercie vivement leurs auteurs) r´edig´ees par F. Castell et B. Roynette. Je remercie B. Roynette pour la lecture attentivedes formes pr´eliminaires du manuscrit. Vandoeuvre-l`es-Nancy, janvier 2002 - mai 2005 M. GradinaruTable des mati`eres1 Estimation des param`etres1
1.1´Echantillon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Familles param´etriques . . . . . . . . . . . . . . . . . . . . . . . . . .. . . 2
1.3 Distribution empirique . . . . . . . . . . . . . . . . . . . . . . . . . . .. . 7
1.4 M´ethodes d"estimation ponctuelle . . . . . . . . . . . . . . . . .. . . . . . 13
1.4.1 M´ethode des moments . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.2 M´ethode du maximum de vraisemblance . . . . . . . . . . . . . .. 16
1.5 Comparaison des estimateurs. Efficacit´e. In´egalit´e de Cramer-Rao . . . . . 25
1.5.1 Param`etre scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.5.2 Param`etre vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . .31
1.6 Statistiques exhaustives . . . . . . . . . . . . . . . . . . . . . . . . .. . . 33
1.6.1 Rappels sur les lois conditionnelles . . . . . . . . . . . . . .. . . . 33
1.6.2 Statistiques exhaustives . . . . . . . . . . . . . . . . . . . . . . .. 34
1.6.3 Statistique exhaustive minimale . . . . . . . . . . . . . . . . .. . . 38
1.7 Construction d"estimateurs efficaces . . . . . . . . . . . . . . . .. . . . . . 40
1.7.1 Am´eliorer un estimateur . . . . . . . . . . . . . . . . . . . . . . . .40
1.7.2 Statistiques compl`etes . . . . . . . . . . . . . . . . . . . . . . . .. 42
1.8 Familles exponentielles . . . . . . . . . . . . . . . . . . . . . . . . . .. . . 46
1.9 In´egalit´e de Cramer-Rao et mod`ele exponentiel . . . . .. . . . . . . . . . 51
1.10 Estimation par intervalle (ou r´egion) de confiance . . .. . . . . . . . . . . 55
1.11 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
1.11.1 Lois de probabilit´e . . . . . . . . . . . . . . . . . . . . . . . . . . .61
1.11.2 Convergence des variables al´eatoires r´eelles . . .. . . . . . . . . . . 63
1.11.3 Statistiques d"ordre. Information de Kullback-Leibler. . . . . . . . . 65
1.11.4 Estimateurs : construction, propri´et´es asymptotiques, R-efficacit´e . 66
1.11.5 Statistiques exhaustives compl`etes, th´eor`eme de Lehmann-Scheff´e,
mod`eles exponentiels . . . . . . . . . . . . . . . . . . . . . . . . . . 681.11.6 Intervalles de confiance . . . . . . . . . . . . . . . . . . . . . . . .. 70
2 Th´eorie des tests d"hypoth`ese73
2.1 Introduction et d´efinitions g´en´erales . . . . . . . . . . . .. . . . . . . . . . 73
2.2 Comparaison des tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . .75
2.2.1 Tester une hypoth`ese simple contre une alternative simple . . . . . 75
34TABLE DES MATI`ERES
2.2.2 Tests u.p.p. pour certains hypoth`eses composites . .. . . . . . . . . 79
2.2.3 Tests u.p.p.s.b. pour certains hypoth`eses composites . . . . . . . . . 86
2.3 Tester les param`etres des lois gaussiennes . . . . . . . . . .. . . . . . . . . 89
2.4 M´ethode de construction des tests . . . . . . . . . . . . . . . . . .. . . . . 91
2.5 Tests et intervalles de confiance . . . . . . . . . . . . . . . . . . . .. . . . 97
2.6 Mod`ele lin´eaire gaussien . . . . . . . . . . . . . . . . . . . . . . . .. . . . 98
2.7 Tests non param´etriques d"ajustement . . . . . . . . . . . . . .. . . . . . 105
2.7.1 Test duχ2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
2.7.2 Test de Kolmogorov-Smirnov . . . . . . . . . . . . . . . . . . . . . 109
2.8 Tests non-param´etriques de comparaison . . . . . . . . . . . .. . . . . . . 113
2.8.1 Comparaison de deux ´echantillons ind´ependants . . .. . . . . . . . 114
2.8.2 Comparaison de deux ´echantillons appari´es . . . . . . .. . . . . . . 117
2.9 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
2.9.1 Tests statistiques : construire et comparer . . . . . . . .. . . . . . 119
2.9.2 Tests statistiques : mod`ele lin´eaire, tests non-param´etriques . . . . 122
3 Sujets d"examens 2002-2005125
Chapitre 1Estimation des param`etres1.1´EchantillonOn associe `a une exp´erience al´eatoire une variable al´eatoireX, d´efinie sur un espace
de probabilit´e (Ω,F,P). Sans perte de g´en´eralit´e on regardera l"espace mesurable d"arriv´ee
deX, not´e (E,B(E)), muni de la probabilit´eQXloi deX. TypiquementEestRsiXest une variable r´eelle ouRdsiXest un vecteur al´eatoired-dimensionnel;B(E) est une tribu surE, par exemple la tribu bor´elienne deE. On r´ep`ete l"exp´erience dans les mˆemes conditionsnfois et on observe les valeurs x obs1,...,xobsn. On regardera ces valeurs comme les valeurs des variables ind´ependantes,
de mˆeme loi queX, (X1,...,Xn). Les valeurs possibles de (X1,...,Xn) seront not´ees (x1,...,xn). On dit queX= (X1,...,Xn) est unn-´echantillonde loiQX. Il s"agit d"un vecteur al´eatoire `a valeurs dansEnde loi donn´ee parP(X?B) =P(X1?B1,...,Xn?Bn) =n?
i=1P(Xi?Bi),B=B1×...×Bn. SoitSune fonction mesurable denarguments. AlorsS=S(X) =S(X1,...,Xn) est appel´eestatistique. Lorsqu"on effectue l"exp´erience on observesobs=S(xobs). La loiQXest enti`erement ou partiellement inconnue. Dans ce chapitre on ´etudiera l"estimation des param`etres inconnus. Ainsi siθest un param`etre dont la loiQXd´epende, on cherche une statistique fonction d"´echantillon ?=θ?n(X). Lorsqu"on observe l"´echantillonxobs= (xobs1,...,xobsn), la valeurθ?n(xobs) est uneestima- tionet devrait ˆetre assez proche de la vraie valeur du param`etreθ, lorsquenest assez grand. On verra plus loin quand cela est possible. La statistiqueθ?n(X) s"appelleesti- mateurdu param`etreθ. Un estimateur est une r`egle de construction d"estimations. Nous appellerons estimateurθ?nles seules statistiques destin´ees `a remplacer le param`etre inconnu 12CHAPITRE 1. ESTIMATION DES PARAM`ETRES
Souvent, dans un probl`eme d"estimation, on sp´ecifie l"ensemble Θ des valeurs possibles du param`etreθ. C"est l"espace des param`etres. Aussi, dans des nombreux cas, on sait `al"avance que la loiQXde l"´echantillon ne peut ˆetre arbitraire, mais appartient `a une famille
bien d´efinie de loisP. Exemple.L"un des principaux param`etres caract´erisant la qualit´e d"un syst`eme (machine,ampoule, ordinateur, etc) est la dur´ee de service. Mais cette dur´ee est en principe al´eatoire
et impossible `a d´eterminer `a l"avance. Il est toutefois raisonnable (si la fabrication est en quelque sorte homog`ene) de penser que les dur´ees de serviceX1,X2,...sont des variablesal´eatoires ind´ependantes de mˆeme loi. Il est naturel d"identifier le param`etre dur´ee de ser-
vice au nombreθ= E(Xi). On veut d´eterminer la valeur deθ. On observensyst`emes et on trouvexobs1,...,xobsn. On sait que, lorsquen→ ∞, X=1 nn i=1X ip.s.-→θ.Il est donc intuitif que le nombre ¯xobs=1
n? n i=1xobsisoit proche deθpournassez grand. Un exemple de famille de lois estP={E(λ) :λ >0},θ= 1/λ?Θ =]0,∞[.1.2 Familles param´etriques
1. Distribution gaussienne surR.
N(m,σ2) de densit´e
g m,σ2(x) =1σ⎷2πe-(x-m)2
2σ2
etX≂ N(m,σ2)?X=σG+m,avecG≂ N(0,1)
On aE(eλX) =eλm+λ2σ2
2,E(eλG) =eλ22,E(G2k+1) = 0,E(G2k) =2k!k!2k
etE(eiλX) =eiλm-λ2σ2
2.2. Distribution gaussienne multidimensionnelle.
Nd(m,K), o`uKest une matriced×dsym´etrique positive, c"est-`a-dire telle que?di,j=1θiKijθj?
0, et o`um?Rd. On a
X≂ Nd(m,K)?E(ei) =ei-1
2t?Kt.
SiKest inversible, la densit´e est
g m,K(x) :=1 (2π)d2⎷detKexp? -12(x-m)?K-1(x-m)? , x?Rd.1.2. FAMILLES PARAM´ETRIQUES3
3. Distribution gamma.
γ(p,λ),p,λ >0 de densit´e
p,λ(x) :=λpΓ(p)xp-1e-λx1lx?0,
o`u Γ(p) :=?∞0xp-1e-xdx.
SiX≂γ(p,λ), alors
E(eitX) =?λ
λ-it?
p etE(X) =p
λ,E(X2) =p(p+ 1)λ2,Var(X) =pλ2.
4. Distribution de chi-deux.
2(k), o`uk?N?de densit´e
f(x) :=? 1 2? k 2Γ?k2?
xk2-1e-x21lx>0
SiX=ξ21+...+ξ2k, avecξjind´ependantes de mˆeme loiN(0,1), alorsX≂χ2(k) =γ(k
2,12).
SiX≂χ2(k) etY≂χ2(?) sont ind´ependantes alorsX+Y≂χ2(k+?). SiX≂ Nd(m,K) avecKinversible, alorsQ(X) := (X-m)?K-1(X-m)≂χ2(d).En effet,
E?eλQ(X)?= (2π)-d/2(detK)-1/2?
eλQ(x)-1
2Q(x)dx= (2π)-d/2(detK)-1/2?
e -(-2λ+1)12Q(x)dx.Effectuant le changement de variable
1-2λ(xj-mj) =yjon trouve E?eλQ(X)?=
(1-2λ)-d/2, puis faireλ=itpour obtenir E ?eitQ(X)?= (1-2it)-d/2=?1/21/2-it?
d/2 Notons aussi que siX≂χ2(k), alors E(X) =k, Var(X) = 2k, d"o`u X-k ⎷2kloi-→N(0,1),pourk→ ∞.On peut aussi montrer que
2X-⎷2k-1loi-→N(0,1),pourk→ ∞.
4CHAPITRE 1. ESTIMATION DES PARAM`ETRES
5. Distribution exponentielle.
E(λ),λ >0, de densit´e
f(x) :=λe-λx1lx?0, c"est-`a-direγ(1,λ). On a E(X) =1λet Var(X) =1λ2.
6. Distribution de Fisher.
Soientk1,k2?N?etχ2(k1),χ2(k2) ind´ependantes. Alorsξ=χ2(k1)/k1
χ2(k2)/k2
suit une loi de FisherF(k1,k2). La densit´e est, avecpj=kj2,j= 1,2,
fξ(t) =Γ(p1+p2)
Γ(p1)Γ(p2)t
p1-1[1 + (p1/p2)t]p1+p21lt>0.On peut aussi voir que siξ1,...,ξk1,η1,...,ηk2sont des variables al´eatoires gaussiennes
centr´ees r´eduites ind´ependantes, alorsξ≂(ξ21+...+ξ2k
1)/k1 (η21+...+η2k2)/k2.
On peut voir que
E(ξ?) =Γ(p1+?)Γ(p2-?)
Γ(p1)Γ(p2),
pour???0,1,...,?k22?-1?. Par exemple E(ξ) =p1p2-1=k1k2-2.
Enfin on peut voir que 1/F≂ F(k2,k1).
7. Distribution de Student.
Soitk?N?et soientξ0,ξ1,...,ξkdes variables al´eatoires gaussiennes centr´ees r´eduites
ind´ependantes. Alors la variable al´eatoire T k=ξ0 1 k(ξ21+...+ξ2k) suit la loi de Student `akdegr´es de libert´e. On voit queTka une loi sym´etrique, et que T2k=kξ20
ξ21+...+ξ2k≂ F(1,k).
On en d´eduit
fTk(t) =1
⎷kπΓ( k+1 2)Γ(k2)1(1 +t2k)k+12.
1.2. FAMILLES PARAM´ETRIQUES5
De plus
E(T2?+1
k) = 0,E(T2?k) =k?Γ(p1+?)Γ(p2-?)Γ(p1)Γ(p2),
avecp1=12etp2=k2. Par exemple E(T2k) =kΓ(p1+1)Γ(p2-1)Γ(p1)Γ(p2)=kp1p2-1=kk-2.
Enfin, si on applique Stirling,
1 ⎷kπΓ( k+1 2)Γ(k2)→1
⎷2π,lorsquek→ ∞ et aussi (1 +t2 k)-k+12→e-t2/2,lorsquek→ ∞,
d"o`u lim k→∞FTk(t) =1 ⎷2πe-t2/2.8. Distribution beta.
β(p1,p2), avecp1,p2>0, de densit´e
f(x) =Γ(p1+p2)On utilise souvent la fonction beta
B(p1,p2) =Γ(p1)Γ(p2)
Γ(p1+p2)
Soientηj≂γ(pj,λ),j= 1,2. Alorsβ=η1η1+η2≂β(p1,p2). En effet
P(β?t) = P(η1
η1+η2?t) = P(η1/η21 +η1/η2?t) = P(ξ1 +ξ?t) = P(ξ?t1-t) avecξ≂ F(p1,p2). On trouve fβ(t) =?
t 1-t? p1-1?1 +t 1-t? ?t 1-t? p1-1De plus
E(β?) =Γ(p1+p2)Γ(p1+?)
Γ(p1)Γ(p1+p2+?).
Par exemple E(β) =p1
p1+p2et E(β2) =p1(p1+1)(p1+p2)(p1+p2+1).6CHAPITRE 1. ESTIMATION DES PARAM`ETRES
9. Distribution uniforme.
U [a,b], aveca < b, de densit´e f(x) =1 b-a1l[a,b](x).On a E(X) =a+b
2et Var(X) =(b-a)212.
Poura= 0,b= 1 il s"agit de la distributionβ(1,1).10. Distribution de Cauchy.
C(α,σ2), avecα?Retσ2>0, de densit´e f(x) =1πσ11 +?x-ασ?
2. SiX0≂ C(0,1) alorsX=α+σX0≂ C(α,σ2). On aE(eitX0) =e-|t|,E(eitX) =eitα-σ|t|.
Enfin, siX≂ C(α,σ2) etY≂ C(β,τ2) sont ind´ependantes alorsX+Y≂ C(α+β,(σ+τ)2).