[PDF] [PDF] MAITRISE de MATH´EMATIQUES STATISTIQUE - Login - CAS

tisfait √n(θ∗n(X) − θ0) loi −→ N(0, 1 I(θ0) ), o`u I(θ) est l'information de Fisher 1 5 Comparaison des estimateurs Efficacité Inégalité de Cramer-Rao



Previous PDF Next PDF





[PDF] Année Universitaire 2006-2007 COURS DE STATISTIQUE

désigne la tribu des Boréliens de IR, et o`u N(θ) désigne la loi normale de param `etre θ, revient `a 3 3 2 Autres expressions de l'information de Fisher



[PDF] Statistique Inférentielle Avancée

si elles proviennent d'une loi normale, tester si plusieurs échantillons proviennent de Il y a en fait un lien entre l'exhaustivité et l'information de Fisher , comme



[PDF] T D n 6 Information de Fisher et maximum de vraisemblance

Soit X une variable aléatoire suivant une loi normale N(µ, σ) Soit (X1, ,Xn) un échantillon aléatoire de taille n de loi parente X 1 Calculer l' 



[PDF] MAITRISE de MATH´EMATIQUES STATISTIQUE - Login - CAS

tisfait √n(θ∗n(X) − θ0) loi −→ N(0, 1 I(θ0) ), o`u I(θ) est l'information de Fisher 1 5 Comparaison des estimateurs Efficacité Inégalité de Cramer-Rao



[PDF] Cours de Statistique de Base - Université de Nantes

1 Fonction de répartion F de la loi normale standard X ∼ N(0, 1) La table (2) La quantité I(θ) définie en (2 4), s'appelle information de Fisher En uti- lisant la 



[PDF] Mesure dordre de linformation au sens de Fisher - Numdam

analogue à celle de CRAMER-RAO pour les valeurs entières de a 3) Cas de lois normales ou uniformes a) Soit X une variable aléatoire suivant une loi normale 



[PDF] Cours 5 : ESTIMATION PONCTUELLE

vecteur de caractéristiques), dont la loi dépend d'un paramètre inconnu • On note échantillon sur le paramètre : une information de Fisher proche de zero Ex : Pour la distribution normale N( , s), la moyenne et la médiane empiriques



[PDF] Statistique mathématique - Laboratoire de Probabilités, Statistique

5 mai 2015 · 5 3 Information de Fisher Figure 1 1 – Densité et fonction de répartition de la loi normale centrée réduite 1 1 1 Modes de convergence



[PDF] Statistique inférentielle I - Estimation - UFR SEGMI

9 juil 2007 · La variable aléatoire X suit une loi normale d'espérance m et de variance o`u In(θ) l'information de Fisher de θ donnée par l'échantillon, est 

[PDF] information et création numérique

[PDF] information génétique cours

[PDF] information génétique définition

[PDF] information genetique et division cellulaire

[PDF] information génétique wikipedia

[PDF] informatique 2eme année college

[PDF] informatique 3eme college

[PDF] informatique appliquée cours

[PDF] informatique de gestion pdf s4

[PDF] informatique fondamentale pdf

[PDF] informatique generale et internet

[PDF] informatique s1 smia pdf

[PDF] informe de auditoria de gestion ejemplo

[PDF] informe de auditoria de gestion ejemplos

[PDF] informe de investigacion ejemplo pdf

MAITRISE de MATH´EMATIQUES

STATISTIQUE

M. Gradinaru

2002-2005

2

Avant propos

Ces notes sont une r´edaction du cours oral en amphith´eˆatre. Il s"agit d"un document

de travail et pas d"un ouvrage; il est destin´e `a la distribution aux ´etudiants de Maˆıtrise

de Math´ematiques de l"Universit´e de Nancy. Certaines parties de ces notes sont inspir´ees de notes de cours (et je remercie vivement leurs auteurs) r´edig´ees par F. Castell et B. Roynette. Je remercie B. Roynette pour la lecture attentivedes formes pr´eliminaires du manuscrit. Vandoeuvre-l`es-Nancy, janvier 2002 - mai 2005 M. Gradinaru

Table des mati`eres1 Estimation des param`etres1

1.1´Echantillon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.2 Familles param´etriques . . . . . . . . . . . . . . . . . . . . . . . . . .. . . 2

1.3 Distribution empirique . . . . . . . . . . . . . . . . . . . . . . . . . . .. . 7

1.4 M´ethodes d"estimation ponctuelle . . . . . . . . . . . . . . . . .. . . . . . 13

1.4.1 M´ethode des moments . . . . . . . . . . . . . . . . . . . . . . . . . 13

1.4.2 M´ethode du maximum de vraisemblance . . . . . . . . . . . . . .. 16

1.5 Comparaison des estimateurs. Efficacit´e. In´egalit´e de Cramer-Rao . . . . . 25

1.5.1 Param`etre scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

1.5.2 Param`etre vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . .31

1.6 Statistiques exhaustives . . . . . . . . . . . . . . . . . . . . . . . . .. . . 33

1.6.1 Rappels sur les lois conditionnelles . . . . . . . . . . . . . .. . . . 33

1.6.2 Statistiques exhaustives . . . . . . . . . . . . . . . . . . . . . . .. 34

1.6.3 Statistique exhaustive minimale . . . . . . . . . . . . . . . . .. . . 38

1.7 Construction d"estimateurs efficaces . . . . . . . . . . . . . . . .. . . . . . 40

1.7.1 Am´eliorer un estimateur . . . . . . . . . . . . . . . . . . . . . . . .40

1.7.2 Statistiques compl`etes . . . . . . . . . . . . . . . . . . . . . . . .. 42

1.8 Familles exponentielles . . . . . . . . . . . . . . . . . . . . . . . . . .. . . 46

1.9 In´egalit´e de Cramer-Rao et mod`ele exponentiel . . . . .. . . . . . . . . . 51

1.10 Estimation par intervalle (ou r´egion) de confiance . . .. . . . . . . . . . . 55

1.11 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

1.11.1 Lois de probabilit´e . . . . . . . . . . . . . . . . . . . . . . . . . . .61

1.11.2 Convergence des variables al´eatoires r´eelles . . .. . . . . . . . . . . 63

1.11.3 Statistiques d"ordre. Information de Kullback-Leibler. . . . . . . . . 65

1.11.4 Estimateurs : construction, propri´et´es asymptotiques, R-efficacit´e . 66

1.11.5 Statistiques exhaustives compl`etes, th´eor`eme de Lehmann-Scheff´e,

mod`eles exponentiels . . . . . . . . . . . . . . . . . . . . . . . . . . 68

1.11.6 Intervalles de confiance . . . . . . . . . . . . . . . . . . . . . . . .. 70

2 Th´eorie des tests d"hypoth`ese73

2.1 Introduction et d´efinitions g´en´erales . . . . . . . . . . . .. . . . . . . . . . 73

2.2 Comparaison des tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . .75

2.2.1 Tester une hypoth`ese simple contre une alternative simple . . . . . 75

3

4TABLE DES MATI`ERES

2.2.2 Tests u.p.p. pour certains hypoth`eses composites . .. . . . . . . . . 79

2.2.3 Tests u.p.p.s.b. pour certains hypoth`eses composites . . . . . . . . . 86

2.3 Tester les param`etres des lois gaussiennes . . . . . . . . . .. . . . . . . . . 89

2.4 M´ethode de construction des tests . . . . . . . . . . . . . . . . . .. . . . . 91

2.5 Tests et intervalles de confiance . . . . . . . . . . . . . . . . . . . .. . . . 97

2.6 Mod`ele lin´eaire gaussien . . . . . . . . . . . . . . . . . . . . . . . .. . . . 98

2.7 Tests non param´etriques d"ajustement . . . . . . . . . . . . . .. . . . . . 105

2.7.1 Test duχ2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

2.7.2 Test de Kolmogorov-Smirnov . . . . . . . . . . . . . . . . . . . . . 109

2.8 Tests non-param´etriques de comparaison . . . . . . . . . . . .. . . . . . . 113

2.8.1 Comparaison de deux ´echantillons ind´ependants . . .. . . . . . . . 114

2.8.2 Comparaison de deux ´echantillons appari´es . . . . . . .. . . . . . . 117

2.9 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

2.9.1 Tests statistiques : construire et comparer . . . . . . . .. . . . . . 119

2.9.2 Tests statistiques : mod`ele lin´eaire, tests non-param´etriques . . . . 122

3 Sujets d"examens 2002-2005125

Chapitre 1Estimation des param`etres1.1´Echantillon

On associe `a une exp´erience al´eatoire une variable al´eatoireX, d´efinie sur un espace

de probabilit´e (Ω,F,P). Sans perte de g´en´eralit´e on regardera l"espace mesurable d"arriv´ee

deX, not´e (E,B(E)), muni de la probabilit´eQXloi deX. TypiquementEestRsiXest une variable r´eelle ouRdsiXest un vecteur al´eatoired-dimensionnel;B(E) est une tribu surE, par exemple la tribu bor´elienne deE. On r´ep`ete l"exp´erience dans les mˆemes conditionsnfois et on observe les valeurs x obs

1,...,xobsn. On regardera ces valeurs comme les valeurs des variables ind´ependantes,

de mˆeme loi queX, (X1,...,Xn). Les valeurs possibles de (X1,...,Xn) seront not´ees (x1,...,xn). On dit queX= (X1,...,Xn) est unn-´echantillonde loiQX. Il s"agit d"un vecteur al´eatoire `a valeurs dansEnde loi donn´ee par

P(X?B) =P(X1?B1,...,Xn?Bn) =n?

i=1P(Xi?Bi),B=B1×...×Bn. SoitSune fonction mesurable denarguments. AlorsS=S(X) =S(X1,...,Xn) est appel´eestatistique. Lorsqu"on effectue l"exp´erience on observesobs=S(xobs). La loiQXest enti`erement ou partiellement inconnue. Dans ce chapitre on ´etudiera l"estimation des param`etres inconnus. Ainsi siθest un param`etre dont la loiQXd´epende, on cherche une statistique fonction d"´echantillon ?=θ?n(X). Lorsqu"on observe l"´echantillonxobs= (xobs1,...,xobsn), la valeurθ?n(xobs) est uneestima- tionet devrait ˆetre assez proche de la vraie valeur du param`etreθ, lorsquenest assez grand. On verra plus loin quand cela est possible. La statistiqueθ?n(X) s"appelleesti- mateurdu param`etreθ. Un estimateur est une r`egle de construction d"estimations. Nous appellerons estimateurθ?nles seules statistiques destin´ees `a remplacer le param`etre inconnu 1

2CHAPITRE 1. ESTIMATION DES PARAM`ETRES

Souvent, dans un probl`eme d"estimation, on sp´ecifie l"ensemble Θ des valeurs possibles du param`etreθ. C"est l"espace des param`etres. Aussi, dans des nombreux cas, on sait `a

l"avance que la loiQXde l"´echantillon ne peut ˆetre arbitraire, mais appartient `a une famille

bien d´efinie de loisP. Exemple.L"un des principaux param`etres caract´erisant la qualit´e d"un syst`eme (machine,

ampoule, ordinateur, etc) est la dur´ee de service. Mais cette dur´ee est en principe al´eatoire

et impossible `a d´eterminer `a l"avance. Il est toutefois raisonnable (si la fabrication est en quelque sorte homog`ene) de penser que les dur´ees de serviceX1,X2,...sont des variables

al´eatoires ind´ependantes de mˆeme loi. Il est naturel d"identifier le param`etre dur´ee de ser-

vice au nombreθ= E(Xi). On veut d´eterminer la valeur deθ. On observensyst`emes et on trouvexobs1,...,xobsn. On sait que, lorsquen→ ∞, X=1 nn i=1X ip.s.-→θ.

Il est donc intuitif que le nombre ¯xobs=1

n? n i=1xobsisoit proche deθpournassez grand. Un exemple de famille de lois estP={E(λ) :λ >0},θ= 1/λ?Θ =]0,∞[.

1.2 Familles param´etriques

1. Distribution gaussienne surR.

N(m,σ2) de densit´e

g m,σ2(x) =1

σ⎷2πe-(x-m)2

2σ2

et

X≂ N(m,σ2)?X=σG+m,avecG≂ N(0,1)

On a

E(eλX) =eλm+λ2σ2

2,E(eλG) =eλ22,E(G2k+1) = 0,E(G2k) =2k!k!2k

et

E(eiλX) =eiλm-λ2σ2

2.

2. Distribution gaussienne multidimensionnelle.

N

d(m,K), o`uKest une matriced×dsym´etrique positive, c"est-`a-dire telle que?di,j=1θiKijθj?

0, et o`um?Rd. On a

X≂ Nd(m,K)?E(ei) =ei-1

2t?Kt.

SiKest inversible, la densit´e est

g m,K(x) :=1 (2π)d2⎷detKexp? -12(x-m)?K-1(x-m)? , x?Rd.

1.2. FAMILLES PARAM´ETRIQUES3

3. Distribution gamma.

γ(p,λ),p,λ >0 de densit´e

p,λ(x) :=λp

Γ(p)xp-1e-λx1lx?0,

o`u Γ(p) :=?∞

0xp-1e-xdx.

SiX≂γ(p,λ), alors

E(eitX) =?λ

λ-it?

p et

E(X) =p

λ,E(X2) =p(p+ 1)λ2,Var(X) =pλ2.

4. Distribution de chi-deux.

2(k), o`uk?N?de densit´e

f(x) :=? 1 2? k 2

Γ?k2?

xk

2-1e-x21lx>0

SiX=ξ21+...+ξ2k, avecξjind´ependantes de mˆeme loiN(0,1), alorsX≂χ2(k) =γ(k

2,12).

SiX≂χ2(k) etY≂χ2(?) sont ind´ependantes alorsX+Y≂χ2(k+?). SiX≂ Nd(m,K) avecKinversible, alorsQ(X) := (X-m)?K-1(X-m)≂χ2(d).

En effet,

E?eλQ(X)?= (2π)-d/2(detK)-1/2?

e

λQ(x)-1

2Q(x)dx= (2π)-d/2(detK)-1/2?

e -(-2λ+1)12Q(x)dx.

Effectuant le changement de variable

1-2λ(xj-mj) =yjon trouve E?eλQ(X)?=

(1-2λ)-d/2, puis faireλ=itpour obtenir E ?eitQ(X)?= (1-2it)-d/2=?1/2

1/2-it?

d/2 Notons aussi que siX≂χ2(k), alors E(X) =k, Var(X) = 2k, d"o`u X-k ⎷2kloi-→N(0,1),pourk→ ∞.

On peut aussi montrer que

2X-⎷2k-1loi-→N(0,1),pourk→ ∞.

4CHAPITRE 1. ESTIMATION DES PARAM`ETRES

5. Distribution exponentielle.

E(λ),λ >0, de densit´e

f(x) :=λe-λx1lx?0, c"est-`a-direγ(1,λ). On a E(X) =1

λet Var(X) =1λ2.

6. Distribution de Fisher.

Soientk1,k2?N?etχ2(k1),χ2(k2) ind´ependantes. Alors

ξ=χ2(k1)/k1

χ2(k2)/k2

suit une loi de FisherF(k1,k2). La densit´e est, avecpj=kj

2,j= 1,2,

f

ξ(t) =Γ(p1+p2)

Γ(p1)Γ(p2)t

p1-1[1 + (p1/p2)t]p1+p21lt>0.

On peut aussi voir que siξ1,...,ξk1,η1,...,ηk2sont des variables al´eatoires gaussiennes

centr´ees r´eduites ind´ependantes, alors

ξ≂(ξ21+...+ξ2k

1)/k1 (η21+...+η2k

2)/k2.

On peut voir que

E(ξ?) =Γ(p1+?)Γ(p2-?)

Γ(p1)Γ(p2),

pour???0,1,...,?k2

2?-1?. Par exemple E(ξ) =p1p2-1=k1k2-2.

Enfin on peut voir que 1/F≂ F(k2,k1).

7. Distribution de Student.

Soitk?N?et soientξ0,ξ1,...,ξkdes variables al´eatoires gaussiennes centr´ees r´eduites

ind´ependantes. Alors la variable al´eatoire T k=ξ0 1 k(ξ21+...+ξ2k) suit la loi de Student `akdegr´es de libert´e. On voit queTka une loi sym´etrique, et que T

2k=kξ20

ξ21+...+ξ2k≂ F(1,k).

On en d´eduit

f

Tk(t) =1

⎷kπΓ( k+1 2)

Γ(k2)1(1 +t2k)k+12.

1.2. FAMILLES PARAM´ETRIQUES5

De plus

E(T2?+1

k) = 0,E(T2?k) =k?Γ(p1+?)Γ(p2-?)

Γ(p1)Γ(p2),

avecp1=1

2etp2=k2. Par exemple E(T2k) =kΓ(p1+1)Γ(p2-1)Γ(p1)Γ(p2)=kp1p2-1=kk-2.

Enfin, si on applique Stirling,

1 ⎷kπΓ( k+1 2)

Γ(k2)→1

⎷2π,lorsquek→ ∞ et aussi (1 +t2 k)-k+1

2→e-t2/2,lorsquek→ ∞,

d"o`u lim k→∞FTk(t) =1 ⎷2πe-t2/2.

8. Distribution beta.

β(p1,p2), avecp1,p2>0, de densit´e

f(x) =Γ(p1+p2)

On utilise souvent la fonction beta

B(p1,p2) =Γ(p1)Γ(p2)

Γ(p1+p2)

Soientηj≂γ(pj,λ),j= 1,2. Alorsβ=η1

η1+η2≂β(p1,p2). En effet

P(β?t) = P(η1

η1+η2?t) = P(η1/η21 +η1/η2?t) = P(ξ1 +ξ?t) = P(ξ?t1-t) avecξ≂ F(p1,p2). On trouve f

β(t) =?

t 1-t? p1-1?1 +t 1-t? ?t 1-t? p1-1

De plus

E(β?) =Γ(p1+p2)Γ(p1+?)

Γ(p1)Γ(p1+p2+?).

Par exemple E(β) =p1

p1+p2et E(β2) =p1(p1+1)(p1+p2)(p1+p2+1).

6CHAPITRE 1. ESTIMATION DES PARAM`ETRES

9. Distribution uniforme.

U [a,b], aveca < b, de densit´e f(x) =1 b-a1l[a,b](x).

On a E(X) =a+b

2et Var(X) =(b-a)212.

Poura= 0,b= 1 il s"agit de la distributionβ(1,1).

10. Distribution de Cauchy.

C(α,σ2), avecα?Retσ2>0, de densit´e f(x) =1

πσ11 +?x-ασ?

2. SiX0≂ C(0,1) alorsX=α+σX0≂ C(α,σ2). On a

E(eitX0) =e-|t|,E(eitX) =eitα-σ|t|.

Enfin, siX≂ C(α,σ2) etY≂ C(β,τ2) sont ind´ependantes alorsX+Y≂ C(α+β,(σ+τ)2).

11. Distribution log-normale.

ηest log-normale si logη≂ N(m,σ2), ouη=eξavecξ≂ N(m,σ2);η >0. On ´ecrit, pourt >0, P(η?t) = P(eξ?t) = P(ξ?logt), d"o`u f

η(t) =gm,σ2(logt)1

t1lt>0.

On a E(η) =em+σ2

2, E(η2) =e2m+2σ2et Var(η) =e2m+σ2(eσ2-1).

12. Loi binomiale.

B(n,p). On a P(X=k) =Cknpk(1-p)n-k,k= 0,...,n,p?]0,1[. Aussi E(X) =np,

Var(X) =np(1-p), E(eitX) = (1-p+peit)n.

13. Distribution de Poisson.

P(λ). On a P(X=k) =e-λλk

k!,k?N, o`uλ >0. Aussi E(X) = Var(X) =λ, E(eitX) = exp(λ(eit-1)).

14. Distribution g´eom´etrique.

G(p). On a P(X=k) =p(1-p)k-1,k?1,p?]0,1[. Aussi E(X) =1 p, Var(X) =1-pp2,

E(eitX) =peit

1-(1-t)eit.

15. Distribution uniforme.

U(1,...,r). On a P(X=xj) =1

r,j= 1,...,r. E(X) =r+12, Var(X) =(r+1)(2r+1)6et

X(t) =1

reit1-eirt1-eit.

1.3. DISTRIBUTION EMPIRIQUE7

16. Distribution multinomiale.

M(n,p1,...,pn). Soient 0< pj<1,j= 1,...,rtels quep1+...+pr= 1. Pour k= (k1,...,kr), tel quek1+...+kr=non d´efinit la loi de (X1,...,Xr) par

P((X1,...,Xr) = (k1,...,kr)) =n!

k1!...kr!pk11...pkrr. On a

E(X1,...,Xr) = (np1,...,npr),

Var(Xj) =npj(1-pj),Cov(Xj,Xk) =-npjpk

et

X(t1,...,tr) =?

r? j=1p jeitjpj? n

1.3 Distribution empirique

D´efinition 1.11) Soit{Xn:n?1}une suite de variables al´eatoires `a valeurs dans R detXune variable al´eatoire `a valeurs dansRd. On dit queXnconverge en loi versXlorsquen→ ∞, si pour toute fonctiong:Rd→Rcontinue et born´ee on a lim n→∞E[g(Xn)] = E[g(X)].

2) Soit{μn:n?1}une suite de probabilit´es surB(Rd)etμune probabilit´e surRd.

On dit queμnconverge ´etroitementversμ, si pour toute fonctiong:Rd→R continue et born´ee on a lim n→∞? g(x)μn(dx) =? g(x)μ(dx).

3) SiXnest de loiQnpour toutnet siXest de loiQ, on voit que la convergence en loi

de la suiteXnversXest´equivalente`a la convergence ´etroite de la suiteQnvers Q.

4) Soit{Xn:n?1}une suite de variables al´eatoires de mˆeme loiQet ind´ependantes.

SoitˆQnla mesure al´eatoire suivante ditedistribution empiriquede l"´echantillon :

Qn(ω) =1

n(δX1(ω)+...+δXn(ω)), ω?Ω, o`uδXi(ω)est la masse de Dirac enXi(ω).

8CHAPITRE 1. ESTIMATION DES PARAM`ETRES

Le fait remarquable est que cette suite de mesures al´eatoires se rapproche ind´efiniment de la loiQde la variable al´eatoire observ´ee. Th´eor`eme 1.1Soit{Xn:n?1}une suite de variables al´eatoires ind´ependantes et de mˆeme loiQ. Lorsquen→ ∞,

Qn(B)p.s.-→Q(B),?B? B(Rd).

Preuve.Les variables al´eatoires 1lB(Xi)≂ B(1,Q(B)) sont ind´ependantes de mˆeme loi. Le r´esultat s"obtient par la loi forte des grands nombres.? Remarque :Il s"agit d"une convergence en chaque "point"B. On peut faire mieux. Dans le r´esultat qui suit supposons que la dimension estd= 1 : on noteJ={]a,b]}, -∞?a < b?∞. Alors, lorsquen→ ∞, sup

B?J|ˆQn(B)-Q(B)|p.s.-→0.

Au lieu de prouver ce r´esultat on va prouver un r´esultat ´equivalent sur lafonction de r´epartition empirique: pourd= 1, on note la variable al´eatoire

Fn(t) :=ˆQn(]- ∞,t]) =1

ncard{i: 1?i?n,Xi?t}=1nn i=11l ]-∞,t](Xi), t?R. On notera la fonction de r´epartition de la variableX:

F(t) =Q(]- ∞,t]), t?R,

mais aussi ˆFn(t-) :=ˆQn(]- ∞,t[), F(t-) =Q(]- ∞,t[), t?R.

Th´eor`eme 1.2(Glivenko-Cantelli)

Soit{Xn:n?1}une suite de variables al´eatoires r´eelles ind´ependantes et de mˆeme loi

Q. Alors, lorsquen→ ∞,

sup t?R|ˆFn(t)-F(t)|p.s.-→0. Preuve.Par le Th´eor`eme 1.1 appliqu´e auB=]-∞,t] ensuite auC=]-∞,t[, on trouve t, Ω??t´ev´enements de probabilit´e 1, tels que sin→ ∞on a

Fn(t,ω)→F(t),?ω?Ω?t

et

ˆFn(t-,ω)→F(t-)?ω?Ω??t.

1.3. DISTRIBUTION EMPIRIQUE9

NotonsG(u) = inf{t:F(t)?u}, pour 0< u <1, l"inverse g´en´eralis´ee `a droite deF. On a

F(G(u)-)?u?F(G(u)).

Pourm?N?et 1?k?m, on posetmk:=G(k

m). Sitmk-1?t < tmk, alors, par monotonie, F(tmk-1)?F(t)?F(tmk-) etˆFn(tmk-1)?ˆFn(t)?ˆFn(tmk-).

Pour des telst,

Mais

F(tmk-)-F(tmk-1)?1

m, ainsi que

F(tm1-)?1

m, F(tmm)?1-1m. Donc

Fn(tmk-1,ω)-F(tmk-1)-1

m?ˆFn(t,ω)-F(t)?ˆFn(tmk-,ω)-F(tmk-) +1m, ou encore sup

On noteDn(ω) = supt?R|ˆFn(t,ω)-F(t)|et

D mn(ω) = maxk=1,...,mmax{|ˆFn(tmk,ω)-F(tmk)|,|ˆFn(tmk-,ω)-F(tmk-)|}. Alors max k=2,...,msup t?[tmk-1,tmk[|ˆFn(t,ω)-F(t)|?Dmn(ω) +1 m, Donc sup t?[tm1,tmm[|ˆFn(t,ω)-F(t)|?Dmn(ω) +1 m Par des arguments similaires pourt < tm1ett?tmmon trouve D n(ω)?Dmn(ω) +1 m.

Lorsqueω?Ωm:=?

kΩ?tmk∩? kΩ??tmk, on a limn→∞Dmn(ω) = 0, d"o`u on d´eduit que limsup n→∞Dn(ω)?1 m. De plus il est facile de voir que Ωmest de probabilit´e 1. Enfin, pourω?¯Ω =? mΩmon d´eduit limn→∞Dn(ω) = 0 avec¯Ω de probabilit´e 1, d"o`u la conclu- sion.?

10CHAPITRE 1. ESTIMATION DES PARAM`ETRES

Remarque :Le th´eor`eme de Glivenko-Cantelli est un cas particulier du r´esultat de la remarque pr´ec´edente, car ]- ∞,t]? J; r´eciproquement, si on prendB=]a,b], si bien que sup

B?J|ˆPn(B)-P(B)|?sup

On revient au cas de la dimensiondquelconque. La meilleure convergence est contenue dans le r´esultat suivant : Th´eor`eme 1.3Soit{Xn:n?1}une suite de variables al´eatoires ind´ependantes et de mˆeme loiQ. Presque sˆurement, lorsquen→ ∞,

Qne-→Q.

Preuve.Pour toute fonction continue et born´ee :? g(x)ˆQn(dx) =1 n(g(X1) +...+g(Xn)) et le membre de droite converge presque sˆurement vers E[g(X)] d"apr`es la loi forte des grands nombres. Comme

E[g(X)] =?

g(x)Q(dx), le r´esultat est prouv´e.? Remarque :Le mˆeme r´esultat reste vrai pour la convergence de distributions empiriques d´efinie `a l"aide de toute fonctiongtelle que?|g(x)|Q(dx)<∞.? Th´eor`eme 1.4Soit{Xn:n?1}une suite de variables al´eatoires ind´ependantes et de mˆeme loiQ. Soitg:Rd→Rbor´elienne telle que?|g(x)|Q(dx)<∞(c"est-`a-dire g?L1(Rd,B(Rd),Q)) et soith:R→Rcontinue au pointmg=?g(x)Q(dx) = E[g(X)].

D´efinissons

g,h(Q) :=h? g(x)Q(dx)? =h(E[g(X)]) =h(mg). et on note g,h(ˆQn) =h? g(x)ˆQn(dx)? =h?1 n(g(X1) +...+g(Xn))?

Lorsquen→ ∞,

g,h(ˆQn)p.s.-→Φg,h(Q).

1.3. DISTRIBUTION EMPIRIQUE11

Preuve.D"apr`es la loi des grands nombres, presque sˆurement lim n→∞1 n(g(X1) +...+g(Xn)) =? g(x)Q(dx).

Il existe Ω

0, de probabilit´e 1 tel que

?ω?Ω0,?δ >0,?n0(δ,ω) t.q.?n?n0:?????1 nn j=1g(Xj(ω))-? g(x)Q(dx)????? Soitε >0; il existeδ >0 tel que d`es que|x-mg|< δ, on a|h(x)-h(mg)|< ε. D"o`u, pournassez grand (n?n0avecn0d´ependant deω?Ω0), ?h? 1 nn j=1g(Xj(ω))? -h? g(x)Q(dx)? D´efinition 1.2Soit{Xn:n?1}une suite de variables al´eatoires r´eelles ind´ependantes et de mˆeme loiQ. Les moments et les moments centr´es de la distribution empirique sont nomm´esmoments et moments centr´es empiriques. Ainsi,

ˆmk=?

x kˆQn(dx) =? xquotesdbs_dbs13.pdfusesText_19