[PDF] Test dAjustement à une Loi Normale Vectorielle





Previous PDF Next PDF



RAPPELS DE STATISTIQUE M1

Exemple : On a vu plus haut que l'information de Fisher d'un mod`ele d'échantillonnage dans la loi normale est d'autant plus forte que la variance est petite.



Année Universitaire 2006-2007 COURS DE STATISTIQUE

A noter que l'espérance est prise par rapport `a la loi Pθ de X. 3.3.2 Autres expressions de l'information de Fisher. On appelle score la quantité S(x θ) = ∂.



Chapitre 4 Estimation par vraisemblance

covθ ) désigne la matrice de variance (resp. la covariance) sous la loi Pθ . Pour motiver le concept d'information de Fisher supposons pour simpli- fier que Θ 



TD 3 : Information de Fisher méthode du χ 1 Information de Fisher

17 nov. 2009 On se contente donc de calculer l'information de Fisher dans le cas ... Q3 une loi uniforme sur [0θ] avec θ > 0 inconnu. Solution: Pour une ...



Mise `a niveau Comparaison destimateurs

Exemple 3 : la loi uniforme Soit X ∼ U ([0θ]) avec θ ∈ Θ = R∗. +



T. D. n 6 Information de Fisher et maximum de vraisemblance

Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ



Mesure dordre de linformation au sens de Fisher

analogue à celle de CRAMER-RAO pour les valeurs entières de a. 3) Cas de lois normales ou uniformes a) Soit X une variable aléatoire suivant une loi normale 



T. D. n 6 Information de Fisher et maximum de vraisemblance

Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ



TD 5 : Comparaison et optimalité des estimateurs

Si oui calculer l'information de Fisher I1(θ) du modèle à une observation. 2. Donner un estimateur du maximum de vraisemblance ainsi que sa loi limite. 3. Est- 



TD 3 : Information de Fisher méthode du ? 1 Information de Fisher

Nov 17 2009 1 Information de Fisher. Calculer l'information de Fisher dans les mod`eles statistiques suivants : Q1 une loi de Poisson de param`etre ? :.



Année Universitaire 2006-2007 COURS DE STATISTIQUE

la loi de X est normale (avec ?2 connue puis ?2 inconnue). IT (?) représente l'information de Fisher au point ? dans le mod`ele (Y; PT ? ) o`u PT.



RAPPELS DE STATISTIQUE M1

Exemple : On a vu plus haut que l'information de Fisher d'un mod`ele d'échantillonnage dans la loi normale est d'autant plus forte que la variance.



T. D. n 6 Information de Fisher et maximum de vraisemblance

Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ



Statistique Inférentielle Avancée

13.2.1 Table 1 de la loi normale centrée réduite . Il y a en fait un lien entre l'exhaustivité et l'information de Fisher comme on le verra plus tard.



Mesure dordre de linformation au sens de Fisher

analogue à celle de CRAMER-RAO pour les valeurs entières de a. 3) Cas de lois normales ou uniformes a) Soit X une variable aléatoire suivant une loi normale 



Modélisation Statistique (MAP-STA1) - M1-Mathématiques

définition mathématique de l'information (de Fisher) et indépendantes X et Y de même loi ... converge en loi sous IP?? vers une loi normale :.



Fisher information and the fourth moment theorem

au sens de l'information de Fisher vers la loi gaussienne d'une suite d'éléments de convergence associée pour la convergence normale d'une version ...



Sur lEstimateur du Maximum de Vraisemblance (emv)

Jan 9 2017 L'information de Fisher caractérise la borne de Cramer-Rao ; on a ... converge en loi vers une var Z suivant la loi normale N(0



T. D. n 6 Information de Fisher et maximum de vraisemblance

Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ

Université de Caen

Sur l"

E stimateur du M aximum de V raisemblance(emv)Christophe Chesneau http://www.math.unicaen.fr/ ~chesneau/

Caen, le 10 Janvier 2017

Table des matières

Table des matières

1 Contexte statistique 5

2 Modélisation7

3 Performance non-asymptotique d"un estimateur 11

4 Performance asymptotique d"un estimateur 15

5 Estimateurs de la moyenne et de la variance 17

6 Estimateurs du maximum de vraisemblance : première approche 19

7 Estimateurs du maximum de vraisemblance pour(x1;:::;xn)23

8 Estimateurs du maximum de vraisemblance (aléatoire) 27

9 Intervalles de confiance 31

10 Tests de Wald33

11 Complément : Estimation d"une fonction de35

12 Complément : Cas de multiples paramètres 37

13 Complément : Définitions générales 41

14 Exercices43

15 Solutions49

Note Ce document présente quelques éléments théoriques et pratiques concernant l"estimateur du maximum de vraisemblance. Je vous invite à me contacter pour tout commentaire : christophe.chesneau@gmail.comC. Chesneau3

1 Contexte statistique

1 Contexte statistique

Population et individus

Une population est un ensemble d"objets sur lesquels une étude se porte. Ces objets sont appelés

individus.

Caractère/variable

On souhaite étudier une propriété chez les individus d"une population. Cette propriété est appelée

caractère. Il est notéX.

Nature d"un caractère

Un caractère est dit :

quantitatif s"il mesure une quantité ou un nombre; les valeurs que prendXsont numériques (le nombre de personnes dans une salle, le salaire en euros d"un employé d"une entreprise, le nombre d"articles dans une liste de courses, le temps de réalisation d"un travail en heures...), qualitatif/catégoriel s"il mesure une catégorie; les valeurs que prendXsont des modalités.

(la couleur des yeux d"une femme, la marque du téléphone portable d"un étudiant, la présence

ou l"absence d"un défaut de fabrication dans l"emballage d"un produit...).

Dans ce document

, on suppose queXprend des valeurs numériques : il peut être quantitatif, ou qualitatif avec un codage numérique des modalités (1pour présence,0pour absence...).

Échantillon d"individus

En pratique, il est souvent difficile de considérer la population dans sa totalité. On choisit alors un

groupe d"individus dans la population suivant un processus de sélection précis. Ce groupe est appelé

échantillon. Le nombre d"individus dans l"échantillon est notén.

Processus de sélection

Dans ce document

, on suppose qu"un échantillon est constitué de la manière suivante :

on choisit les individus un à un, au hasard et avec remise; il est possible qu"un même individu

soit sélectionné plusieurs fois, chaque individu a la même probabilité qu"un autre d"être sélectionné.C. Chesneau5

1 Contexte statistique

Ce processus de sélection s"appelle plan de sondage aléatoire simple avec remise.

Sur la sélection avec remise

Dans de nombreuses situations pratiques, l"idée de faire une sélection avec remise des individus est

saugrenue; une fois que l"on a observé la valeur deXsur un individu, il est souvent logique de ne

plus le considérer. Cette sélection avec remise est pourtant une hypothèse implicite classique. Elle sert

surtout à simplifier la théorie en rendant les expériences de sélection des individus indépendantes les

unes des autres. Le lien entre la pratique et la théorie repose sur le postulat suivant : "lorsquenest

faible par rapport au nombre d"individus dans la population, il est raisonnable d"admettre qu"un choix

sans remise est assimilable à un choix avec remise".

Données

Une fois l"échantillon sélectionné, on observe la valeur du caractèreXsur chacun desnindividus

de l"échantillon. Ces valeurs sont appelées données. Elles sont notéesx1;:::;xn.

Estimation paramétrique

L"estimation paramétrique consiste à estimer/évaluer un ou plusieurs paramètres inconnus éma-

nant deX(valeur moyenne, mesures de la variabilité des valeurs...) à partir des donnéesx1;:::;xn.

Naturellement, l"estimation du ou des paramètres inconnus doit être aussi précise que possible. Les

trois grands types d"estimation paramétriques sont :

l"estimation ponctuelle;on estime dir ectementpar un ou des réels le ou les paramètres incon nus,

l"estimation par intervalles de confiance: on détermine des in tervallesde ré els,les moins étendus

possible, qui ont de fortes chances de contenir un paramètre inconnu,

les tests statistiques: d émarchesqui con sistentà accep terou non une h ypothèsemettan ten jeu

un ou plusieurs paramètres inconnus, avec un faible risque de se tromper.

Vers la modélisation mathématique

Deux questions se posent alors :

Comment faire pour estimer le ou les paramètres inconnus? Comment mesurer la précision de notre estimation?

Des réponses sont apportées par le biais d"une modélisation mathématique prenant en compte

l"aléatoire omniprésent dans ce contexte.C. Chesneau6

2 Modélisation

2 Modélisation

Modélisation du caractèreX

On peut modéliser le caractèreXpar une variable aléatoire réelle (var) définie sur un espace

probabilisé( ;A;P). Cettevarest également notéeXpar convention. Dès lors,Xest l"application

qui, à tout individu choisit au hasard dans la population, associe la valeur observée du caractère.

Les donnéesx1;:::;xnsont donc des réalisations de lavarX.

Nature de lavarX

Si les valeurs deXpeuvent être énumérées, on considère lavarXcomme discrète.

Si l"énumération des valeurs deXest fastidieuse, on considère lavarXcomme étant à densité.

Hypothèses sur la loi (de probabilité) de lavarX A priori, la loi de lavarXest inconnue. Toutefois, on suppose qu"elle est caractérisée par une

fonction dont on connait l"expression analytique. Dans cette expression, un ou plusieurs paramètres

sont inconnus. Ils sont notés/symbolisés par. La loi deXest notéeL(). Entre autre,peut-être :

la valeur moyenne deXcorrespondant à l"espérance de lavarXnotéeE(X), une mesure de la variabilité des valeurs deXcomme l"écart-type de lavarXnoté(X), les deux := (E(X);(X))t.

Fonction caractérisant la loi de lavarX

La fonction caractérisant la loiL()est définie par : f(x;) =8 :P (X=x);la fonction de masse deX, siXest unevardiscrète; f (x);une densité deX, siXest unevarà densité:

L"indiceprécise queapparaît dans les expressions. Il sera omis dans la suite sauf pour clarifier son

apparition si besoin est. Lexest pris sur l"ensemble des valeurs atteignables parX.

L"expression analytique de cette fonction peut être guidée par une représentation graphique des

données selon la nature deX(histogrammes, barplot...).C. Chesneau7

2 Modélisation

Notion den-échantillon

Le processus de sélection des individus étant aléatoire, les données peuvent différer d"un échantillon

à l"autre. Cette variabilité peut se modéliser à l"aide de variables aléatoires réelles. Pour touti2

f1;:::;ng, on considère l"applicationXiqui, à tout échantillon obtenu avec ce processus, associe la

valeur du caractèreXobservé sur lei-ème individu. Dès lors : les donnéesx1;:::;xnsont des réalisations deX1;:::;Xn, X1;:::;Xnsont desvarindépendantes et identiquement distribuées (iid), la loi commune desvarX1;:::;Xnest celle de lavarX:Xisuit la loiL(). Le vecteur aléatoire réel(X1;:::;Xn)est appelén-échantillon deX. Ainsi le terme "échantillon" désigne tantôt un groupe d"individus, tantôt(X1;:::;Xn).

Notion d"estimateur (aléatoire)

Soit(X1;:::;Xn)unn-échantillon deX. Un estimateur (aléatoire) deest une fonction dépendante desvarX1;:::;Xnet, éventuellement, den; c"est donc unevar. On le notebn.

Ainsi, on peut l"écrire sous la forme

bn=gn(X1;:::;Xn)oùgndésigne une fonction connue dépendant éventuellement den.

Notion d"estimateur ponctuel

Un estimateur ponctuel deest la réalisation d"un estimateurbndecorrespondante aux données x

1;:::;xn; c"est donc un réel ou un vecteur de réels. On le note.

Représentation

Partant d"un estimateur

bn=gn(X1;:::;Xn)oùgndésigne une fonction connue, un estimateur ponctuel deest=gn(x1;:::;xn); on a substituéXiparxipour touti2 f1;:::;ng. Réciproquement, si un estimateur ponctuel deest de la forme=gn(x1;:::;xn)oùgndésigne une fonction connue, l"estimateur sous-jacent est bn=gn(X1;:::;Xn).

Estimation paramétrique : enjeu

L"enjeu de l"estimation paramétrique est de

déterminer un estimateur ponctuelqui soit proche de, évaluer l"écart entreetavec le plus de précision possible. Pour ce faire, la construction d"un "bon estimateur" bndeest nécessaire.C. Chesneau8

2 Modélisation

Notion d"étude asymptotique

On part du postulat suivant : "plusnest grand, plus on a de données, plus on dispose d"information

sur les caractéristiques deX, plus on doit être en mesure d"estimer précisément". L"entierntel

qu"on l"a introduit est fixé. Toutefois, la définition d"un estimateur (aléatoire) bndenous autorise à

considérerncomme une variable entière. Ainsi, on peut introduire la suite devar(bn)n2Net étudier

sa précision dans l"estimation dequandntend vers l"infini. On parle alors d"étude asymptotique.

De manière générale, le mot asymptotique signifie "quandntend vers l"infini", qui se transpose en

pratique par "quandnest assez grand".

Estimateur performant : première approche

Un estimateur

bndeest considéré comme performant si la mesure de lavarbnsous divers critères probabilistes est faible, la suite devar(bn)n2Nconsidérée sous divers critères probabilistes converge rapidement vers

0quandntend vers l"infini,

la loi debnpeut être approchée par une loi manipulable, voire usuelle, quandnest assez grand. L"erreur d"estimation modélisée par lavarbnjoue donc un rôle central.

Dans ce document

, pour simplifier, on suppose désormais que :

(X1;:::;Xn)désigne unn-échantillon d"unevarXsuivant la loiL()caractérisée par la fonction

f(x;), désigne un seul paramètre inconnu,

les quantités introduites existent (espérance, variance, écart-type, dérivée...). Si une de ces

quantités n"existe pas dans le cadre d"une application, la formule proposée devient absurde; elle

doit être ignorée.C. Chesneau9

3 Performance non-asymptotique d"un estimateur

3 Performance non-asymptotique d"un estimateur

Estimateur sans biais

On dit qu"un estimateur

bndeest sans biais si et seulement siE(bn) =.

Cela signifie que la valeur moyenne de

bnest égale à.

Biais d"un estimateur

Plus généralement, on appelle biais d"un estimateur bndele réel :

B(bn;) =E(bn) =E(bn):

Ainsi, le biais mesure l"écart moyen entre

bnet.

Risque quadratique

On appelle risque quadratique d"un estimateur

bndele réel :

R(bn;) =E((bn)2):

Le risque quadratique est une mesure de l"erreur moyenne que commet bndans l"estimation de. Il est un critère de performance : plusR(bn;)est petit, plus l"estimateurbnestime bien. Si bnest sans biais, alors on aR(bn;) =E((bnE(bn))2) =V(bn).

Expression pratique du risque quadratique

On peut montrer que

R(bn;) =V(bn) + (B(bn;))2:

Estimateur préférable

Soient

b(1)netb(2)ndeux estimateurs de. On dit queb(1)nest préférable àb(2)nsi et seulement si

R(b(1)n;)R(b(2)n;):C. Chesneau11

3 Performance non-asymptotique d"un estimateur

"Sccri" = "Sous certaines conditions de régularité et d"intégrabilité"quotesdbs_dbs13.pdfusesText_19
[PDF] information et création numérique

[PDF] information génétique cours

[PDF] information génétique définition

[PDF] information genetique et division cellulaire

[PDF] information génétique wikipedia

[PDF] informatique 2eme année college

[PDF] informatique 3eme college

[PDF] informatique appliquée cours

[PDF] informatique de gestion pdf s4

[PDF] informatique fondamentale pdf

[PDF] informatique generale et internet

[PDF] informatique s1 smia pdf

[PDF] informe de auditoria de gestion ejemplo

[PDF] informe de auditoria de gestion ejemplos

[PDF] informe de investigacion ejemplo pdf