RAPPELS DE STATISTIQUE M1
Exemple : On a vu plus haut que l'information de Fisher d'un mod`ele d'échantillonnage dans la loi normale est d'autant plus forte que la variance est petite.
Année Universitaire 2006-2007 COURS DE STATISTIQUE
A noter que l'espérance est prise par rapport `a la loi Pθ de X. 3.3.2 Autres expressions de l'information de Fisher. On appelle score la quantité S(x θ) = ∂.
Chapitre 4 Estimation par vraisemblance
covθ ) désigne la matrice de variance (resp. la covariance) sous la loi Pθ . Pour motiver le concept d'information de Fisher supposons pour simpli- fier que Θ
TD 3 : Information de Fisher méthode du χ 1 Information de Fisher
17 nov. 2009 On se contente donc de calculer l'information de Fisher dans le cas ... Q3 une loi uniforme sur [0θ] avec θ > 0 inconnu. Solution: Pour une ...
Mise `a niveau Comparaison destimateurs
Exemple 3 : la loi uniforme Soit X ∼ U ([0θ]) avec θ ∈ Θ = R∗. +
T. D. n 6 Information de Fisher et maximum de vraisemblance
Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ
Mesure dordre de linformation au sens de Fisher
analogue à celle de CRAMER-RAO pour les valeurs entières de a. 3) Cas de lois normales ou uniformes a) Soit X une variable aléatoire suivant une loi normale
T. D. n 6 Information de Fisher et maximum de vraisemblance
Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ
TD 5 : Comparaison et optimalité des estimateurs
Si oui calculer l'information de Fisher I1(θ) du modèle à une observation. 2. Donner un estimateur du maximum de vraisemblance ainsi que sa loi limite. 3. Est-
TD 3 : Information de Fisher méthode du ? 1 Information de Fisher
Nov 17 2009 1 Information de Fisher. Calculer l'information de Fisher dans les mod`eles statistiques suivants : Q1 une loi de Poisson de param`etre ? :.
Année Universitaire 2006-2007 COURS DE STATISTIQUE
la loi de X est normale (avec ?2 connue puis ?2 inconnue). IT (?) représente l'information de Fisher au point ? dans le mod`ele (Y; PT ? ) o`u PT.
RAPPELS DE STATISTIQUE M1
Exemple : On a vu plus haut que l'information de Fisher d'un mod`ele d'échantillonnage dans la loi normale est d'autant plus forte que la variance.
T. D. n 6 Information de Fisher et maximum de vraisemblance
Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ
Statistique Inférentielle Avancée
13.2.1 Table 1 de la loi normale centrée réduite . Il y a en fait un lien entre l'exhaustivité et l'information de Fisher comme on le verra plus tard.
Mesure dordre de linformation au sens de Fisher
analogue à celle de CRAMER-RAO pour les valeurs entières de a. 3) Cas de lois normales ou uniformes a) Soit X une variable aléatoire suivant une loi normale
Modélisation Statistique (MAP-STA1) - M1-Mathématiques
définition mathématique de l'information (de Fisher) et indépendantes X et Y de même loi ... converge en loi sous IP?? vers une loi normale :.
Fisher information and the fourth moment theorem
au sens de l'information de Fisher vers la loi gaussienne d'une suite d'éléments de convergence associée pour la convergence normale d'une version ...
Sur lEstimateur du Maximum de Vraisemblance (emv)
Jan 9 2017 L'information de Fisher caractérise la borne de Cramer-Rao ; on a ... converge en loi vers une var Z suivant la loi normale N(0
T. D. n 6 Information de Fisher et maximum de vraisemblance
Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ
Université de Caen
Sur l"
E stimateur du M aximum de V raisemblance(emv)Christophe Chesneau http://www.math.unicaen.fr/ ~chesneau/Caen, le 10 Janvier 2017
Table des matières
Table des matières
1 Contexte statistique 5
2 Modélisation7
3 Performance non-asymptotique d"un estimateur 11
4 Performance asymptotique d"un estimateur 15
5 Estimateurs de la moyenne et de la variance 17
6 Estimateurs du maximum de vraisemblance : première approche 19
7 Estimateurs du maximum de vraisemblance pour(x1;:::;xn)23
8 Estimateurs du maximum de vraisemblance (aléatoire) 27
9 Intervalles de confiance 31
10 Tests de Wald33
11 Complément : Estimation d"une fonction de35
12 Complément : Cas de multiples paramètres 37
13 Complément : Définitions générales 41
14 Exercices43
15 Solutions49
Note Ce document présente quelques éléments théoriques et pratiques concernant l"estimateur du maximum de vraisemblance. Je vous invite à me contacter pour tout commentaire : christophe.chesneau@gmail.comC. Chesneau31 Contexte statistique
1 Contexte statistique
Population et individus
Une population est un ensemble d"objets sur lesquels une étude se porte. Ces objets sont appelés
individus.Caractère/variable
On souhaite étudier une propriété chez les individus d"une population. Cette propriété est appelée
caractère. Il est notéX.Nature d"un caractère
Un caractère est dit :
quantitatif s"il mesure une quantité ou un nombre; les valeurs que prendXsont numériques (le nombre de personnes dans une salle, le salaire en euros d"un employé d"une entreprise, le nombre d"articles dans une liste de courses, le temps de réalisation d"un travail en heures...), qualitatif/catégoriel s"il mesure une catégorie; les valeurs que prendXsont des modalités.(la couleur des yeux d"une femme, la marque du téléphone portable d"un étudiant, la présence
ou l"absence d"un défaut de fabrication dans l"emballage d"un produit...).Dans ce document
, on suppose queXprend des valeurs numériques : il peut être quantitatif, ou qualitatif avec un codage numérique des modalités (1pour présence,0pour absence...).Échantillon d"individus
En pratique, il est souvent difficile de considérer la population dans sa totalité. On choisit alors un
groupe d"individus dans la population suivant un processus de sélection précis. Ce groupe est appelé
échantillon. Le nombre d"individus dans l"échantillon est notén.Processus de sélection
Dans ce document
, on suppose qu"un échantillon est constitué de la manière suivante :on choisit les individus un à un, au hasard et avec remise; il est possible qu"un même individu
soit sélectionné plusieurs fois, chaque individu a la même probabilité qu"un autre d"être sélectionné.C. Chesneau51 Contexte statistique
Ce processus de sélection s"appelle plan de sondage aléatoire simple avec remise.Sur la sélection avec remise
Dans de nombreuses situations pratiques, l"idée de faire une sélection avec remise des individus est
saugrenue; une fois que l"on a observé la valeur deXsur un individu, il est souvent logique de neplus le considérer. Cette sélection avec remise est pourtant une hypothèse implicite classique. Elle sert
surtout à simplifier la théorie en rendant les expériences de sélection des individus indépendantes les
unes des autres. Le lien entre la pratique et la théorie repose sur le postulat suivant : "lorsquenest
faible par rapport au nombre d"individus dans la population, il est raisonnable d"admettre qu"un choix
sans remise est assimilable à un choix avec remise".Données
Une fois l"échantillon sélectionné, on observe la valeur du caractèreXsur chacun desnindividus
de l"échantillon. Ces valeurs sont appelées données. Elles sont notéesx1;:::;xn.Estimation paramétrique
L"estimation paramétrique consiste à estimer/évaluer un ou plusieurs paramètres inconnus éma-
nant deX(valeur moyenne, mesures de la variabilité des valeurs...) à partir des donnéesx1;:::;xn.
Naturellement, l"estimation du ou des paramètres inconnus doit être aussi précise que possible. Les
trois grands types d"estimation paramétriques sont :l"estimation ponctuelle;on estime dir ectementpar un ou des réels le ou les paramètres incon nus,
l"estimation par intervalles de confiance: on détermine des in tervallesde ré els,les moins étendus
possible, qui ont de fortes chances de contenir un paramètre inconnu,les tests statistiques: d émarchesqui con sistentà accep terou non une h ypothèsemettan ten jeu
un ou plusieurs paramètres inconnus, avec un faible risque de se tromper.Vers la modélisation mathématique
Deux questions se posent alors :
Comment faire pour estimer le ou les paramètres inconnus? Comment mesurer la précision de notre estimation?Des réponses sont apportées par le biais d"une modélisation mathématique prenant en compte
l"aléatoire omniprésent dans ce contexte.C. Chesneau62 Modélisation
2 Modélisation
Modélisation du caractèreX
On peut modéliser le caractèreXpar une variable aléatoire réelle (var) définie sur un espace
probabilisé( ;A;P). Cettevarest également notéeXpar convention. Dès lors,Xest l"applicationqui, à tout individu choisit au hasard dans la population, associe la valeur observée du caractère.
Les donnéesx1;:::;xnsont donc des réalisations de lavarX.Nature de lavarX
Si les valeurs deXpeuvent être énumérées, on considère lavarXcomme discrète.Si l"énumération des valeurs deXest fastidieuse, on considère lavarXcomme étant à densité.
Hypothèses sur la loi (de probabilité) de lavarX A priori, la loi de lavarXest inconnue. Toutefois, on suppose qu"elle est caractérisée par unefonction dont on connait l"expression analytique. Dans cette expression, un ou plusieurs paramètres
sont inconnus. Ils sont notés/symbolisés par. La loi deXest notéeL(). Entre autre,peut-être :
la valeur moyenne deXcorrespondant à l"espérance de lavarXnotéeE(X), une mesure de la variabilité des valeurs deXcomme l"écart-type de lavarXnoté(X), les deux := (E(X);(X))t.Fonction caractérisant la loi de lavarX
La fonction caractérisant la loiL()est définie par : f(x;) =8 :P (X=x);la fonction de masse deX, siXest unevardiscrète; f (x);une densité deX, siXest unevarà densité:L"indiceprécise queapparaît dans les expressions. Il sera omis dans la suite sauf pour clarifier son
apparition si besoin est. Lexest pris sur l"ensemble des valeurs atteignables parX.L"expression analytique de cette fonction peut être guidée par une représentation graphique des
données selon la nature deX(histogrammes, barplot...).C. Chesneau72 Modélisation
Notion den-échantillon
Le processus de sélection des individus étant aléatoire, les données peuvent différer d"un échantillon
à l"autre. Cette variabilité peut se modéliser à l"aide de variables aléatoires réelles. Pour touti2
f1;:::;ng, on considère l"applicationXiqui, à tout échantillon obtenu avec ce processus, associe la
valeur du caractèreXobservé sur lei-ème individu. Dès lors : les donnéesx1;:::;xnsont des réalisations deX1;:::;Xn, X1;:::;Xnsont desvarindépendantes et identiquement distribuées (iid), la loi commune desvarX1;:::;Xnest celle de lavarX:Xisuit la loiL(). Le vecteur aléatoire réel(X1;:::;Xn)est appelén-échantillon deX. Ainsi le terme "échantillon" désigne tantôt un groupe d"individus, tantôt(X1;:::;Xn).Notion d"estimateur (aléatoire)
Soit(X1;:::;Xn)unn-échantillon deX. Un estimateur (aléatoire) deest une fonction dépendante desvarX1;:::;Xnet, éventuellement, den; c"est donc unevar. On le notebn.Ainsi, on peut l"écrire sous la forme
bn=gn(X1;:::;Xn)oùgndésigne une fonction connue dépendant éventuellement den.Notion d"estimateur ponctuel
Un estimateur ponctuel deest la réalisation d"un estimateurbndecorrespondante aux données x1;:::;xn; c"est donc un réel ou un vecteur de réels. On le note.
Représentation
Partant d"un estimateur
bn=gn(X1;:::;Xn)oùgndésigne une fonction connue, un estimateur ponctuel deest=gn(x1;:::;xn); on a substituéXiparxipour touti2 f1;:::;ng. Réciproquement, si un estimateur ponctuel deest de la forme=gn(x1;:::;xn)oùgndésigne une fonction connue, l"estimateur sous-jacent est bn=gn(X1;:::;Xn).Estimation paramétrique : enjeu
L"enjeu de l"estimation paramétrique est de
déterminer un estimateur ponctuelqui soit proche de, évaluer l"écart entreetavec le plus de précision possible. Pour ce faire, la construction d"un "bon estimateur" bndeest nécessaire.C. Chesneau82 Modélisation
Notion d"étude asymptotique
On part du postulat suivant : "plusnest grand, plus on a de données, plus on dispose d"information
sur les caractéristiques deX, plus on doit être en mesure d"estimer précisément". L"entierntel
qu"on l"a introduit est fixé. Toutefois, la définition d"un estimateur (aléatoire) bndenous autorise àconsidérerncomme une variable entière. Ainsi, on peut introduire la suite devar(bn)n2Net étudier
sa précision dans l"estimation dequandntend vers l"infini. On parle alors d"étude asymptotique.
De manière générale, le mot asymptotique signifie "quandntend vers l"infini", qui se transpose en
pratique par "quandnest assez grand".Estimateur performant : première approche
Un estimateur
bndeest considéré comme performant si la mesure de lavarbnsous divers critères probabilistes est faible, la suite devar(bn)n2Nconsidérée sous divers critères probabilistes converge rapidement vers0quandntend vers l"infini,
la loi debnpeut être approchée par une loi manipulable, voire usuelle, quandnest assez grand. L"erreur d"estimation modélisée par lavarbnjoue donc un rôle central.Dans ce document
, pour simplifier, on suppose désormais que :(X1;:::;Xn)désigne unn-échantillon d"unevarXsuivant la loiL()caractérisée par la fonction
f(x;), désigne un seul paramètre inconnu,les quantités introduites existent (espérance, variance, écart-type, dérivée...). Si une de ces
quantités n"existe pas dans le cadre d"une application, la formule proposée devient absurde; elle
doit être ignorée.C. Chesneau93 Performance non-asymptotique d"un estimateur
3 Performance non-asymptotique d"un estimateur
Estimateur sans biais
On dit qu"un estimateur
bndeest sans biais si et seulement siE(bn) =.Cela signifie que la valeur moyenne de
bnest égale à.Biais d"un estimateur
Plus généralement, on appelle biais d"un estimateur bndele réel :B(bn;) =E(bn) =E(bn):
Ainsi, le biais mesure l"écart moyen entre
bnet.Risque quadratique
On appelle risque quadratique d"un estimateur
bndele réel :R(bn;) =E((bn)2):
Le risque quadratique est une mesure de l"erreur moyenne que commet bndans l"estimation de. Il est un critère de performance : plusR(bn;)est petit, plus l"estimateurbnestime bien. Si bnest sans biais, alors on aR(bn;) =E((bnE(bn))2) =V(bn).Expression pratique du risque quadratique
On peut montrer que
R(bn;) =V(bn) + (B(bn;))2:
Estimateur préférable
Soient
b(1)netb(2)ndeux estimateurs de. On dit queb(1)nest préférable àb(2)nsi et seulement siR(b(1)n;)R(b(2)n;):C. Chesneau11
3 Performance non-asymptotique d"un estimateur
"Sccri" = "Sous certaines conditions de régularité et d"intégrabilité"quotesdbs_dbs13.pdfusesText_19[PDF] information génétique cours
[PDF] information génétique définition
[PDF] information genetique et division cellulaire
[PDF] information génétique wikipedia
[PDF] informatique 2eme année college
[PDF] informatique 3eme college
[PDF] informatique appliquée cours
[PDF] informatique de gestion pdf s4
[PDF] informatique fondamentale pdf
[PDF] informatique generale et internet
[PDF] informatique s1 smia pdf
[PDF] informe de auditoria de gestion ejemplo
[PDF] informe de auditoria de gestion ejemplos
[PDF] informe de investigacion ejemplo pdf