[PDF] RAPPELS DE STATISTIQUE M1 Exemple : On a vu plus





Previous PDF Next PDF



RAPPELS DE STATISTIQUE M1

Exemple : On a vu plus haut que l'information de Fisher d'un mod`ele d'échantillonnage dans la loi normale est d'autant plus forte que la variance est petite.



Année Universitaire 2006-2007 COURS DE STATISTIQUE

A noter que l'espérance est prise par rapport `a la loi Pθ de X. 3.3.2 Autres expressions de l'information de Fisher. On appelle score la quantité S(x θ) = ∂.



Chapitre 4 Estimation par vraisemblance

covθ ) désigne la matrice de variance (resp. la covariance) sous la loi Pθ . Pour motiver le concept d'information de Fisher supposons pour simpli- fier que Θ 



TD 3 : Information de Fisher méthode du χ 1 Information de Fisher

17 nov. 2009 On se contente donc de calculer l'information de Fisher dans le cas ... Q3 une loi uniforme sur [0θ] avec θ > 0 inconnu. Solution: Pour une ...



Mise `a niveau Comparaison destimateurs

Exemple 3 : la loi uniforme Soit X ∼ U ([0θ]) avec θ ∈ Θ = R∗. +



T. D. n 6 Information de Fisher et maximum de vraisemblance

Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ



Mesure dordre de linformation au sens de Fisher

analogue à celle de CRAMER-RAO pour les valeurs entières de a. 3) Cas de lois normales ou uniformes a) Soit X une variable aléatoire suivant une loi normale 



T. D. n 6 Information de Fisher et maximum de vraisemblance

Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ



TD 5 : Comparaison et optimalité des estimateurs

Si oui calculer l'information de Fisher I1(θ) du modèle à une observation. 2. Donner un estimateur du maximum de vraisemblance ainsi que sa loi limite. 3. Est- 



Test dAjustement à une Loi Normale Vectorielle

8 avr. 2022 ... information de Fisher d'une loi normale mul- tidimensionnelle par la méthode directe est assez long; c'est pourquoi on es-. Page 6. 85 saie d ...



TD 3 : Information de Fisher méthode du ? 1 Information de Fisher

Nov 17 2009 1 Information de Fisher. Calculer l'information de Fisher dans les mod`eles statistiques suivants : Q1 une loi de Poisson de param`etre ? :.



Année Universitaire 2006-2007 COURS DE STATISTIQUE

la loi de X est normale (avec ?2 connue puis ?2 inconnue). IT (?) représente l'information de Fisher au point ? dans le mod`ele (Y; PT ? ) o`u PT.



RAPPELS DE STATISTIQUE M1

Exemple : On a vu plus haut que l'information de Fisher d'un mod`ele d'échantillonnage dans la loi normale est d'autant plus forte que la variance.



T. D. n 6 Information de Fisher et maximum de vraisemblance

Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ



Statistique Inférentielle Avancée

13.2.1 Table 1 de la loi normale centrée réduite . Il y a en fait un lien entre l'exhaustivité et l'information de Fisher comme on le verra plus tard.



Mesure dordre de linformation au sens de Fisher

analogue à celle de CRAMER-RAO pour les valeurs entières de a. 3) Cas de lois normales ou uniformes a) Soit X une variable aléatoire suivant une loi normale 



Modélisation Statistique (MAP-STA1) - M1-Mathématiques

définition mathématique de l'information (de Fisher) et indépendantes X et Y de même loi ... converge en loi sous IP?? vers une loi normale :.



Fisher information and the fourth moment theorem

au sens de l'information de Fisher vers la loi gaussienne d'une suite d'éléments de convergence associée pour la convergence normale d'une version ...



Sur lEstimateur du Maximum de Vraisemblance (emv)

Jan 9 2017 L'information de Fisher caractérise la borne de Cramer-Rao ; on a ... converge en loi vers une var Z suivant la loi normale N(0



T. D. n 6 Information de Fisher et maximum de vraisemblance

Exercice 1. Information efficacité et loi de Gauss. Soit X une variable aléatoire suivant une loi normale N(µ

RAPPELS DE STATISTIQUE M1

A - ESTIMATION

1 INTRODUCTION : DES STATISTIQUES

DESCRIPTIVES AUX STATISTIQUES

1. - Statistique descriptive : ´echantillonnage al´eatoire

On dispose de l'observation d'une variable quantitativex i pour un indi- viduidans un´echantillon deNindividus tir´es au hasard. On parle d'´echantillonnage al´eatoire lorsque l'on peut consid´erer les observations comme les r´ealisations de variables al´eatoires ind´ependantes de mˆeme loi. On ´etudie traditionnellement les r´esum´es suivant de l'´echantillon :x n =1 N N X t=i x i =moyenneempiriquedex m´ediane (m) = la valeur telle que le nombre d'observations au-dessus dem est ´egal au nombre d'observations en-dessous dem. 2x =1 N1N X t=i (x i x N 2 = variance empirique dex 1 N1N X t=i (x i x N 2 1/2 =´ecart-type dex Lorsque l'on observe deux variables par individu, on peut construire la covariance et la corr´elation empiriques : xy N X i=1 (x i x N )(y i y N N1 xy x y =corr´elation 1 On peut d´ecrire l'´echantillon par des diagrammes en bˆatons indiquant, pour chaque classeC j =[x j ,x j j ] la proportion d'observations tombant dans cet intervalle. De mˆeme que les mesures th´eoriques, ce diagramme peut ˆetre compris comme une approxiation de la densit´esous-jacente`a l'exp´erience al´eatoire ayant g´en´er´ee les observations.

2. -Formulationstatistique: estimationdesparam`etres

On peut formaliser l'exp´erience pr´ec´edente de la fa¸con suivante : les valeursx i sont les r´ealisations deNvariables al´eatoires ind´ependantes (X i iiN d´efinies sur un mˆeme espace probabilis´e, suivant toutes une mˆeme loi. Alors, l'ensemble des mesures pr´ec´edentes peuvent ˆetre vues comme les r´ealisations de variables al´eatoires. La moyenne empirique par exemple est la r´ealisation de X n =1 N N X t=i X i .Dansle cadre pr´ec´edent, c'est une variable al´eatoire de moyenneE(X i )devariance1 NV(X i

On peut chercher `areconnaˆıtre la loi desX

i .Pour avoir une chance d'y parvenir,ilfautavoirpr´ecis´e une classe de lois susceptibles de contenir celle desX i .Deux approches sont alors possibles : soit contraindre fortement cette classe, en l'identifiant `aunefamilledeloisparam´etr´ee par un r´eel, soit ne pas la contraindre (notamment, ne pas choisir une famille param´etr´ee de lois). On se limitera ici `alapremi`ere approche, dite approche param´etrique. On peut par exemple supposer que les observations sont issues du tirage dans N(m, 2 ) (famille des lois normales, param´etr´ee par=(m, 2 )). De fa¸con g´en´erale, le probl`eme statistique consiste alors `a construire un estimateur de 0 (not´eg´en´eralementb),i.e. une variable al´eatoire dont on puisse d´eduire lesvaleurslesplusprobablesde 0 ,param`etre sous-jacent au tirage. Remarque :implicitement, on suppose que les donn´ees sont eectivement issues d'une loi de param`etre 0 .C'est cette hypoth`ese qui permet de guider le statisticien vers un bon estimateur de 0 .Bien sˆur, cette hypoth`ese peut ˆetre erron´ee au d´epart et le statisticien ou l'´economiste poss`ede quelques m´ethodes de d´etection d'une telle erreur (tests de sp´ecification ...).

3. - Notion de mod`ele statistique

Un mod`ele statistique est constitu´ed'unensembleder´esultats,d'une tribu sur cet ensemble de r´esultats=,et d'unefamillede lois de probabilit´e sur (,=),soitP. 2 Nous consid´erons essentiellement le cas o`uPest une famille param´etr´ee (par un r´eel)deloissur(,=).

Exemple :mod`ele d'´echantillonnage

L'espace des r´esultats est du type<

N .=est la tribu des bor´eliens sur N . La famille de lois est le produit desNsur< P (X 1 A 1 ,...,X N A N )=P(X 1 A 1 )×...×P(X N A N

2 ESTIMATEUR

1. - Notion d'estimateur

Quand une famille de lois, d´ependant du param`etre inconnua´et´e choisie, c'est de l'´echantillon et de lui seul, que l'on peut tirer les informa- tions. On appelleestimateurde param`etre,toutefonctiondel'´echantillon, prenant ses valeurs dans l'ensemble des valeurs possibles pour.Cette d´efinition vague, cache l'espoir que les valeurs prises par l'estimateur soient proches de la valeur cible,qui est et restera inconnue. Il importe de bien distinguer les variables al´eatoires, li´ees `alamod´elisation, de leurs r´ealisations, identifi´ees aux donn´ees. Un ´echantillon (th´eorique) est unn-uplet de variables al´eatoires ind´ependantes et de mˆeme loiP .Pour estimer,on propose un estimateur, fonction de l'´echantillon : T=(X 1 ,...,X n C'est aussi une variable al´eatoire. Le choix du mod`ele et de l'estimateurT est d´econnect´e du recueil des donn´ees. C'est en quelque sorte une planification que l'on eectue avant toute observation, et qui pourra servir `aplusieurs ´echantillons observ´es du mˆeme ph´enom`ene. Une fois un mod`ele choisi, on consid`erera unn-uplet de donn´ees (x 1 ,...,x n comme une r´ealisation des variables al´eatoires (X 1 ,...,X n ).La valeur (r´eelle) prise parT: b =(x 1 ,...,x n est l'estimation(du param`etre au vu de l'´echantillon observ´e). 3 Prenons l'exemple simple d'une pi`ece dont on ignore si elle ou non truqu´ee. La probabilit´edetombersurpileestleparam`etre inconnu=p.On se pro- pose de r´ealiser 10 lancers de la pi`ece, que l'on mod´elisera par un ´echantillon de taille 10 de la loi de Bernoulli de param`etrep.Le nombre de pile obtenu sur les10lancersestunevariableal´eatoire qui suit la loi binomialeB(10,p).Le quotient de cette variable al´eatoire parn(la fr´equence) est unestimateurde p.Eectuons maintenant les dix lancers en notant chaque fois 1 si pile sort, et 0 si c'est face. Uner´ealisationde l'´echantillon est par exemple :

0,1,1,0,1,1,1,0,0,1.

Pour cette r´ealisation, la fr´equence empirique prend la valeur 0.6, que l'on proposera commeestimationdep.Bien ´evidemment, 10 nouveaux lancers de la mˆeme pi`ece pourront conduire `auner´ealisation di´erente de l'´echantillon et `a une estimation di´erente dep.

2. - Identifiabilit´e - Informations de K¨ullback

On dit qu'une valeur du param`etre

0 estidentifiables'il n'existe pas d'autre param`etre(6= 0 )telquelesloisP etP 0 soient identiques. Le mod`ele statistique est dit identifiable si toutes les valeurs du param`etre sont identifiables. Il serait pratique de disposer d'une distance entre les lois pour juger du "degr´e" d'identification d'une valeur 0 .Plus les lois sont distantes, plus il sera facile de trouver celle qui peut ˆetre `a l'origine des observations. Un exemple caricatural est obtenu en supposant que le param`etrene peut prendre que deux valeurs 0 et 1 ,et queP 0 etP 1 n'ont pas le mˆeme support (par exempleP 0 charge [1,+[etP 0 charge ],1]). Alors une observation sutpourtrancherentre= 0 ou= 1

Si les loisP

admettent des densit´es`(y,),la fonction (y,)7`(y,)est appel´ee vraisemblance. La fonction densit´ed'unn-´echantillon=( 1 n n Q i=1 `(x i ,)est´egalement appel´ee vraisemblance. L'information de Fisher permet de mesurer la distance entre deux lois de densit´e`(y, 0 )et`(y, 1

On appelle information de K¨ullback de

0 contre 1 la quantit´e: 4 0 1 )=E 0

Log`(y,

0 `(y, 1 Z

Log·`(y,

0 `(y, 1 `(y, 0 )dy OnmontrequelamesuredeK¨ullback est toujours bien d´efinie, positive (elle peut valoir +),et qu'elle est nulle si et seulement si les deux densit´es sont presque partout ´egales. L'argument utilise l'in´egalit´edeJensen: E 0

Log`(y,

0 `(y, 1 =E 0

Log`(y,

0 `(y, 1 Log E 0 `(y, 0 `(y, 1 )=E(`(y, 1 ))1 0 Comme la fonction-Log est strictement convexe l'in´egalit´edeJensenest une ´egalit´esietseulementsi`(y, 0 `(y, 1 )est presque partout constante. Si l'information de K¨ullback est nulle, c'est que`(y, 0 )=`(y, 1 )presque partout. On peut donc´etudier localement l'identifiabilit´ed'unparam`etre en´etudiant la fonction de 1 :I( 0 1 ).Elle est nulle en 0 Yw 1 I( 0 1 Yw 1 Z [Log `(y, 1 )]`(y, 0 )dy =Z Yw 1 [(Log `(y, 1 ))]`(y, 0 )dy (en 1 0 :) =Z Yw 0 `(y, 0 `(y, 0 )`(y, 0 )dy =Z Yw 0 `(y, 0 )dy= Yw 0 `(y, 0 )dy =0 5

L'identification de

0 sera d'autant plus ais´ee que la fonction de 1 ,I( 0 1 sera tr`es courbe au voisinage de 0 On appelle information de Fisher la mesure de cette courbure au voisinage de 0 ,c'est-`a-dire le Hessien (matrice des d´eriv´ees secondes) de cette fonction.

¯¯¯¯I

F 0 2 I( 0 0 pour=quotesdbs_dbs13.pdfusesText_19
[PDF] information et création numérique

[PDF] information génétique cours

[PDF] information génétique définition

[PDF] information genetique et division cellulaire

[PDF] information génétique wikipedia

[PDF] informatique 2eme année college

[PDF] informatique 3eme college

[PDF] informatique appliquée cours

[PDF] informatique de gestion pdf s4

[PDF] informatique fondamentale pdf

[PDF] informatique generale et internet

[PDF] informatique s1 smia pdf

[PDF] informe de auditoria de gestion ejemplo

[PDF] informe de auditoria de gestion ejemplos

[PDF] informe de investigacion ejemplo pdf