[PDF] Estimation paramétrique modèle de Bernoulli X = (





Previous PDF Next PDF



loi uniforme exercices corrigés. Document gratuit disponible sur

LOI UNIFORME. EXERCICES CORRIGES. Exercice n°1 (correction). X est une variable aléatoire qui suit la loi uniforme sur l'intervalle I.



Exercices de probabilités avec éléments de correction Memento

Loi de Poisson P(?) ? ?]0 +?[. N p(k) = e?? ?k k! Lois continues. Nom. Paramètres. Support Définition : P(A) = ?. A f(x)dx. Loi uniforme U([a



Loi de probabilité continue

Exemple. La loi uniforme sur [ab] a pour densité la fonction On appelle loi uniforme sur l'intervalle [a



LES LOIS A DENSITES : loi uniforme.

On passe d'un modèle discret (par exemple la loi binomiale où les valeurs possibles pour la variable aléatoire sont des nombres entiers) à un modèle continu (il 



Couples et vecteurs de variables aléatoires Préparation `a l

On trouve ici que X et Y suivent une loi uniforme sur {12



Cours de probabilités et statistiques

On peut considérer par exemple l'événement qui correspond `a Mis `a part le prestige dû `a son nom la loi uniforme est la loi de l'absence ...



Estimation paramétrique

modèle de Bernoulli X = (X1



UN EXEMPLE DINTRODUCTION DES LOIS A DENSITE EN

Mars 2020 - Avril 2020. UN EXEMPLE D'INTRODUCTION DE L'ESPERANCE. (LOI A DENSITE) ET DE LA LOI UNIFORME. EN TERMINALE S AU LYCEE DU COUDON (83).





LOIS À DENSITÉ

Pour cela on utilise la fonction de densité f définissant la loi de probabilité. Dans l'exemple précédent



[PDF] Terminale S - Loi uniforme Loi exponentielle - Parfenoff org

Exemple 2 : Le temps d'attente exprimé en minutes au guichet d'une banque est une variable aléatoire T suivant la loi exponentielle de paramètre On sait que 



[PDF] Loi uniforme - exercices corrigés - Maurimath

LOI UNIFORME EXERCICES CORRIGES Exercice n°1 (correction) X est une variable aléatoire qui suit la loi uniforme sur l'intervalle I



[PDF] Loi de probabilité continue

La loi uniforme est la version continue de la loi uniforme discrète Définition On appelle loi uniforme sur l'intervalle [ab] la variable aléatoire notée 



[PDF] LES LOIS A DENSITES : loi uniforme

Pour comprendre la loi uniforme on peut penser à des exemples du type : • Prendre un nombre au hasard entre deux nombres (il y a une infinité de valeurs) • La 



[PDF] Chapitre 4 : Lois de distribution continues

4 1 Loi uniforme Si toute valeur de X est équiprobable dans l'intervalle [ab] alors X suit une loi uniforme La fonction de densité est:



EMV de la loi uniforme - ENS Rennes

Exemples et applications Résultats : Soient X1 Xn des variables aléatoires de même loi uniforme U[0?] avec ? ? R? 4 vitesse et loi limite :



[PDF] loi-uniforme-exercicepdf - Jaicompris

Loi uniforme : Exercices Corrigés en vidéo avec le cours sur jaicompris com Loi uniforme et probl`eme de rendez-vous Anissa doit retrouver Manon au café 



[PDF] Loi continue : Partie II Loi uniforme sur [a ; b]

Propriété : Soit X une variable aléatoire qui suit une loi uniforme sur [a ; b] Exemple 1 : Caroline a dit qu'elle passerait voir Julien à un moment 



[PDF] LOIS À DENSITÉ - maths et tiques

1) Loi uniforme sur [0 ; 1] Exemple : Des machines remplissent des bouteilles de lait de 1 litre L'une d'entre elles est défectueuse et au passage de 

  • Comment savoir si une loi est uniforme ?

    Comment savoir si une loi est uniforme ? Il s'agit d'une loi uniforme si chaque issue a une probabilité égale d'arriver.
  • Pourquoi utiliser loi uniforme ?

    D'après le théorème cité plus haut, la loi uniforme permet en théorie d'obtenir des tirages de toute loi continue à densité. Il suffit pour cela d'inverser la Fonction de répartition de cette loi, et de l'appliquer à des tirages de la loi uniforme standard.
  • C'est quoi une probabilité uniforme ?

    En théorie des probabilités, une loi discrète uniforme est une loi de probabilité discrète pour laquelle la probabilité de réalisation est identique (équiprobabilité) pour chaque modalité d'un ensemble fini de modalités possibles.
  • La loi du couple (X, Y ) est définie par l'ensemble des probabilités : IP(X = x, Y = y) pour toutes valeurs possibles x et y. De même, pour y ? DY , on a IP(Y = y) = ?x?DX IP(X = x, Y = y).

Estimation paramétrique

Estimation paramétrique

Retour au

plan du cours Soit( ;A;P)un espace probabilisé etXune v.a. de( ;A)dans(E;E). La donnée d"un modèle statistique c"est la donnée d"une famille de proba- bilités sur(E;E),fP; 2g. Le modèle étant donné, on suppose alors que la loi deXappartient au modèlefP; 2g. Par exemple dans le modèle de Bernoulli,X= (X1;:::;Xn)où lesXisont i.i.d. de loi de Bernoulli de paramètre2]0;1[.E=f0;1gn,E=P(E), =]0;1[et P = ((1)0+1) n.

1 Premières définitions

DÉFINITION1. - On dit que le modèlefP; 2gest identifiable si l"ap- plication ! fP; 2g 7!P est injective. DÉFINITION2. - Soitg: 7!Rk. On appelle estimateur deg()au vu de l"observationX, toute applicationT:

7!Rkde la formeT=h(X)où

h:E7!Rkmesurable. Un estimateur ne doit pas dépendre de la quantitég()que l"on cherche à estimer. On introduit les propriètes suivantes d"un estimateur : DÉFINITION3. -Test un estimateur sans biais deg()si pour tout2, E [T] =g(). Dans le cas contraire, on dit que l"estimateurTest biaisé et on appelle biais la quantitéE(T)g(). GénéralementXest un vecteur(X1;:::;Xn)d"observations (nétant le nombre d"entre elles). Un exemple important est le cas oùX1;:::;Xnforme unn-échantillonc"est à dire lorsque queX1;:::;Xnsont i.i.d. On peut alors

regarder des propriétés asymptotiques de l"estimateur, c"est à dire en faisanttendre le nombre d"observationsnvers+1. Dans ce cas, il est naturel de

noterT=Tncomme dépendant den. On a alors la définition suivante : DÉFINITION4. -Tnest un estimateur consistant deg()si pour tout2, T nconverge en probabilité versg()sousPlorsquen! 1. On définit le risque quadratique de l"estimateur dans le cas oùg()2R. DÉFINITION5. - SoitTnest un estimateur deg(). Le risque quadratique de T nest défini par

R(Tn;g()) =E[(Tng())2]:

Remarque. -Le risque quadratique est la somme de la variance et du carré du biais de l"estimateur. L"inégalité de Cramer-Rao et la définition de l"information de Fisher ont été vues en année 3 et ne sont pas rappelées ici.

2 Estimation par la méthode des moments

Dans cette section,Xest le vecteur formé par unn-échantillonX1;:::;Xn.

LesXisont à valeurs dans un ensembleX.

Soitf= (f1;:::;fk)une application deXdansRktelle que l"application !Rk :7!E[f(X1)] soitinjective. On définit l"estimateur^ncomme la solution dans(quand elle existe) de l"équation () =1n n X i=1f(Xi):(1) Souvent, lorsqueX R, la fonction on prendfi(x) =xietcorrespond donc auième moment de la variablesX1sousP. Ce choix justifie le nom donné à la méthode. Voici quelques exemples d"estimateurs bâtis sur par cette méthode.1

Estimation paramétrique

2.1 Loi exponentielle

Icik= 1,Q=E()pour2R+. Comme pour tout,E[X1] = 1=

on prend() = 1=etf=Id:R+!R+. L"estimateur obtenu par la méthode des moments est n=1X noùX n=1n n X i=1X i: Par continuité de l"applicationx!1=x,^nest un estimateur consistant de.

Remarquons queX

n>0p.s. ce qui justifie l"égalité ci-dessus.

2.2 Loi uniforme

Icik= 1,Qest la loi uniforme sur[0;]avec >0. On a que pour tout,E[X1] ==2, on peut donc prendre par exemple() ==2et f=Id:R!R. L"estimateur obtenu par la méthode des moments est alors^n= 2X n. Cet estimateur est sans bias et consistant.

2.3 Loi gaussienne

Icik= 2, on prend= (m;)2RR+,Q=N(m;). Pour tout

= (m;),E[X1] =metE[X21] =m2+. On peut donc prendre, par exemple,f1(x) =xetf2(x) =x2ce qui donne(m;) = (m;m2+). L"estimateur obtenus par la méthode des moments vérifie ^mn=X net ^m2n+ ^n=1n n X i=1X 2i: c"est a dire n= X n;1n n X i=1 XiX n 2! L"estimateur est consistant mais l"estimateur de la variance est biaisé.

2.4 Propriétés asymptotiques

Notons() =E(1n

P n i=1f(Xi)). Supposons queX1;:::;Xnsont i.i.d.

de loiP0. Les résultats de consistance précédents étaient obtenus grâce au faitque d"une part,

1n n X i=1f(Xi)p:s:!(0); et donc, comme1existe et est continue au voisinage de(0), on en déduit que ^nexiste et vérifie np:s:!1(0) =0:

Mais que peut-on dire de la distance de

^nà0? Sous l"hypothèse que E

0[kfk2]<+1on a grâce au théorème central limite que

pn 1n n X i=1f(Xi)(0)!

Loi! Nk(0;(0));

où(0)la matrice covariance def(X1)sousP0. Elle est définie pouri;j2 f1;:::;kg i;j(0) =Cov0[fi(X1)fj(X1)]:

La Delta méthode (cf Proposition

16 ) va nous permettre de déduire un résultat similaire pour^n: THÉORÈME6. - Supposons quesoit de classeC1dedansRket que

02, et queD0 :Rk!Rksoit inversible. Supposons de plus que

E

0[kf(X1)k2]<+1et notons(0)la matrice covariance def(X1)sous

P

0. Alors sousP0:

^nexiste avec une probabilité tendant vers 1 on a la con vergenceen loi pn ^n0

Loi! N

0;(D0)1(0)

(D0)10 Démonstration. -CommeD0est inversible,Dreste inversible dans un voisinage de0et donc, d"après le théorème de l"inversion locale,réalise un difféomorphisme d"un voisinageUde0dansVun voisinage de(0). Par la2

Estimation paramétrique

loi des grands nombres, ^Yn=n1Pn i=1f(Xi)converge en probabilité (car p.s.) vers(0)et donc^Ynappartient àVavec une probabilité tendant vers 1 quandntend vers+1. Sur cet événement, l"équation (1) admet une unique

solution^ndans(par injectivité de) et cette solution vérifie^n2Uet^n= 1(^Yn)où1est définie deVdansU. On a par ailleurs,

pn ^n0 =pn ^n1^Yn=2V+pn ^n1^Yn2V0 pn ^n1^Yn=2V+pn[~1^Yn ~1((0))](2) où ~1(y) = 1(y)1y2V. Orpn ^n1^Yn=2Vconverge vers 0 en probabilité car pour tout" >0, P 0[apn ^n1^Yn=2V> "]P0[^Yn62V]!n!+10: D"après le lemme de Slutsky, il suffit donc de montrer que le second terme du membre de droite de ( 2 ) converge en loi vers la limite annoncée. Or par théoreme centrale limite vectoriel pn ^Yn(0)

Loi! N(0;(0));

et on conclut en utilisant la Proposition 16 .3 Estimation par maximum de vraisem- blance SoitfE;E;fP; 2ggun modèle statistique, oùRk(nous sommes dans un cadre paramétrique). On suppose qu"il existe une mesure-finiequi domine le modèle, c"est à dire que82,Padmet une densitép(;:)par rapport à. DÉFINITION7. - SoitXune observation. On appelle vraisemblance deX l"application !R+

7!p(;X):On appelle estimateur du maximum de vraisemblance de, tout élément^

demaximisant la vraisemblance , c"est à dire vérifiant = argmax2p(;X): Remarque. -L"estimateur de maximum de vraisemblance n"existe pas tou- jours et n"est pas toujours unique. Considérons le cas typique oùX= (X1;:::;Xn)0, lesXiformant unn- R k. On suppose en outre que pour tout2,Qest absolument continue par rapport à une mesuresurX. Dans ce cas, en notant q(;x) =dQd (x); et en prenant= non a que la vraisemblance s"écrit p(;X) =nY i=1q(;Xi)quotesdbs_dbs35.pdfusesText_40
[PDF] variance loi uniforme démonstration

[PDF] fonction de répartition loi uniforme discrète

[PDF] variable statistique discrète

[PDF] la leçon (pièce de théâtre)

[PDF] ionesco la cantatrice chauve

[PDF] ionesco mouvement littéraire

[PDF] ionesco rhinocéros résumé

[PDF] fonction de service technologie 5ème

[PDF] fonction de service d'une maison

[PDF] fonction de contrainte

[PDF] différence entre fonction de service et fonction technique

[PDF] difference entre fonction de service et fonction d'usage

[PDF] fonction de service exemple

[PDF] fonction de service définition

[PDF] exercice multiplication 6ème ? imprimer