loi uniforme exercices corrigés. Document gratuit disponible sur
LOI UNIFORME. EXERCICES CORRIGES. Exercice n°1 (correction). X est une variable aléatoire qui suit la loi uniforme sur l'intervalle I.
Exercices de probabilités avec éléments de correction Memento
Loi de Poisson P(?) ? ?]0 +?[. N p(k) = e?? ?k k! Lois continues. Nom. Paramètres. Support Définition : P(A) = ?. A f(x)dx. Loi uniforme U([a
Loi de probabilité continue
Exemple. La loi uniforme sur [ab] a pour densité la fonction On appelle loi uniforme sur l'intervalle [a
LES LOIS A DENSITES : loi uniforme.
On passe d'un modèle discret (par exemple la loi binomiale où les valeurs possibles pour la variable aléatoire sont des nombres entiers) à un modèle continu (il
Couples et vecteurs de variables aléatoires Préparation `a l
On trouve ici que X et Y suivent une loi uniforme sur {12
Cours de probabilités et statistiques
On peut considérer par exemple l'événement qui correspond `a Mis `a part le prestige dû `a son nom la loi uniforme est la loi de l'absence ...
Estimation paramétrique
modèle de Bernoulli X = (X1
UN EXEMPLE DINTRODUCTION DES LOIS A DENSITE EN
Mars 2020 - Avril 2020. UN EXEMPLE D'INTRODUCTION DE L'ESPERANCE. (LOI A DENSITE) ET DE LA LOI UNIFORME. EN TERMINALE S AU LYCEE DU COUDON (83).
Probabilités et variables aléatoires
miales géométrique
LOIS À DENSITÉ
Pour cela on utilise la fonction de densité f définissant la loi de probabilité. Dans l'exemple précédent
[PDF] Terminale S - Loi uniforme Loi exponentielle - Parfenoff org
Exemple 2 : Le temps d'attente exprimé en minutes au guichet d'une banque est une variable aléatoire T suivant la loi exponentielle de paramètre On sait que
[PDF] Loi uniforme - exercices corrigés - Maurimath
LOI UNIFORME EXERCICES CORRIGES Exercice n°1 (correction) X est une variable aléatoire qui suit la loi uniforme sur l'intervalle I
[PDF] Loi de probabilité continue
La loi uniforme est la version continue de la loi uniforme discrète Définition On appelle loi uniforme sur l'intervalle [ab] la variable aléatoire notée
[PDF] LES LOIS A DENSITES : loi uniforme
Pour comprendre la loi uniforme on peut penser à des exemples du type : • Prendre un nombre au hasard entre deux nombres (il y a une infinité de valeurs) • La
[PDF] Chapitre 4 : Lois de distribution continues
4 1 Loi uniforme Si toute valeur de X est équiprobable dans l'intervalle [ab] alors X suit une loi uniforme La fonction de densité est:
EMV de la loi uniforme - ENS Rennes
Exemples et applications Résultats : Soient X1 Xn des variables aléatoires de même loi uniforme U[0?] avec ? ? R? 4 vitesse et loi limite :
[PDF] loi-uniforme-exercicepdf - Jaicompris
Loi uniforme : Exercices Corrigés en vidéo avec le cours sur jaicompris com Loi uniforme et probl`eme de rendez-vous Anissa doit retrouver Manon au café
[PDF] Loi continue : Partie II Loi uniforme sur [a ; b]
Propriété : Soit X une variable aléatoire qui suit une loi uniforme sur [a ; b] Exemple 1 : Caroline a dit qu'elle passerait voir Julien à un moment
[PDF] LOIS À DENSITÉ - maths et tiques
1) Loi uniforme sur [0 ; 1] Exemple : Des machines remplissent des bouteilles de lait de 1 litre L'une d'entre elles est défectueuse et au passage de
Comment savoir si une loi est uniforme ?
Comment savoir si une loi est uniforme ? Il s'agit d'une loi uniforme si chaque issue a une probabilité égale d'arriver.Pourquoi utiliser loi uniforme ?
D'après le théorème cité plus haut, la loi uniforme permet en théorie d'obtenir des tirages de toute loi continue à densité. Il suffit pour cela d'inverser la Fonction de répartition de cette loi, et de l'appliquer à des tirages de la loi uniforme standard.C'est quoi une probabilité uniforme ?
En théorie des probabilités, une loi discrète uniforme est une loi de probabilité discrète pour laquelle la probabilité de réalisation est identique (équiprobabilité) pour chaque modalité d'un ensemble fini de modalités possibles.- La loi du couple (X, Y ) est définie par l'ensemble des probabilités : IP(X = x, Y = y) pour toutes valeurs possibles x et y. De même, pour y ? DY , on a IP(Y = y) = ?x?DX IP(X = x, Y = y).
Estimation paramétrique
Estimation paramétrique
Retour au
plan du cours Soit( ;A;P)un espace probabilisé etXune v.a. de( ;A)dans(E;E). La donnée d"un modèle statistique c"est la donnée d"une famille de proba- bilités sur(E;E),fP; 2g. Le modèle étant donné, on suppose alors que la loi deXappartient au modèlefP; 2g. Par exemple dans le modèle de Bernoulli,X= (X1;:::;Xn)où lesXisont i.i.d. de loi de Bernoulli de paramètre2]0;1[.E=f0;1gn,E=P(E), =]0;1[et P = ((1)0+1) n.1 Premières définitions
DÉFINITION1. - On dit que le modèlefP; 2gest identifiable si l"ap- plication ! fP; 2g 7!P est injective. DÉFINITION2. - Soitg: 7!Rk. On appelle estimateur deg()au vu de l"observationX, toute applicationT:7!Rkde la formeT=h(X)où
h:E7!Rkmesurable. Un estimateur ne doit pas dépendre de la quantitég()que l"on cherche à estimer. On introduit les propriètes suivantes d"un estimateur : DÉFINITION3. -Test un estimateur sans biais deg()si pour tout2, E [T] =g(). Dans le cas contraire, on dit que l"estimateurTest biaisé et on appelle biais la quantitéE(T)g(). GénéralementXest un vecteur(X1;:::;Xn)d"observations (nétant le nombre d"entre elles). Un exemple important est le cas oùX1;:::;Xnforme unn-échantillonc"est à dire lorsque queX1;:::;Xnsont i.i.d. On peut alorsregarder des propriétés asymptotiques de l"estimateur, c"est à dire en faisanttendre le nombre d"observationsnvers+1. Dans ce cas, il est naturel de
noterT=Tncomme dépendant den. On a alors la définition suivante : DÉFINITION4. -Tnest un estimateur consistant deg()si pour tout2, T nconverge en probabilité versg()sousPlorsquen! 1. On définit le risque quadratique de l"estimateur dans le cas oùg()2R. DÉFINITION5. - SoitTnest un estimateur deg(). Le risque quadratique de T nest défini parR(Tn;g()) =E[(Tng())2]:
Remarque. -Le risque quadratique est la somme de la variance et du carré du biais de l"estimateur. L"inégalité de Cramer-Rao et la définition de l"information de Fisher ont été vues en année 3 et ne sont pas rappelées ici.2 Estimation par la méthode des moments
Dans cette section,Xest le vecteur formé par unn-échantillonX1;:::;Xn.LesXisont à valeurs dans un ensembleX.
Soitf= (f1;:::;fk)une application deXdansRktelle que l"application !Rk :7!E[f(X1)] soitinjective. On définit l"estimateur^ncomme la solution dans(quand elle existe) de l"équation () =1n n X i=1f(Xi):(1) Souvent, lorsqueX R, la fonction on prendfi(x) =xietcorrespond donc auième moment de la variablesX1sousP. Ce choix justifie le nom donné à la méthode. Voici quelques exemples d"estimateurs bâtis sur par cette méthode.1Estimation paramétrique
2.1 Loi exponentielle
Icik= 1,Q=E()pour2R+. Comme pour tout,E[X1] = 1=
on prend() = 1=etf=Id:R+!R+. L"estimateur obtenu par la méthode des moments est n=1X noùX n=1n n X i=1X i: Par continuité de l"applicationx!1=x,^nest un estimateur consistant de.Remarquons queX
n>0p.s. ce qui justifie l"égalité ci-dessus.2.2 Loi uniforme
Icik= 1,Qest la loi uniforme sur[0;]avec >0. On a que pour tout,E[X1] ==2, on peut donc prendre par exemple() ==2et f=Id:R!R. L"estimateur obtenu par la méthode des moments est alors^n= 2X n. Cet estimateur est sans bias et consistant.2.3 Loi gaussienne
Icik= 2, on prend= (m;)2RR+,Q=N(m;). Pour tout
= (m;),E[X1] =metE[X21] =m2+. On peut donc prendre, par exemple,f1(x) =xetf2(x) =x2ce qui donne(m;) = (m;m2+). L"estimateur obtenus par la méthode des moments vérifie ^mn=X net ^m2n+ ^n=1n n X i=1X 2i: c"est a dire n= X n;1n n X i=1 XiX n 2! L"estimateur est consistant mais l"estimateur de la variance est biaisé.2.4 Propriétés asymptotiques
Notons() =E(1n
P n i=1f(Xi)). Supposons queX1;:::;Xnsont i.i.d.de loiP0. Les résultats de consistance précédents étaient obtenus grâce au faitque d"une part,
1n n X i=1f(Xi)p:s:!(0); et donc, comme1existe et est continue au voisinage de(0), on en déduit que ^nexiste et vérifie np:s:!1(0) =0:Mais que peut-on dire de la distance de
^nà0? Sous l"hypothèse que E0[kfk2]<+1on a grâce au théorème central limite que
pn 1n n X i=1f(Xi)(0)!Loi! Nk(0;(0));
où(0)la matrice covariance def(X1)sousP0. Elle est définie pouri;j2 f1;:::;kg i;j(0) =Cov0[fi(X1)fj(X1)]:La Delta méthode (cf Proposition
16 ) va nous permettre de déduire un résultat similaire pour^n: THÉORÈME6. - Supposons quesoit de classeC1dedansRket que02, et queD0 :Rk!Rksoit inversible. Supposons de plus que
E0[kf(X1)k2]<+1et notons(0)la matrice covariance def(X1)sous
P0. Alors sousP0:
^nexiste avec une probabilité tendant vers 1 on a la con vergenceen loi pn ^n0Loi! N
0;(D0)1(0)
(D0)10 Démonstration. -CommeD0est inversible,Dreste inversible dans un voisinage de0et donc, d"après le théorème de l"inversion locale,réalise un difféomorphisme d"un voisinageUde0dansVun voisinage de(0). Par la2Estimation paramétrique
loi des grands nombres, ^Yn=n1Pn i=1f(Xi)converge en probabilité (car p.s.) vers(0)et donc^Ynappartient àVavec une probabilité tendant vers 1 quandntend vers+1. Sur cet événement, l"équation (1) admet une uniquesolution^ndans(par injectivité de) et cette solution vérifie^n2Uet^n= 1(^Yn)où1est définie deVdansU. On a par ailleurs,
pn ^n0 =pn ^n1^Yn=2V+pn ^n1^Yn2V0 pn ^n1^Yn=2V+pn[~1^Yn ~1((0))](2) où ~1(y) = 1(y)1y2V. Orpn ^n1^Yn=2Vconverge vers 0 en probabilité car pour tout" >0, P 0[apn ^n1^Yn=2V> "]P0[^Yn62V]!n!+10: D"après le lemme de Slutsky, il suffit donc de montrer que le second terme du membre de droite de ( 2 ) converge en loi vers la limite annoncée. Or par théoreme centrale limite vectoriel pn ^Yn(0)Loi! N(0;(0));
et on conclut en utilisant la Proposition 16 .3 Estimation par maximum de vraisem- blance SoitfE;E;fP; 2ggun modèle statistique, oùRk(nous sommes dans un cadre paramétrique). On suppose qu"il existe une mesure-finiequi domine le modèle, c"est à dire que82,Padmet une densitép(;:)par rapport à. DÉFINITION7. - SoitXune observation. On appelle vraisemblance deX l"application !R+7!p(;X):On appelle estimateur du maximum de vraisemblance de, tout élément^
demaximisant la vraisemblance , c"est à dire vérifiant = argmax2p(;X): Remarque. -L"estimateur de maximum de vraisemblance n"existe pas tou- jours et n"est pas toujours unique. Considérons le cas typique oùX= (X1;:::;Xn)0, lesXiformant unn- R k. On suppose en outre que pour tout2,Qest absolument continue par rapport à une mesuresurX. Dans ce cas, en notant q(;x) =dQd (x); et en prenant= non a que la vraisemblance s"écrit p(;X) =nY i=1q(;Xi)quotesdbs_dbs35.pdfusesText_40[PDF] fonction de répartition loi uniforme discrète
[PDF] variable statistique discrète
[PDF] la leçon (pièce de théâtre)
[PDF] ionesco la cantatrice chauve
[PDF] ionesco mouvement littéraire
[PDF] ionesco rhinocéros résumé
[PDF] fonction de service technologie 5ème
[PDF] fonction de service d'une maison
[PDF] fonction de contrainte
[PDF] différence entre fonction de service et fonction technique
[PDF] difference entre fonction de service et fonction d'usage
[PDF] fonction de service exemple
[PDF] fonction de service définition
[PDF] exercice multiplication 6ème ? imprimer