Leçon 11
Proposition 1 (Inégalité de Markov). Soit X une variable aléatoire positive ; pour tout t > 0. P(X ? t) ?. 1 t. E(X). La démonstration est immédiate (et
cours 6 le lundi 15 février 2010 Inégalité de Markov Elle est aussi
15 fév. 2010 Inégalité de Markov. Elle est aussi appelée de Tchebychev de Bienaymé-Tchebychev (prouvée vers 1869)
Chapitre 5 Espérance
Voici maintenant 3 preuves de l'inégalité de Markov libre au lecteur de choisir celle qu'il préfère. Preuve no 1. C'est la preuve « muette » donnée par la
Théorie de la mesure
Les conséquences de l'inégalité de Markov ont été formulées et démontrées en termes de valeurs de fonction de répartition complémentaire. 2. La fonction ?f est
Théorèmes Limites
Inégalités de Markov et Bienaymé–Tchebychev. Tout d'abord l'inégalité de Markov dont la démonstration est d'un simplicité enfantine. Proposition 1.
Inégalité de Markov Soit X une variable aléatoire réelle supposée
Corollaire: Inégalité de Bienaymé-Tchebychev (IBT) Preuve: Il suffit d'appliquer l'inégalité de Markov à la v.a.
CH XIV : Convergence et approximation
Démonstration. • Rappelons tout d'abord l'inégalité de Bienaymé-Tchebychev. Pour toute v.a.r. Y admettant une variance V
Table des matières Pré-requis Objectifs
II.4 Inégalités de Markov et de Bienaymé-Tchebychev . démonstration : 2ème inégalité de Markov appliqué à (X ? E(X)) ?. Remarque 1.
Inégalité de Markov Inégalité de Jensen
Rappelez l'inégalité de Bienaymé-Tchebychev et redémontrez-la à partir de l'inégalité de Markov. 2. UNE FORMULE ALTERNATIVE POUR L'ESPÉRANCE. Dans ce qui suit
Probabilités - Préparation à lagrégation interne
29 sept. 2016 3.7 Inégalités de Markov et de Bienaymé-Tchebychev . . . . . . . . . . . . 52 ... m impairs (ceci mérite une démonstration qui est omise).
[PDF] Inégalités de Markov et de Tchebychev
Proposition 1 (Inégalité de Markov) Soit X une variable aléatoire positive ; pour tout t > 0 P(X ? t) ? 1 t E(X) La démonstration est immédiate (et
[PDF] Inégalité de Markov Soit X une variable aléatoire réelle supposée
Théorème: Inégalité de Markov Soit X une variable aléatoire réelle supposée presque sûrement positive (P(X ? 0) = 1) Alors ?? > 0 P(X ? ?) ? E[X]
[PDF] Chapitre 5 Espérance
C'est l'inégalité de Markov que nous verrons ci-dessous (proposition 5 21) Voyons maintenant quelques exemples simples de calcul d'espérance de variables
[PDF] Inégalités de concentration SpéMaths 1 Un problème historique
Dans tout ce chapitre on considère des variables aléatoires réelles définies sur un univers ? fini muni d'une loi de probabilité P 2 1 Inégalité de Markov Si
[PDF] cours 6 le lundi 15 février 2010 Inégalité de Markov Elle est aussi
15 fév 2010 · Si ?X f dµ < +? alors µ({f = +?}) = 0 Preuve — Si l'intégrale de f est nulle on obtient par Markov pour tout a > 0 µ({f
Inégalités de Markov et de Bienayme-Tchebycheff
A - Démonstration de l'inégalité de Markov · 1 Cas d'une variable finie ou discrète L'espérance E(X) s'écrit (où * désigne le nombre de valeurs prises par X
[PDF] T spé Inégalités de Markov et de Bienaymé-Tchebychev
2 jui 2022 · La démonstration « moderne » dans la théorie axiomatique de Kolmogorov repose sur une L'inégalité de Markov permet de démontrer que ( )
Preuve : Inégalités de Markov
On peut alors appliquer à Xr X r l'inégalité de Markov puisqu'elle est positive et qu'elle admet une espérance : ?a?]0+?[
[PDF] Suites de variables aléatoires - CPGE Brizeux
Proposition 3 (1ère Inégalité de Markov) démonstration : On note Y la v a r définie pour tout ? ? ? on a Y (?) = { t si X(?) ? t 0 si X(?) < t
[PDF] V Douine – Terminale – Spé maths – Chapitre 12 – Inégalités de
Cette inégalité est l'inégalité de Markov Démonstration Notons i x pour 1 i n les n valeurs prises par la variable aléatoire X
Chapitre 5Espérance5.1 IntroductionL"espéranceEXd"une variable aléatoire réelleXest, lorsqu"elle existe, lamoyenne
des valeurs de cette variable, pondérées par leurs probabilités de réalisation. Cette définition informelle est trop naïve pour permettre un traitement unifié de toutes les lois1. Rappelons qu"il existe des lois qui ne sont ni discrètes ni à densité et que la
description la plus générale des lois de variables aléatoires réelles est donnée par leur
fonction de répartition. Il est donc naturel de chercher à définirEXà partir de la fonction
au cas des variables aléatoires positives et en partant du cas simple oùXest discrète avec XpΩq " tx1,...,xnupartiefiniedeR`. Dans ce cas, la définition informelle deEXse traduit par la formuleEX"nÿ
k"1x kPpX"xkq.(5.1) Les figures 5.1 et 5.2 nous montrent comment exprimer cette moyenne pondérée à l"aide de xkP(X=xk)P(X=xk)
txnxkx10 F(t) 1 Figure5.1 - Interprétation graphique desxkPpX"xkq, pourxkě01. Cette définition deEXnous fait pressentir queEXne doit dépendre que de la loi deX.
102Chapitre 5. Espérance
F. Rappelons que dans ce cas,Fprésente en chaquexkun saut d"amplitudePpX"xkq. EX t xnx10 F(t) 1 Figure5.2 - Interprétation graphique deEX"řn k"1xkPpX"xkq, lesxkě0. L"interprétation graphique en termes d"aire donnée par la figure 5.2 nous permet d"écrireEXcomme l"intégrale de Riemann ordinaire :EX"şxn0p1´Fptqqdtet aussi
comme la fausse intégrale généraliséeş`80p1´Fptqqdt. Si on passe maintenant au cas
d"une variable aléatoire positive quelconque, il paraît alors naturel de considérer queEX est l"aire (éventuellement infinie) délimitée par le segment verticalt"0,yP r0,1s, la demi droite " asymptote »y"1,tě0 et le graphe deF, ce qui nous conduit à la formuleEX:"ż
`8 0 p1´Fptqqdt"ż `8 0PpXątqdt,pour toute v.a. positiveX.
EX t0y 1 Figure5.3 - Interprétation graphique deEXviala f.d.r. deXv.a. positive.5.2 Espérance d"une variable aléatoire positive
Dans toute la suite de ce chapitre, on fixe un espace probabilisépΩ,F,Pq. Toutes lesvariables aléatoires réelles considérées seront, sauf mention explicite du contraire, définies
5.2. Espérance d"une variable aléatoire positive103
sur cet espace et leur loi sera la loi sousP. Définition 5.1(espérance d"une v.a. positive).SoitXune variable aléatoire positive sur pΩ,Fq. On appelleespérancedeX(ou espérance deXsousP) la quantitéEX:"ż
`8 0PpXątqdt"limbÑ`8ż
b 0PpXątqdt,(5.2)
qui est un élément de R`. Pour justifier l"existence deEX, on commence par noter que l"applicationG:R`Ñ r0,1s,tÞÑGptq:"PpXątqestdécroissantesurR`, doncRiemann intégrablesurr0,bs pour toutbPR°`. L"intégraleşb0Gptqdt"şb
0PpXątqdtexiste donc bien et est un réel
positif pour toutb. Comme c"est une fonction croissante de sa borne supérieureb, elle converge dansR`quandbtend vers`8.
Dans cette section, nous utiliserons l"interprétation graphique deEXviala fonction passe évidemment d"une représentation à l"autre en effectuant une symétrie orthogonale par rapport à la droitey"1{2, puisqueG"1´F. Cette symétrie conserve les aires. EX y=P(X> t) t0y 1 Figure5.4 - Interprétation graphique deEXviala fonction de survie deXv.a. positive. Remarque 5.2. EXne dépend que de la loi deX, il serait donc plus correct de parler de l"espérance de la loi deXsousPau lieu de l"espérance deX. L"usage donne néanmoins la préférence à cette dernière appellationquand il n"y a pas d"ambiguïté surP. Remarque 5.3(espérance d"une v.a. presque sûrement positive).Dans les exercices, la variable aléatoireXn"est pas toujours donnée explicitement, il arrive assez souvent que l"on ne connaisse que sa loiPX. SiPXpR`q "1, on s"autorisera une généralisation de la définition 5.1 en considérant que la formule (5.2) reste valable. Il s"agit bien d"une généralisation car on peut avoirPpXě0q "1 sans queXpωqsoit positif ou nul pour toutω, par exemple si Ω"R,F"B, tribu engendrée par les intervalles,Pest la loi uniforme surr0,1setX:ωÞÑωest l"identité surR. On a alorsXpωq ă0 pour uneinfinité non dénombrable deωetPpXě0q "1. Cette généralisation est cohérente avec
la remarque 5.2 car siXest une variable aléatoire réelle définie sur un espace probabilisé
pΩ,F,Pqet telle quePpXě0q "1, on peut toujours trouver un espace probabilisé pΩ1,F1,P1qet une variable aléatoire positiveX1définie sur cet espace tels queXetX1 aient même loi.104Chapitre 5. Espérance
Définition 5.4(intégrabilité d"une v.a. positive).On dit que la variable aléatoire positive
Xestintégrablesiż`8
0PpXątqdtă `8.(5.3)
Exemple 5.5.Si la variable aléatoire positiveXest bornée, c"est-à-dire s"il existe unepourtěc,PpXątq "0, ce qui réduit l"intégrale généralisée définissantEXà une
intégrale de Riemann ordinaireşc0PpXątqdtdonc finie (et majorée parc).
tět0ą0, alorsXest intégrable. Réciproquement, l"intégrabilité deXnous donne un renseignement sur la vitesse de convergence2vers 0 dePpXątqquandttend vers`8.
C"est l"inégalité de Markov que nous verrons ci-dessous (proposition 5.21). Voyons maintenant quelques exemples simples de calcul d"espérance de variables aléa- toires positives. Exemple 5.6(espérance d"une constante positive).Si la variable aléatoireXest une constante positivec, c"est-à-direXpωq "cpour toutωPΩ, alorsEX"c. En effet :PpXątq "#
1 sităc
0 sitěc"1s´8,crptq,
d"oùEX"ż
`8 0 1 s´8,crptqdt"ż c 0 1 r0,crptqdt"ż c 01dt"c.
EX=cy=P(X > t)
t 0cy 1Figure5.5 - Espérance de la v.a. constanteX"c
L"exemple suivant est d"une grande importance car il permet d"écrire toute probabilité d"évènement comme une espérance. Nous le formulons sous forme de proposition. Proposition 5.7(espérance d"une indicatrice d"évènement).Pour tout évènementAPF, E `1A"PpAq.(5.4)
2. Pour n"importe quelle variable aléatoireX,PpXątqtend vers 0 quandttend vers`8, car
PpXątq "1´Fptq, oùFest la f.d.r. deXqui tend toujours vers 1 en`8.5.2. Espérance d"une variable aléatoire positive105
E1A=P(A)y=P(1A> t)
t 01y P(A) Figure5.6 - Espérance de la v.a. indicatriceX"1A Preuve.La variable aléatoire positive1Aprend la valeur 1 sur l"évènementAet 0 surAc, elle suit donc la loi de Bernoulli de paramètrep"PpAq. L"évènementt1Aątuest doncPp1Aątq "#
0 sitě1.
Par conséquent,
E`1A"ż
1 0PpAqdt"PpAq.
Définition 5.8(variable aléatoire simple).On dit que la variable aléatoire réelleXdéfinie
surpΩ,FqestsimpleouétagéesiXpΩqest fini. En notantXpΩq " tx1,...,xnu, lesxi étant tous distincts,Xadmet la décompositionX"nÿ
k"1x k1Ak,oùAk:" tX"xku,kP v1,nw,(5.5) les évènementsAkformant une partition deΩ. Proposition 5.9(espérance d"une v.a. positive simple).SiXest une variable aléatoire positive simple avecXpΩq " tx1,...,xnu,EX"nÿ
k"1x kPpX"xkq.(5.6) On retrouve ainsi la formule (5.1) de l"introduction. Preuve.Notons en préliminaire qu"il nous faut résister ici à la tentation de dire " c"estimmédiat en utilisant la décomposition (5.5), la proposition 5.7 et la linéarité de l"es-
pérance », carnous n"avons pas encore prouvéque l"espérance est linéaire. En fait laproposition 5.9 est l"un des ingrédients de la preuve de la linéarité de l"espérance. Il nous
faut donc vérifier (5.6) par uncalcul directbasé sur la définition 5.1. Quitte à réindexer, on peut toujours supposer que lesxksont rangés par ordre crois- sant. Notonspi:"PpX"xiqetsk:"ř s"écrire (cf. la proposition 4.11) :Fptq "n´1ÿ
k"1s k1rxk,xk`1rptq `sn1rxn,`8rptq.(5.7)106Chapitre 5. Espérance
Notons que pourtěxn,Fptq "sn"1, doncPpXątq "1´Fptq "0. AinsiEX"ş`8
0PpXątqdt"şxn
0PpXątqdt. On peut alors calculerEXen utilisant
la décomposition (5.7) et les propriétés de l"intégrale de Riemann sur l"intervalle fermé
bornér0,xns:EX"ż
xn 0 p1´Fptqqdt"xn´ż xn 0Fptqdt"xn´n´1ÿ
k"1ż xk`1 x ks kdt, d"oùEX"xn´n´1ÿ
k"1pxk`1´xkqsk"xn´nÿ j"2x jsj´1`n´1ÿ j"1x jsj "xn´xnsn´1`n´1ÿ j"2x jpsj´sj´1q `x1s1 "xnpn`n´1ÿ j"2x jpj`x1p1"nÿ j"1p kxk.Ceci établit (5.6).
Exemple 5.10(espérance d"une loi uniforme discrète surR`).SiXsuit la loi uniforme sur l"ensemble finitx1,...,xnu ĂR`,EXest égale à la moyenne arithmétique desxi. En effet :XpΩq " tx1,...,xnuetPpX"xiq "1{npour touticompris entre 1 etn. D"où :EX"nÿ
i"1x iPpX"xiq "1 nn i"1x i. Le calcul de l"espérance des lois binomiale et hypergéométrique est moins immédiat et sera vu ultérieurement. Proposition 5.11(espérance d"une v.a. discrète positive).Pour toute variable aléatoire discrète positiveX,EX"ÿ
xPXpΩqxPpX"xq,(égalité dansR`).(5.8)
Preuve dans le cas courant.Le cas oùXpΩqest fini est déjà traité par la proposition 5.9.
SiXpΩqest infini dénombrable, nous supposerons en plus qu"il existe une numérotation croissante deXpΩqpar les entiers deN. C"est le cas le plus courant3. AlorsXpΩq " tx0,x1,...,xn,...uetpxnqnPNest une suite croissante dansR`. Elle converge donc vers1. Casc" `8. On a alors par définition de l"intégrale généralisée :
EX"ż
`8 0PpXątqdt"limbÑ`8ż
b 0PpXątqdt"limnÑ`8ż
xn 0PpXątqdt.
Sur l"intervaller0,xns, la fonction de survietÞÑPpXątqest en escaliers avec un nombre fini de marches. On en déduit facilement (revoir la construction de la figure 5.2) que :żxn 0PpXątqdt"nÿ
k"0x kPpX"xkq.3. Le cas où il n"existe pas de numérotation croisssante deXpΩqest hors de portée de ce cours.
5.2. Espérance d"une variable aléatoire positive107
Par conséquent,
lim nÑ`8n k"0x kPpX"xkq "limnÑ`8ż xn 0PpXątqdt,
d"où `8ÿ k"0x kPpX"xkq "ż `8 0PpXątqdt"EX(égalité dans
R`).2. Cască `8. Si on montre queş`8
0PpXątqdt"şc
0PpXątqdt, on pourra
conclure avec le même argument que dans le cas précédent. Or la suitepxnqnPN étant croissante, sa limitecest sa borne supérieure, ce qui entraîne qu"il n"existe aucunxnà la droite dec. CommeXest discrète, on en déduit que : x x kPXpΩqPpX"xkq "1. DoncPpXącq "0 et pour touttěc,PpXątq "0, d"oùş`80PpXątqdt"şc
0PpXątqdt.
Exemple 5.12(espérance d"une loi géométrique).SiXsuit la loi géométrique de para- mètrepą0,EX"1 p. On a iciXPpΩq "N°,PpX"kq "qk´1poùq"1´pPs0,1r. La série à termespositifs: `8ÿ k"1kPpX"kq "`8ÿ k"1kq k´1pest convergente dansR`, nous l"avons déjà étudiée et calculé sa somme comme application
de la dérivabilité d"une série entière, la série géométrique standard, cf. (??), p.??.
Exemple 5.13(espérance d"une loi de Poisson).SiXsuit la loi de Poisson de paramètre α,EX"α. En effet on a ici :XpΩq "N,Ppx"kq "e´ααk{k!. La série de terme généralpositifuk"kPpX"kqest convergente car le développement en série entière de e z"ř`8 k"0zk{k! a un rayon de convergence infini et la série entièreř`8 k"0kzk{k! a même rayon de convergence, cf. lemme??. DoncEXexiste dansR`. La somme de cette série se calcule ainsi :EX"`8ÿ
k"0kPpX"kq "`8ÿ k"1e´ααk
pk´1q!"αe´α`8ÿ l"0α ll!"α. Proposition 5.14(espérance d"une v.a. positive à densité).Si la variable aléatoire po- sitiveXa pour densitéf,EX"ż
`8 0 xfpxqdx.(5.9) Dans cette formule,EXpeut prendre la valeur`8si l"intégrale généralisée diverge. Preuve.SiXadmet pour densitéf,PpXątq "ş`8 tfpxqdxpour toutt. En reportant cette égalité dans la définition deEX, on obtient :EX"ż
`8 0PpXątqdt"ż
`8 0"ż`8
t fpxqdx* dt"ż `8 0"ż`8
0 fpxq1rt,`8rpxqdx* dt.108Chapitre 5. Espérance
Notons que pourtě0,1rt,`8rpxq "1r0,xsptq. L"intégrandepx,tq ÞÑ1r0,xsptqfpxqétantpo-sitive, le théorème de Fubini-Tonelli légitime l"interversion des intégrations, ce qui donne :
EX"ż
`8 0"ż`8
0 fpxq1r0,xsptqdt* dx"ż `8 0 fpxq"ż`8
0 1 r0,xsptqdt* dx.Comme pourxě0,ş`8
01r0,xsptqdt"şx
0dt"x, on en déduit (5.9).
Remarque 5.15.Notons que dans la démonstration ci-dessus, nous n"avons utilisé à aucun moment la positivité de la variable aléatoireX. On peut donc appliquer ce calcul à toute variable aléatoire réelleXayant une densitéfpour obtenir : `8 0PpXątqdt"ż
`8 0 xfpxqdx(égalité dansR`). (5.10)
Attention à ne pas écrireEXau premier membre dep5.10q, cette quantité n"étant pour l"instant définie que pourXpositive. La vraie formule pourEXlorsque la v.a. réelleX est à densité est donnée à la proposition 5.28. Exemple 5.16(espérance d"une loi exponentielle).SiXsuit la loi exponentielle de paramètreaą0,EX"1 a. En effet la densité estfptq "ae´at1R`ptq, d"oùEX"ż
`8 0 axe´axdx et on obtient le résultat après intégration par parties (faites le!). On peut d"ailleurs retrouver ce résultat en notant que la fonction de survieGpxq "e´axpourxą0, d"oùEX"ż
`8 0 e´axdx"ż `8 0 e´y1 ady"limbÑ`8"´e´ya?
b 0"1 a. Proposition 5.17.SiXest une variable aléatoire positive etcune constante réelle strictement positive, on aEpcXq "cEX.
Cette égalité reste vraie pourc"0siXest de plusintégrable. Preuve.PuisqueXest une variable aléatoire positive etcune constante positive,cX:ωÞÑ pcXqpωq:"cXpωqest une variable aléatoire positive. En lui appliquant la défini-
tion 5.1, on obtient :EpcXq "ż
`8 0PpcXątqdt"ż
`8 0 P´Xąt
c¯ dt.Dans cette intégrale généralisée d"une fonctionpositivelocalement intégrable surr0,`8r,
on peut effectuer le changement de variables"t{c, qui nous donne :EpcXq "ż
`8 0 P´Xąt
c¯ dt"cż `8 0PpXąsqds"cEX.
Dans le cas particulierc"0, cette méthode n"est plus valable (on ne peut déjà plus écrire "PpcXątq "PpXąt{cq») mais la formule est vraie trivialement, à condition queEXsoitfinie, puisqu"alorsEp0Xq "Ep0q "0 et 0EX"0.5.2. Espérance d"une variable aléatoire positive109
Proposition 5.18(croissance de l"espérance).SiXetYsont deux variables aléatoires Preuve.SiXpωq ąt, alors commeYpωq ěXpωq, on a aussiYpωq ąt. Ceci justifieCette dernière inégalité étant vérifiée pour toutt, on peut l"intégrer entre 0 et`8, pour
obtenir 4:EX"ż
`8 0 `8 0PpYątqdt"EY.
La proposition suivante nous donne un peu de confort pour l"expression des espérances de variables aléatoires positives et nous sera utile pour l"inégalité de Markov. Proposition 5.19.Pour toute variable aléatoire positiveX, `8 0PpXątqdt"ż
`8 0PpXětqdt(égalité dans
R`).(5.11)
Avant d"en donner la preuve, notons que (5.11) n"a rien d"évident carPpXątqet PpXětqpeuvent différer pour certaines valeurs det(au plus pour une infinité dénom- brable de valeurs det). Preuve.Notons respectivementIetJle premier et le deuxième membre de (5.11). On fonctionpositivelocalement Riemann intégrable surr0,`8r. On peut donc effectuer dans Jle changement de variable " translation »t"s`ε, qui nous donne :J"ż
`8´εPpXěs`εqds"ż
0´εPpXěs`εqds`ż
`8 0PpXěs`εqds.
En majorantPpXěs`εqpar 1 surr´ε,0set parPpXąsqsurr0,`8r, on en déduit que `8quotesdbs_dbs27.pdfusesText_33[PDF] inégalité de markov exercice corrigé
[PDF] ecart type probabilité loi normale
[PDF] variance probabilité formule
[PDF] esperance ecart type loi binomiale
[PDF] ecart type probabilité
[PDF] variance probabilité première s
[PDF] pensee positive permanente
[PDF] etre positif pdf
[PDF] le pouvoir de la pensée positive pdf gratuit
[PDF] pensée positive citation pdf
[PDF] pensée positive gratuite télécharger
[PDF] livre la puissance de la pensée positive pdf gratuit
[PDF] la pensée positive pour les nuls pdf gratuit
[PDF] soon the end