17 oct 2016 · Exercice 3 (Espérance conditionnelle et positivité) Soit X une variable aléatoire positive sur (Ω, ¿, P) et S une sous-tribu de ¿ Montrer que {E [XS ]
Previous PDF | Next PDF |
[PDF] Espérance conditionnelle & Chaînes de Markov - Laboratoire de
Voir par exemple les exercices ”Un dé et une pièce” et ”Somme Corrigé Arnaud Guyader - Rennes 2 Espérance conditionnelle Chaînes de Markov
[PDF] TD 5 : Espérance conditionnelle Corrigé
17 oct 2016 · Exercice 3 (Espérance conditionnelle et positivité) Soit X une variable aléatoire positive sur (Ω, ¿, P) et S une sous-tribu de ¿ Montrer que {E [XS ]
[PDF] TD 5 : Espérance conditionnelle Corrigé
Exercice 1 (Quelques contre-exemples) Soient X et Y deux variables aléatoires réelles intégrables sur (Ω, F, P), et G et H deux sous-tribus de F telles que σ(G, H)
[PDF] ENS Lyon Mathématiques M1 Probabilités Feuille dexercices
Exercice 3 Espérance conditionnelle et indépendance Soient X et Y deux variables aléatoires telles que X, Y et XY soient dans L1(Ω, F, P) Montrer que (1) ⇒ (2)
[PDF] Éléments de corrigé du DM no 2
Éléments de corrigé du DM no 2 Exercice 1 Soit un À l'aide de la définition de l'espérance conditionnelle (et en veillant à une bonne rédaction), démontrer
[PDF] TD Master 2 – Martingales et calcul stochastique
Corrigé des exercices du chapitre 3 – Espérance conditionnelle Exercice 3 1 Dans une expérience consistant `a jeter deux tétra`edres parfaitement
[PDF] TD Espérance Conditionnelle - Corrigé - Institut de Mathématiques
Exercice Dans cet exercice, les v a X et Y sont discrètes Par conséquent, on pouvait appliquer directement la formule vue en cours pour le
[PDF] TD7 Indépendance Espérance conditionnelle Vecteurs Gaussiens
Exercice 1: Convergence en loi et convergence des fonctions de répartition Soit (Xn)n≥0 et X des v a r définies sur (Ω, Л,P) Soit Fn la fonction de répartition de
[PDF] Espérance conditionnelle et indépendance Exercices
25 fév 2004 · (V 3) Va G R, VarP [aX + b] = a2VarP [X] Exercice 3 3 Montrez que pour toutes variables aléatoires X et Y et pour tous nombres réels a et b (C1)
[PDF] Veeurs de variables aléatoires Corrigé des queion - Igor Kortchemski
Corrigé des queions non abordées en PC Corrigé des exercices non traités sur En déduire la valeur de l'espérance conditionnelle de X sachant Sn
[PDF] exercices corrigés et illustrations en matlab et octave pdf
[PDF] exercices corrigés fiabilité des systèmes
[PDF] exercices corrigés fifo lifo cmup pdf
[PDF] exercices corrigés files d'attente
[PDF] exercices corrigés fiscalité
[PDF] exercices corrigés fiscalité sénégalaise
[PDF] exercices corrigés fonctions numériques terminale s pdf
[PDF] exercices corrigés forces de frottement
[PDF] exercices corrigés fractions
[PDF] exercices corrigés génétique humaine
[PDF] exercices corrigés génie chimique pdf
[PDF] exercices corrigés géométrie dans l'espace terminale s pdf
[PDF] exercices corrigés géométrie des molécules
[PDF] exercices corrigés gestion de maintenance
Processus aléatoiresThomas Budzinski
ENS Paris, 2016-2017 Bureau V2
thomas.budzinski@ens.frTD 5 : Espérance conditionnelle
Corrigé
Lundi 17 Octobre
Exercice 1(Petits contre-exemples) SoientXetYdeux variables aléatoires réelles sur( ;F;P), et GetHdeux sous-tribus deFtelles que(G;H) =F. Trouver des contre-exemples aux affirmations suivantes : 1.Si E[XjY] =E[X], alorsXetYsont indépendantes.
2.Si E[XjG] = 0etE[XjH] = 0, alorsX= 0.
3. Si XetYsont indépendantes, alorsE[XjG]etE[YjG]le sont aussi. Solution de l"exercice 11.Xuniforme surf2;1;1;2getY=jXj. 2. Soien tXetYdeux variables i.i.d. avecP(X= 1) =P(X=1) =12 etF=(X;Y). Soit Z=XY. Il est facile de vérifier queE[ZjX] =E[ZjY] = 0, maisZ6= 0. 3. Prendre XetYvariables de Bernoulli indépendantes de paramètre12 etG=(X+Y). Exercice 2SoientXetYdeux variables aléatoires sur( ;F;P)à valeurs respectivement dansEet F. SoitGune sous-tribu deF. On suppose queXest indépendante deGet queYestG-mesurable. Montrer que pour toute fonction mesurableg:EF!R+, on aE[g(X;Y)jG] =Z
E g(x;Y)PX(dx)oùPXdésigne la loi deX. Le terme de droite est la composée de la variable aléatoireYpar l"application
:y!Rg(x;y)PX(dx)(oùest mesurable grâce au théorème de Fubini). Solution de l"exercice 2La variable aléatoire(Y)est(Y)-mesurable, doncG-mesurable. Pour montrerl"égalité p.s.E[g(X;Y)jG] =(Y), il suffit donc de vérifier que pour toute variable aléatoireZpositive
G-mesurable,
E[g(X;Y)Z] =E[(Y)Z]:
NotonsP(X;Y;Z)la loi du triplet(X;Y;Z), qui est une mesure de probabilité surEFR+. CommeX est indépendante de(Y;Z), on a P (X;Y;Z)=PXP(Y;Z)
1 et donc, en utilisant le théorème de Fubini,E[g(X;Y)Z] =Z
EFR+g(x;y)zP(X;Y;Z)(dxdydz)
ZEFR+g(x;y)zPX(dx)P(Y;Z)(dydz)
Z FR+z Z E g(x;y)PX(dx)) P (Y;Z)(dydz) ZFR+z(y)P(Y;Z)(dydz)
=E[(Y)Z]; ce qui est le résultat voulu.Exercice 3(Espérance conditionnelle et positivité) SoitXune variable aléatoire positive sur(
;F;P) etGune sous-tribu deF. Montrer quefE[XjG]>0]gest le plus petit ensembleG-mesurable (aux ensembles négligeables près) qui contientfX >0g.Solution de l"exercice 3La variable aléatoireE[XjG]est par définitionG-mesurable, et]0;+1[est un
borélien, doncfE[XjG]>0gest un ensembleG-mesurable. De plus, par définition de l"espérance condi-
tionnelle :EX?E[XjG]=0=EE[XjG]?E[XjG]=0= 0:
OrX?E[XjG]=00p.s., doncX?E[XjG]=0= 0p.s.. Cela signifie que fX >0g fE[XjG]>0g à un ensemble négligeable près. SoitAun ensembleG-mesurable contenantfX >0g. Alors on aX= 0 p.s. surAc. Toujours par définition de l"espérance conditionnelle on a doncE[E[XjG]?Ac] =E[X?Ac] = 0:
De mêmeE[XjG]0donc surAcon aE[XjG] = 0p.s., soitfE[XjG]>0g Aà un ensemble négligeable près. Exercice 4(Espérance conditionnelle et convergence en proba) Soit(Xn)n0une suite de variables aléatoires positives sur( ;F;P)et(Fn)n0une suite de sous-tribus deF. On suppose queE[XnjFn] converge en probabilité vers0. 1.Mon trerque Xnconverge en probabilité vers0.
2.Mon trerque la récipro queest fausse.
Solution de l"exercice 41.Raisonnons par l"absurde et supp osonsque P(Xn> ")> "pour un certain"et pour une infinité
den0. On ne raisonne que sur cesndésormais. On poseAn=nE[XnjFn]>"210
o . Alors par hypothèseP(An)!0quandn!+1. On en déduit queP(fXn> "gnAn)"2à partir d"un
certain rang. Alors d"après les propriétés de l"espérance conditionnelle on a EXn?Acn=EE[XnjFn]?Acn"210
et d"un autre côtéEXn1AcnEXn?fXn>"gnAi"22
C"est une contradiction.
2.Il su ffitde p rendreFn=f?;
get(Xn)une suite qui converge en probabilité vers0mais pas dans L1. Par exemple, on peut prendreP(Xn= 0) = 11n
etP(Xn=n2) =1n 2Exercice 5SoitXune variable intégrable sur(
;F;P)etGune sous-tribu deF. SoitYune v.a. G-mesurable, on veut montrer queE[XjG] =Y. Montrer que siest un ensemble de parties de qui contient , stable par intersections finies et dont la tribu engendrée estG, il suffit de montrer82;E[X?] =E[Y?]:
Solution de l"exercice 5C"est une application du lemme de classe monotone : en effet, il est facile de
vérifier que l"ensemble desA2Gtels queE[X?A] =E[Y?A]est une classe monotone, donc contient la classe monotone engendrée par, qui estGd"après le lemme de classe monotone.Exercice 6(Indépendance conditionnelle) On dit que deux variables aléatoiresXetYà valeurs dans
un espace(E;E)sont indépendantes conditionnellement àGsi pour toutes fonctionsfetgdeRdans R +mesurables,E[f(X)g(Y)jG] =E[f(X)jG]E[g(Y)jG]:
1.Que signifie ceci si G=f;;
g? SiG=F? 2.Mon trerque la définition précéden teéquiv autà : p ourtoute v ariablealéatoire ZpositiveG-
mesurable, pour toutes fonctionsfetgdeRdansR+mesurables,E[f(X)g(Y)Z] =E[f(X)ZE[g(Y)jG]]:
et aussi à : pour toute fonctiongdeRdansRmesurable positive,E[g(Y)j(G;X)] =E[g(Y)jG]:
Solution de l"exercice 61.Si G=f;;
g, l"egalité s"écritE[f(X)g(Y)] =E[f(X)]E[g(Y)]
pour toutes fonctionsfetgdeRdansRmesurables positives c"est à dire queXetYsont indépendantes. SiG=F, l"égalité est triviale et on ne peut rien dire sur les variablesXetY. 2. On supp oseque p ourtoutes fonctions fetgdeRdansR+mesurables,E[f(X)g(Y)jG] =E[f(X)jG]E[g(Y)jG]:
SoitZune variable aléatoireG-mesurable positive. AlorsE[f(X)g(Y)Z] =E[E[f(X)g(Y)jG]Z]
=E[E[f(X)jG]E[g(Y)jG]Z] =E[f(X)E[g(Y)jG]Z]; carE[g(Y)jG]ZestG-mesurable. Réciproquement, on suppose que pour toutes fonctionsfetgde RdansRmesurables positives, et pour toute variable aléatoireG-mesurable positiveZ,E[f(X)g(Y)Z] =E[f(X)E[g(Y)jG]Z]:
Alors commeZE[g(Y)jG]estG-mesurable positive, on a E[f(X)g(Y)Z] =E[f(X)E[g(Y)jG]Z] =E[E[f(X)jG]E[g(Y)jG]Z];et par la propriété caractéristique de l"espérance conditionnelle, commeE[f(X)jG]E[g(Y)jG]est
G-mesurable, on obtient
E[f(X)jG]E[g(Y)jG] =E[f(X)g(Y)jG]:
3 Pour la seconde équivalence, supposonsXetYindépendantes conditionnellement àG. On veut montrer que pour toutA2(G;X), on aE[g(Y)?A] =E[E[g(Y)jG]?A]:
D"après l"exercice précédent, il suffit de le montrer pour desAde la formeX1(B)\G. avecG2G etB2E, ce qui est un cas particulier de l"équivalence précédente avecf(X) =?X2BetZ=?G. Pour la réciproque, siE[g(Y)jG_(X)] =E[g(Y)jG]pour toute fonctiongmesurable positive, alors pour toutesgmesurable positive etUvariable((X)_G)-mesurable :E[g(Y)U] =E[E[g(Y)jG]U];
et il suffit d"appliquer ce résultat aux variablesUde la formeZf(X)avecfmesurable positive etZune variableG-mesurable.
Exercice 7On se donne deux réelsa;b >0, et(X;Y)une variable aléatoire à valeurs dansNR+dont la loi est caractérisée parP(X=n;Yt) =bZ
t0(ay)nn!exp((a+b)y)dy:
DéterminerE[h(Y)jX]pour toutn2Net toute fonctionh:R+!Rmesurable telle queh(Y)soit intégrable, puisE[YX+1]. Calculer ensuiteP(X=njY)et enfinE[XjY]. Solution de l"exercice 7Pour toutn0, on a par le théorème de convergence dominéeP(X=n) = limt!1P(X=n;Yt) =bZ
10(ay)nn!exp((a+b)y)dy=ba+b
aa+b n >0:Donc, puisqueP(X=n)>0,
E[h(Y)jX=n] =E[h(Y)?X=n]P(X=n):
On remarque que :
E[h(Y)?X=n] =bZ
1 0 h(y)(ay)nn!exp((a+b)y)dy:Pour justifier cette égalité assez intuitive, on peut la vérifier sur une fonction indicatrice d"un intervalle,
puis l"étendre aux fonctions en escalier par linéarité de l"intégrale, puis aux fonctions mesurables positives
par convergence monotone et enfin à une fonction mesurable quelconque en la décomposant selon ses
parties positives et négatives. On obtient :