[PDF] [PDF] TD 5 : Espérance conditionnelle Corrigé

17 oct 2016 · Exercice 3 (Espérance conditionnelle et positivité) Soit X une variable aléatoire positive sur (Ω, ¿, P) et S une sous-tribu de ¿ Montrer que {E [XS ] 



Previous PDF Next PDF





[PDF] Espérance conditionnelle & Chaînes de Markov - Laboratoire de

Voir par exemple les exercices ”Un dé et une pièce” et ”Somme Corrigé Arnaud Guyader - Rennes 2 Espérance conditionnelle Chaînes de Markov 



[PDF] TD 5 : Espérance conditionnelle Corrigé

17 oct 2016 · Exercice 3 (Espérance conditionnelle et positivité) Soit X une variable aléatoire positive sur (Ω, ¿, P) et S une sous-tribu de ¿ Montrer que {E [XS ] 



[PDF] TD 5 : Espérance conditionnelle Corrigé

Exercice 1 (Quelques contre-exemples) Soient X et Y deux variables aléatoires réelles intégrables sur (Ω, F, P), et G et H deux sous-tribus de F telles que σ(G, H)  



[PDF] ENS Lyon Mathématiques M1 Probabilités Feuille dexercices

Exercice 3 Espérance conditionnelle et indépendance Soient X et Y deux variables aléatoires telles que X, Y et XY soient dans L1(Ω, F, P) Montrer que (1) ⇒ (2) 



[PDF] Éléments de corrigé du DM no 2

Éléments de corrigé du DM no 2 Exercice 1 Soit un À l'aide de la définition de l'espérance conditionnelle (et en veillant à une bonne rédaction), démontrer



[PDF] TD Master 2 – Martingales et calcul stochastique

Corrigé des exercices du chapitre 3 – Espérance conditionnelle Exercice 3 1 Dans une expérience consistant `a jeter deux tétra`edres parfaitement 



[PDF] TD Espérance Conditionnelle - Corrigé - Institut de Mathématiques

Exercice Dans cet exercice, les v a X et Y sont discrètes Par conséquent, on pouvait appliquer directement la formule vue en cours pour le 



[PDF] TD7 Indépendance Espérance conditionnelle Vecteurs Gaussiens

Exercice 1: Convergence en loi et convergence des fonctions de répartition Soit (Xn)n≥0 et X des v a r définies sur (Ω, Л,P) Soit Fn la fonction de répartition de 



[PDF] Espérance conditionnelle et indépendance Exercices

25 fév 2004 · (V 3) Va G R, VarP [aX + b] = a2VarP [X] Exercice 3 3 Montrez que pour toutes variables aléatoires X et Y et pour tous nombres réels a et b (C1)



[PDF] Veeurs de variables aléatoires Corrigé des queion - Igor Kortchemski

Corrigé des queions non abordées en PC Corrigé des exercices non traités sur En déduire la valeur de l'espérance conditionnelle de X sachant Sn

[PDF] exercices corrigés essais mécaniques

[PDF] exercices corrigés et illustrations en matlab et octave pdf

[PDF] exercices corrigés fiabilité des systèmes

[PDF] exercices corrigés fifo lifo cmup pdf

[PDF] exercices corrigés files d'attente

[PDF] exercices corrigés fiscalité

[PDF] exercices corrigés fiscalité sénégalaise

[PDF] exercices corrigés fonctions numériques terminale s pdf

[PDF] exercices corrigés forces de frottement

[PDF] exercices corrigés fractions

[PDF] exercices corrigés génétique humaine

[PDF] exercices corrigés génie chimique pdf

[PDF] exercices corrigés géométrie dans l'espace terminale s pdf

[PDF] exercices corrigés géométrie des molécules

[PDF] exercices corrigés gestion de maintenance

Processus aléatoiresThomas Budzinski

ENS Paris, 2016-2017 Bureau V2

thomas.budzinski@ens.fr

TD 5 : Espérance conditionnelle

Corrigé

Lundi 17 Octobre

Exercice 1(Petits contre-exemples) SoientXetYdeux variables aléatoires réelles sur( ;F;P), et GetHdeux sous-tribus deFtelles que(G;H) =F. Trouver des contre-exemples aux affirmations suivantes : 1.

Si E[XjY] =E[X], alorsXetYsont indépendantes.

2.

Si E[XjG] = 0etE[XjH] = 0, alorsX= 0.

3. Si XetYsont indépendantes, alorsE[XjG]etE[YjG]le sont aussi. Solution de l"exercice 11.Xuniforme surf2;1;1;2getY=jXj. 2. Soien tXetYdeux variables i.i.d. avecP(X= 1) =P(X=1) =12 etF=(X;Y). Soit Z=XY. Il est facile de vérifier queE[ZjX] =E[ZjY] = 0, maisZ6= 0. 3. Prendre XetYvariables de Bernoulli indépendantes de paramètre12 etG=(X+Y). Exercice 2SoientXetYdeux variables aléatoires sur( ;F;P)à valeurs respectivement dansEet F. SoitGune sous-tribu deF. On suppose queXest indépendante deGet queYestG-mesurable. Montrer que pour toute fonction mesurableg:EF!R+, on a

E[g(X;Y)jG] =Z

E g(x;Y)PX(dx)

oùPXdésigne la loi deX. Le terme de droite est la composée de la variable aléatoireYpar l"application

:y!Rg(x;y)PX(dx)(oùest mesurable grâce au théorème de Fubini). Solution de l"exercice 2La variable aléatoire(Y)est(Y)-mesurable, doncG-mesurable. Pour montrer

l"égalité p.s.E[g(X;Y)jG] =(Y), il suffit donc de vérifier que pour toute variable aléatoireZpositive

G-mesurable,

E[g(X;Y)Z] =E[(Y)Z]:

NotonsP(X;Y;Z)la loi du triplet(X;Y;Z), qui est une mesure de probabilité surEFR+. CommeX est indépendante de(Y;Z), on a P (X;Y;Z)=PX

P(Y;Z)

1 et donc, en utilisant le théorème de Fubini,

E[g(X;Y)Z] =Z

EFR+g(x;y)zP(X;Y;Z)(dxdydz)

Z

EFR+g(x;y)zPX(dx)P(Y;Z)(dydz)

Z FR+z Z E g(x;y)PX(dx)) P (Y;Z)(dydz) Z

FR+z(y)P(Y;Z)(dydz)

=E[(Y)Z]; ce qui est le résultat voulu.

Exercice 3(Espérance conditionnelle et positivité) SoitXune variable aléatoire positive sur(

;F;P) etGune sous-tribu deF. Montrer quefE[XjG]>0]gest le plus petit ensembleG-mesurable (aux ensembles négligeables près) qui contientfX >0g.

Solution de l"exercice 3La variable aléatoireE[XjG]est par définitionG-mesurable, et]0;+1[est un

borélien, doncfE[XjG]>0gest un ensembleG-mesurable. De plus, par définition de l"espérance condi-

tionnelle :

EX?E[XjG]=0=EE[XjG]?E[XjG]=0= 0:

OrX?E[XjG]=00p.s., doncX?E[XjG]=0= 0p.s.. Cela signifie que fX >0g fE[XjG]>0g à un ensemble négligeable près. SoitAun ensembleG-mesurable contenantfX >0g. Alors on aX= 0 p.s. surAc. Toujours par définition de l"espérance conditionnelle on a donc

E[E[XjG]?Ac] =E[X?Ac] = 0:

De mêmeE[XjG]0donc surAcon aE[XjG] = 0p.s., soitfE[XjG]>0g Aà un ensemble négligeable près. Exercice 4(Espérance conditionnelle et convergence en proba) Soit(Xn)n0une suite de variables aléatoires positives sur( ;F;P)et(Fn)n0une suite de sous-tribus deF. On suppose queE[XnjFn] converge en probabilité vers0. 1.

Mon trerque Xnconverge en probabilité vers0.

2.

Mon trerque la récipro queest fausse.

Solution de l"exercice 41.Raisonnons par l"absurde et supp osonsque P(Xn> ")> "pour un certain"et pour une infinité

den0. On ne raisonne que sur cesndésormais. On poseAn=n

E[XnjFn]>"210

o . Alors par hypothèseP(An)!0quandn!+1. On en déduit queP(fXn> "gnAn)"2

à partir d"un

certain rang. Alors d"après les propriétés de l"espérance conditionnelle on a E

Xn?Acn=EE[XnjFn]?Acn"210

et d"un autre côté

EXn1AcnEXn?fXn>"gnAi"22

C"est une contradiction.

2.

Il su ffitde p rendreFn=f?;

get(Xn)une suite qui converge en probabilité vers0mais pas dans L

1. Par exemple, on peut prendreP(Xn= 0) = 11n

etP(Xn=n2) =1n 2

Exercice 5SoitXune variable intégrable sur(

;F;P)etGune sous-tribu deF. SoitYune v.a. G-mesurable, on veut montrer queE[XjG] =Y. Montrer que siest un ensemble de parties de qui contient , stable par intersections finies et dont la tribu engendrée estG, il suffit de montrer

82;E[X?] =E[Y?]:

Solution de l"exercice 5C"est une application du lemme de classe monotone : en effet, il est facile de

vérifier que l"ensemble desA2Gtels queE[X?A] =E[Y?A]est une classe monotone, donc contient la classe monotone engendrée par, qui estGd"après le lemme de classe monotone.

Exercice 6(Indépendance conditionnelle) On dit que deux variables aléatoiresXetYà valeurs dans

un espace(E;E)sont indépendantes conditionnellement àGsi pour toutes fonctionsfetgdeRdans R +mesurables,

E[f(X)g(Y)jG] =E[f(X)jG]E[g(Y)jG]:

1.

Que signifie ceci si G=f;;

g? SiG=F? 2.

Mon trerque la définition précéden teéquiv autà : p ourtoute v ariablealéatoire ZpositiveG-

mesurable, pour toutes fonctionsfetgdeRdansR+mesurables,

E[f(X)g(Y)Z] =E[f(X)ZE[g(Y)jG]]:

et aussi à : pour toute fonctiongdeRdansRmesurable positive,

E[g(Y)j(G;X)] =E[g(Y)jG]:

Solution de l"exercice 61.Si G=f;;

g, l"egalité s"écrit

E[f(X)g(Y)] =E[f(X)]E[g(Y)]

pour toutes fonctionsfetgdeRdansRmesurables positives c"est à dire queXetYsont indépendantes. SiG=F, l"égalité est triviale et on ne peut rien dire sur les variablesXetY. 2. On supp oseque p ourtoutes fonctions fetgdeRdansR+mesurables,

E[f(X)g(Y)jG] =E[f(X)jG]E[g(Y)jG]:

SoitZune variable aléatoireG-mesurable positive. Alors

E[f(X)g(Y)Z] =E[E[f(X)g(Y)jG]Z]

=E[E[f(X)jG]E[g(Y)jG]Z] =E[f(X)E[g(Y)jG]Z]; carE[g(Y)jG]ZestG-mesurable. Réciproquement, on suppose que pour toutes fonctionsfetgde RdansRmesurables positives, et pour toute variable aléatoireG-mesurable positiveZ,

E[f(X)g(Y)Z] =E[f(X)E[g(Y)jG]Z]:

Alors commeZE[g(Y)jG]estG-mesurable positive, on a E[f(X)g(Y)Z] =E[f(X)E[g(Y)jG]Z] =E[E[f(X)jG]E[g(Y)jG]Z];

et par la propriété caractéristique de l"espérance conditionnelle, commeE[f(X)jG]E[g(Y)jG]est

G-mesurable, on obtient

E[f(X)jG]E[g(Y)jG] =E[f(X)g(Y)jG]:

3 Pour la seconde équivalence, supposonsXetYindépendantes conditionnellement àG. On veut montrer que pour toutA2(G;X), on a

E[g(Y)?A] =E[E[g(Y)jG]?A]:

D"après l"exercice précédent, il suffit de le montrer pour desAde la formeX1(B)\G. avecG2G etB2E, ce qui est un cas particulier de l"équivalence précédente avecf(X) =?X2BetZ=?G. Pour la réciproque, siE[g(Y)jG_(X)] =E[g(Y)jG]pour toute fonctiongmesurable positive, alors pour toutesgmesurable positive etUvariable((X)_G)-mesurable :

E[g(Y)U] =E[E[g(Y)jG]U];

et il suffit d"appliquer ce résultat aux variablesUde la formeZf(X)avecfmesurable positive et

Zune variableG-mesurable.

Exercice 7On se donne deux réelsa;b >0, et(X;Y)une variable aléatoire à valeurs dansNR+dont la loi est caractérisée par

P(X=n;Yt) =bZ

t

0(ay)nn!exp((a+b)y)dy:

DéterminerE[h(Y)jX]pour toutn2Net toute fonctionh:R+!Rmesurable telle queh(Y)soit intégrable, puisE[YX+1]. Calculer ensuiteP(X=njY)et enfinE[XjY]. Solution de l"exercice 7Pour toutn0, on a par le théorème de convergence dominée

P(X=n) = limt!1P(X=n;Yt) =bZ

1

0(ay)nn!exp((a+b)y)dy=ba+b

aa+b n >0:

Donc, puisqueP(X=n)>0,

E[h(Y)jX=n] =E[h(Y)?X=n]P(X=n):

On remarque que :

E[h(Y)?X=n] =bZ

1 0 h(y)(ay)nn!exp((a+b)y)dy:

Pour justifier cette égalité assez intuitive, on peut la vérifier sur une fonction indicatrice d"un intervalle,

puis l"étendre aux fonctions en escalier par linéarité de l"intégrale, puis aux fonctions mesurables positives

par convergence monotone et enfin à une fonction mesurable quelconque en la décomposant selon ses

parties positives et négatives. On obtient :

E[h(Y)jX=n] =E[h(Y)?X=n]P(X=n)= (a+b)n+1Z

1 0 h(y)ynn!exp((a+b)y)dy:=(n); et par définition

E[h(Y)jX] =(X):

En particulier,

E[YjX=n] = (a+b)n+1Z

1 0y n+1n!exp((a+b)y)dy=n+ 1a+b: 4

On a ensuite

E YX+ 1 =E

EYX+ 1

X =E1X+ 1E[YjX] =E" 1X n=01n+ 1E[YjX=n]?fX=ng# 1X n=01n+ 1E[YjX=n]P(X=n) 1a+b1 X n=0P(X=n) =1a+b: Puis, pour toute fonctionhmesurable telle queh(Y)soit intégrable, on a

E[h(Y)] =1X

n=0bZ 1 0 h(y)(ay)nn!exp((a+b)y)dy =bZ 1 0 h(y)exp(by)dy; donc la densité de la loi deYest la fonction q(y) =beby?fy>0g:

Ainsi, pour toute fonctionhbornée,

E[?X=nh(Y)] =bZ

1 0 h(y)(ay)nn!exp((a+b)y)dy Z 1 0 h(y)q(y)(ay)nn!exp(ay)dy =E h(Y)(aY)nn!exp(aY)

Cela implique que

P(X=njY) =(aY)nn!exp(aY):

On en déduit finalement

E[XjY] =1X

n=1nP(X=njY) 1X n=1(aY)n(n1)!exp(aY) =aY: 5quotesdbs_dbs5.pdfusesText_10