[PDF] [PDF] TD 5 : Espérance conditionnelle Corrigé

TD 5 : Espérance conditionnelle Corrigé Lundi 17 Octobre Exercice 1 (Petits contre-exemples) Soient X et Y deux variables aléatoires réelles sur (Ω, ¿, P), et



Previous PDF Next PDF





[PDF] Espérance conditionnelle & Chaînes de Markov - Laboratoire de

Corrigé Arnaud Guyader - Rennes 2 Espérance conditionnelle Chaînes de Exercices 31 Exercice 1 5 (Memento) 1 On dit que la variable aléatoire 



[PDF] TD 5 : Espérance conditionnelle Corrigé

TD 5 : Espérance conditionnelle Corrigé Lundi 17 Octobre Exercice 1 (Petits contre-exemples) Soient X et Y deux variables aléatoires réelles sur (Ω, ¿, P), et



[PDF] TD 5 : Espérance conditionnelle Corrigé

Exercice 7 (Espérance conditionnelle et positivité) Soit X une variable aléatoire positive sur (Ω, F, P) et G une sous-tribu de F Montrer que {E [XG] > 0]} est le plus 



[PDF] ENS Lyon Mathématiques M1 Probabilités Feuille dexercices

Exercice 3 Espérance conditionnelle et indépendance Soient X et Y deux variables aléatoires telles que X, Y et XY soient dans L1(Ω, F, P) Montrer que (1) ⇒ (2) 



[PDF] Éléments de corrigé du DM no 2

Éléments de corrigé du DM no 2 Exercice 1 Soit un À l'aide de la définition de l'espérance conditionnelle (et en veillant à une bonne rédaction), démontrer



[PDF] TD Master 2 – Martingales et calcul stochastique

Corrigé des exercices du chapitre 3 – Espérance conditionnelle Exercice 3 1 Dans une expérience consistant `a jeter deux tétra`edres parfaitement 



[PDF] TD Espérance Conditionnelle - Corrigé - Institut de Mathématiques

TD Espérance Conditionnelle - Corrigé Exercice Dans cet exercice, les v a formule vue en cours pour le calcul de l'espérance conditionnelle, par exemple



[PDF] ESPÉRANCE CONDITIONNELLE MARTINGALES - Institut de

B Cas général 7 3 Propriétés de l'espérance conditionnelle analogues à celles de l'espérance Le point suivant est laissé en exercice Enfin pour le dernier 



[PDF] TD7 Indépendance Espérance conditionnelle Vecteurs Gaussiens

Exercice 1: Convergence en loi et convergence des fonctions de répartition Soit (Xn)n≥0 et X des v a r définies sur (Ω, Л,P) Soit Fn la fonction de répartition de 



[PDF] Espérance conditionnelle et indépendance Exercices

25 fév 2004 · (V 3) Va G R, VarP [aX + b] = a2VarP [X] Exercice 3 3 Montrez que pour toutes variables aléatoires X et Y et pour tous nombres réels a et b (C1)

[PDF] esperance conditionnelle exercices corrigés pdf

[PDF] espérance conditionnelle par rapport à une tribu

[PDF] espérance conditionnelle par rapport à une variable

[PDF] espérance conditionnelle pdf

[PDF] espérance conditionnelle vecteur gaussien

[PDF] espérance d un mouvement brownien géométrique

[PDF] espérance d une matrice

[PDF] espérance d une somme de variables aléatoires

[PDF] espérance d utilité et utilité espérée

[PDF] espérance d'une fonction de densité

[PDF] espérance d'une somme de variables aléatoires

[PDF] espérance du maximum de deux variables aléatoires

[PDF] espérance et variance formule

[PDF] espérance excel

[PDF] espérance loi binomiale

Processus aléatoiresThomas Budzinski

ENS Paris, 2016-2017 Bureau V2

thomas.budzinski@ens.fr

TD 5 : Espérance conditionnelle

Corrigé

Lundi 17 Octobre

Exercice 1(Petits contre-exemples) SoientXetYdeux variables aléatoires réelles sur( ;F;P), et GetHdeux sous-tribus deFtelles que(G;H) =F. Trouver des contre-exemples aux affirmations suivantes : 1.

Si E[XjY] =E[X], alorsXetYsont indépendantes.

2.

Si E[XjG] = 0etE[XjH] = 0, alorsX= 0.

3. Si XetYsont indépendantes, alorsE[XjG]etE[YjG]le sont aussi. Solution de l"exercice 11.Xuniforme surf2;1;1;2getY=jXj. 2. Soien tXetYdeux variables i.i.d. avecP(X= 1) =P(X=1) =12 etF=(X;Y). Soit Z=XY. Il est facile de vérifier queE[ZjX] =E[ZjY] = 0, maisZ6= 0. 3. Prendre XetYvariables de Bernoulli indépendantes de paramètre12 etG=(X+Y). Exercice 2SoientXetYdeux variables aléatoires sur( ;F;P)à valeurs respectivement dansEet F. SoitGune sous-tribu deF. On suppose queXest indépendante deGet queYestG-mesurable. Montrer que pour toute fonction mesurableg:EF!R+, on a

E[g(X;Y)jG] =Z

E g(x;Y)PX(dx)

oùPXdésigne la loi deX. Le terme de droite est la composée de la variable aléatoireYpar l"application

:y!Rg(x;y)PX(dx)(oùest mesurable grâce au théorème de Fubini). Solution de l"exercice 2La variable aléatoire(Y)est(Y)-mesurable, doncG-mesurable. Pour montrer

l"égalité p.s.E[g(X;Y)jG] =(Y), il suffit donc de vérifier que pour toute variable aléatoireZpositive

G-mesurable,

E[g(X;Y)Z] =E[(Y)Z]:

NotonsP(X;Y;Z)la loi du triplet(X;Y;Z), qui est une mesure de probabilité surEFR+. CommeX est indépendante de(Y;Z), on a P (X;Y;Z)=PX

P(Y;Z)

1 et donc, en utilisant le théorème de Fubini,

E[g(X;Y)Z] =Z

EFR+g(x;y)zP(X;Y;Z)(dxdydz)

Z

EFR+g(x;y)zPX(dx)P(Y;Z)(dydz)

Z FR+z Z E g(x;y)PX(dx)) P (Y;Z)(dydz) Z

FR+z(y)P(Y;Z)(dydz)

=E[(Y)Z]; ce qui est le résultat voulu.

Exercice 3(Espérance conditionnelle et positivité) SoitXune variable aléatoire positive sur(

;F;P) etGune sous-tribu deF. Montrer quefE[XjG]>0]gest le plus petit ensembleG-mesurable (aux ensembles négligeables près) qui contientfX >0g.

Solution de l"exercice 3La variable aléatoireE[XjG]est par définitionG-mesurable, et]0;+1[est un

borélien, doncfE[XjG]>0gest un ensembleG-mesurable. De plus, par définition de l"espérance condi-

tionnelle :

EX?E[XjG]=0=EE[XjG]?E[XjG]=0= 0:

OrX?E[XjG]=00p.s., doncX?E[XjG]=0= 0p.s.. Cela signifie que fX >0g fE[XjG]>0g à un ensemble négligeable près. SoitAun ensembleG-mesurable contenantfX >0g. Alors on aX= 0 p.s. surAc. Toujours par définition de l"espérance conditionnelle on a donc

E[E[XjG]?Ac] =E[X?Ac] = 0:

De mêmeE[XjG]0donc surAcon aE[XjG] = 0p.s., soitfE[XjG]>0g Aà un ensemble négligeable près. Exercice 4(Espérance conditionnelle et convergence en proba) Soit(Xn)n0une suite de variables aléatoires positives sur( ;F;P)et(Fn)n0une suite de sous-tribus deF. On suppose queE[XnjFn] converge en probabilité vers0. 1.

Mon trerque Xnconverge en probabilité vers0.

2.

Mon trerque la récipro queest fausse.

Solution de l"exercice 41.Raisonnons par l"absurde et supp osonsque P(Xn> ")> "pour un certain"et pour une infinité

den0. On ne raisonne que sur cesndésormais. On poseAn=n

E[XnjFn]>"210

o . Alors par hypothèseP(An)!0quandn!+1. On en déduit queP(fXn> "gnAn)"2

à partir d"un

certain rang. Alors d"après les propriétés de l"espérance conditionnelle on a E

Xn?Acn=EE[XnjFn]?Acn"210

et d"un autre côté

EXn1AcnEXn?fXn>"gnAi"22

C"est une contradiction.

2.

Il su ffitde p rendreFn=f?;

get(Xn)une suite qui converge en probabilité vers0mais pas dans L

1. Par exemple, on peut prendreP(Xn= 0) = 11n

etP(Xn=n2) =1n 2

Exercice 5SoitXune variable intégrable sur(

;F;P)etGune sous-tribu deF. SoitYune v.a. G-mesurable, on veut montrer queE[XjG] =Y. Montrer que siest un ensemble de parties de qui contient , stable par intersections finies et dont la tribu engendrée estG, il suffit de montrer

82;E[X?] =E[Y?]:

Solution de l"exercice 5C"est une application du lemme de classe monotone : en effet, il est facile de

vérifier que l"ensemble desA2Gtels queE[X?A] =E[Y?A]est une classe monotone, donc contient la classe monotone engendrée par, qui estGd"après le lemme de classe monotone.

Exercice 6(Indépendance conditionnelle) On dit que deux variables aléatoiresXetYà valeurs dans

un espace(E;E)sont indépendantes conditionnellement àGsi pour toutes fonctionsfetgdeRdans R +mesurables,

E[f(X)g(Y)jG] =E[f(X)jG]E[g(Y)jG]:

1.

Que signifie ceci si G=f;;

g? SiG=F? 2.

Mon trerque la définition précéden teéquiv autà : p ourtoute v ariablealéatoire ZpositiveG-

mesurable, pour toutes fonctionsfetgdeRdansR+mesurables,

E[f(X)g(Y)Z] =E[f(X)ZE[g(Y)jG]]:

et aussi à : pour toute fonctiongdeRdansRmesurable positive,

E[g(Y)j(G;X)] =E[g(Y)jG]:

Solution de l"exercice 61.Si G=f;;

g, l"egalité s"écrit

E[f(X)g(Y)] =E[f(X)]E[g(Y)]

pour toutes fonctionsfetgdeRdansRmesurables positives c"est à dire queXetYsont indépendantes. SiG=F, l"égalité est triviale et on ne peut rien dire sur les variablesXetY. 2. On supp oseque p ourtoutes fonctions fetgdeRdansR+mesurables,

E[f(X)g(Y)jG] =E[f(X)jG]E[g(Y)jG]:

SoitZune variable aléatoireG-mesurable positive. Alors

E[f(X)g(Y)Z] =E[E[f(X)g(Y)jG]Z]

=E[E[f(X)jG]E[g(Y)jG]Z] =E[f(X)E[g(Y)jG]Z]; carE[g(Y)jG]ZestG-mesurable. Réciproquement, on suppose que pour toutes fonctionsfetgde RdansRmesurables positives, et pour toute variable aléatoireG-mesurable positiveZ,

E[f(X)g(Y)Z] =E[f(X)E[g(Y)jG]Z]:

Alors commeZE[g(Y)jG]estG-mesurable positive, on a E[f(X)g(Y)Z] =E[f(X)E[g(Y)jG]Z] =E[E[f(X)jG]E[g(Y)jG]Z];

et par la propriété caractéristique de l"espérance conditionnelle, commeE[f(X)jG]E[g(Y)jG]est

G-mesurable, on obtient

E[f(X)jG]E[g(Y)jG] =E[f(X)g(Y)jG]:

3 Pour la seconde équivalence, supposonsXetYindépendantes conditionnellement àG. On veut montrer que pour toutA2(G;X), on a

E[g(Y)?A] =E[E[g(Y)jG]?A]:

D"après l"exercice précédent, il suffit de le montrer pour desAde la formeX1(B)\G. avecG2G etB2E, ce qui est un cas particulier de l"équivalence précédente avecf(X) =?X2BetZ=?G. Pour la réciproque, siE[g(Y)jG_(X)] =E[g(Y)jG]pour toute fonctiongmesurable positive, alors pour toutesgmesurable positive etUvariable((X)_G)-mesurable :

E[g(Y)U] =E[E[g(Y)jG]U];

et il suffit d"appliquer ce résultat aux variablesUde la formeZf(X)avecfmesurable positive et

Zune variableG-mesurable.

Exercice 7On se donne deux réelsa;b >0, et(X;Y)une variable aléatoire à valeurs dansNR+dont la loi est caractérisée par

P(X=n;Yt) =bZ

t

0(ay)nn!exp((a+b)y)dy:

DéterminerE[h(Y)jX]pour toutn2Net toute fonctionh:R+!Rmesurable telle queh(Y)soit intégrable, puisE[YX+1]. Calculer ensuiteP(X=njY)et enfinE[XjY]. Solution de l"exercice 7Pour toutn0, on a par le théorème de convergence dominée

P(X=n) = limt!1P(X=n;Yt) =bZ

1

0(ay)nn!exp((a+b)y)dy=ba+b

aa+b n >0:

Donc, puisqueP(X=n)>0,

E[h(Y)jX=n] =E[h(Y)?X=n]P(X=n):

On remarque que :

E[h(Y)?X=n] =bZ

1 0 h(y)(ay)nn!exp((a+b)y)dy:

Pour justifier cette égalité assez intuitive, on peut la vérifier sur une fonction indicatrice d"un intervalle,

puis l"étendre aux fonctions en escalier par linéarité de l"intégrale, puis aux fonctions mesurables positives

par convergence monotone et enfin à une fonction mesurable quelconque en la décomposant selon ses

parties positives et négatives. On obtient :

E[h(Y)jX=n] =E[h(Y)?X=n]P(X=n)= (a+b)n+1Z

1 0 h(y)ynn!exp((a+b)y)dy:=(n); et par définition

E[h(Y)jX] =(X):

En particulier,

E[YjX=n] = (a+b)n+1Z

1 0y n+1n!exp((a+b)y)dy=n+ 1a+b: 4

On a ensuite

E YX+ 1 =E

EYX+ 1

X =E1X+ 1E[YjX] =E" 1X n=01n+ 1E[YjX=n]?fX=ng# 1X n=01n+ 1E[YjX=n]P(X=n) 1a+b1 X n=0P(X=n) =1a+b: Puis, pour toute fonctionhmesurable telle queh(Y)soit intégrable, on a

E[h(Y)] =1X

n=0bZ 1 0 h(y)(ay)nn!exp((a+b)y)dy =bZ 1 0 h(y)exp(by)dy; donc la densité de la loi deYest la fonction q(y) =beby?fy>0g:

Ainsi, pour toute fonctionhbornée,

E[?X=nh(Y)] =bZ

1 0 h(y)(ay)nn!exp((a+b)y)dy Z 1 0 h(y)q(y)(ay)nn!exp(ay)dy =E h(Y)(aY)nn!exp(aY)

Cela implique que

P(X=njY) =(aY)nn!exp(aY):

On en déduit finalement

E[XjY] =1X

n=1nP(X=njY) 1X n=1(aY)n(n1)!exp(aY) =aY: 5quotesdbs_dbs14.pdfusesText_20