[PDF] TD 5 : Espérance conditionnelle Corrigé - École normale supérieure





Previous PDF Next PDF



TD 5 : Espérance conditionnelle Corrigé

Exercice 3 (Espérance conditionnelle et positivité) Soit X une variable aléatoire positive sur (? ¿



TD 6 : Espérance conditionnelle dans L lois conditionnelles Corrigé

18 oct. 2017 Exercice 1. On se donne deux variables aléatoires réelles positives X et Y et on suppose que E[X



TD Master 2 – Martingales et calcul stochastique - Corrigé des

Corrigé des exercices du chapitre 3 – Espérance conditionnelle. Exercice 3.1. Dans une expérience consistant `a jeter deux tétra`edres parfaitement 



Espérance conditionnelle et indépendance Exercices

Espérance conditionnelle et indépendance. Exercices. Geneviève Gauthier. Dernière mise à jour : 25 février 2004. Exercice 3.1.



TD 5 : Espérance conditionnelle Corrigé

et G = ?(X + Y ). Exercice 2 (Calculs gentils). Soient X1



TD Espérance Conditionnelle - Corrigé

Dans cet exercice les v.a. X et Y sont discrètes. formule vue en cours pour le calcul de l'espérance conditionnelle



X – MAP PC – Lundi mai – Veeurs de variables aléatoires

Corrigé des exercices non traités sur Exercice 4. ... ( ) En déduire la valeur de l'espérance conditionnelle de X sachant Sn. Pouvait-on prévoir ce ...



ENS Lyon Mathématiques M1 Probabilités Feuille dexercices

Dans toute (in)égalité faisant intervenir l'espérance conditionnelle la mention «presque sûrement» est sous-entendue. Exercice 1 Le cas d'une tribu discrète.



Éléments de corrigé du DM no 2

Éléments de corrigé du DM no 2. Exercice 1. À l'aide de la définition de l'espérance conditionnelle (et en veillant à une bonne rédaction) démontrer.



ESPÉRANCE CONDITIONNELLE MARTINGALES

Propriétés de l'espérance conditionnelle analogues à celles de l'espérance Le point suivant est laissé en exercice. Enfin pour le dernier point on a ...



TD 5 : Espérance conditionnelle Corrigé - PSL

>TD 5 : Espérance conditionnelle Corrigé - PSLhttps://www math ens psl eu/~budzinski/td/16-17/td5_processus_c · Fichier PDF



TD Espérance Conditionnelle - Corrigé - u-bordeauxfr

>TD Espérance Conditionnelle - Corrigé - u-bordeaux frhttps://www math u-bordeaux fr/ /td_esperance_conditionnelle_ · Fichier PDF



TD 6 : Conditionnement martingales théorème d’arrêt Corrigé

>TD 6 : Conditionnement martingales théorème d’arrêt Corrigé



Espérance conditionnelle Chaînes de Markov

>Espérance conditionnelle Chaînes de Markov



Chapitre 4 Espérances conditionnelles et martingales

>Chapitre 4 Espérances conditionnelles et martingales



Espérance conditionnelle Chaînes de Markov

>Espérance conditionnelle Chaînes de Markov



Feuille d’exercices 1 Espérance conditionnelle - Dauphine-PSL Paris

>Feuille d’exercices 1 Espérance conditionnelle - Dauphine-PSL Parishttps://www ceremade dauphine fr/~detiliere/Cours/CCM_TD1 pdf · Fichier PDF



TD 5 : Espérance conditionnelle Corrigé - PSL

>TD 5 : Espérance conditionnelle Corrigé - PSLhttps://www math ens psl eu/~budzinski/td/18-19/td5_processus_c · Fichier PDF



ESPÉRANCE CONDITIONNELLE MARTINGALES - u-bordeauxfr

>ESPÉRANCE CONDITIONNELLE MARTINGALES - u-bordeaux frhttps://www math u-bordeaux fr/ /ProbaAgreg1213-COURS2-Esp · Fichier PDF



Probabilit´e et Esp´erance conditionnelle - École Polytechnique

>Probabilit´e et Esp´erance conditionnelle - École Polytechniquewww cmap polytechnique fr/~bansaye/CoursTD6 pdf · Fichier PDF



TD 6 : Espérance conditionnelle martingales Corrigé

>TD 6 : Espérance conditionnelle martingales Corrigéhttps://www math ens psl eu/~budzinski/td/16-17/td6_processus_c · Fichier PDF



Espérance conditionnelle et indépendance Exercices

>Espérance conditionnelle et indépendance Exercicesneumann hec ca/~p240/c664093/documents/03ex_esperancecon · Fichier PDF



TD 5 : Espérance conditionnelle Corrigé - École normale supérieure

>TD 5 : Espérance conditionnelle Corrigé - École normale supérieure https://perso ens-lyon fr/ /td/17-18/td5_processus_corrige pdf · Fichier PDF

Comment calculer l'espérance conditionnelle?

1 Espérance conditionnelle dans L2 Exercice 1 On se donne deux variables aléatoires réelles positives X et Y, et on suppose que E[XjY] = Y et E[YjX] = X. 1.MontrerquesiXetY sontdansL2,alorsX= Y p.s.. 2.On se place maintenant dans le cas général. En étudiant des quantités de la forme E[Y1Xa], montrerqueX= Y p.s..

Comment calculer l’espérance conditionnelle d’une variable par un couple?

Exercice 2.14 (Conditionnement d’une variable par un couple) Soit [X,Y,Z]?un vecteur gaussien centré de matrice de covariance : ? = ? ? 4 1 2 1 9 ?3 2 ?3 4 ? ? 1. Calculer E[XY,Z], l’espérance conditionnelle de X sachant le couple (Y,Z).

Comment définir l’espérance conditionnelle?

Certains auteurs dé?nissent directement, pour X ? L2(?,A ,P), l’espérance conditionnelle de X sachant B comme la projection orthogonale de X sur L2(?,B,P), puis prolongent l’application EBà L1(?,A ,P), par densité. C’est plus élémentaire, mais cela fait complètement perdre de vue le sens réel de l’espérance conditionnelle. Preuve du Lemme 1.7.

Processus aléatoiresThomas Budzinski

ENS Paris, 2016-2017 Bureau V2

thomas.budzinski@ens.fr

TD 5 : Espérance conditionnelle

Corrigé

Lundi 17 Octobre

Exercice 1(Petits contre-exemples) SoientXetYdeux variables aléatoires réelles sur( ;F;P), et GetHdeux sous-tribus deFtelles que(G;H) =F. Trouver des contre-exemples aux affirmations suivantes : 1.

Si E[XjY] =E[X], alorsXetYsont indépendantes.

2.

Si E[XjG] = 0etE[XjH] = 0, alorsX= 0.

3. Si XetYsont indépendantes, alorsE[XjG]etE[YjG]le sont aussi. Solution de l"exercice 11.Xuniforme surf2;1;1;2getY=jXj. 2. Soien tXetYdeux variables i.i.d. avecP(X= 1) =P(X=1) =12 etF=(X;Y). Soit Z=XY. Il est facile de vérifier queE[ZjX] =E[ZjY] = 0, maisZ6= 0. 3. Prendre XetYvariables de Bernoulli indépendantes de paramètre12 etG=(X+Y). Exercice 2SoientXetYdeux variables aléatoires sur( ;F;P)à valeurs respectivement dansEet F. SoitGune sous-tribu deF. On suppose queXest indépendante deGet queYestG-mesurable. Montrer que pour toute fonction mesurableg:EF!R+, on a

E[g(X;Y)jG] =Z

E g(x;Y)PX(dx)

oùPXdésigne la loi deX. Le terme de droite est la composée de la variable aléatoireYpar l"application

:y!Rg(x;y)PX(dx)(oùest mesurable grâce au théorème de Fubini). Solution de l"exercice 2La variable aléatoire(Y)est(Y)-mesurable, doncG-mesurable. Pour montrer

l"égalité p.s.E[g(X;Y)jG] =(Y), il suffit donc de vérifier que pour toute variable aléatoireZpositive

G-mesurable,

E[g(X;Y)Z] =E[(Y)Z]:

NotonsP(X;Y;Z)la loi du triplet(X;Y;Z), qui est une mesure de probabilité surEFR+. CommeX est indépendante de(Y;Z), on a P (X;Y;Z)=PX

P(Y;Z)

1 et donc, en utilisant le théorème de Fubini,

E[g(X;Y)Z] =Z

EFR+g(x;y)zP(X;Y;Z)(dxdydz)

Z

EFR+g(x;y)zPX(dx)P(Y;Z)(dydz)

Z FR+z Z E g(x;y)PX(dx)) P (Y;Z)(dydz) Z

FR+z(y)P(Y;Z)(dydz)

=E[(Y)Z]; ce qui est le résultat voulu.

Exercice 3(Espérance conditionnelle et positivité) SoitXune variable aléatoire positive sur(

;F;P) etGune sous-tribu deF. Montrer quefE[XjG]>0]gest le plus petit ensembleG-mesurable (aux ensembles négligeables près) qui contientfX >0g.

Solution de l"exercice 3La variable aléatoireE[XjG]est par définitionG-mesurable, et]0;+1[est un

borélien, doncfE[XjG]>0gest un ensembleG-mesurable. De plus, par définition de l"espérance condi-

tionnelle :

EX?E[XjG]=0=EE[XjG]?E[XjG]=0= 0:

OrX?E[XjG]=00p.s., doncX?E[XjG]=0= 0p.s.. Cela signifie que fX >0g fE[XjG]>0g à un ensemble négligeable près. SoitAun ensembleG-mesurable contenantfX >0g. Alors on aX= 0 p.s. surAc. Toujours par définition de l"espérance conditionnelle on a donc

E[E[XjG]?Ac] =E[X?Ac] = 0:

De mêmeE[XjG]0donc surAcon aE[XjG] = 0p.s., soitfE[XjG]>0g Aà un ensemble négligeable près. Exercice 4(Espérance conditionnelle et convergence en proba) Soit(Xn)n0une suite de variables aléatoires positives sur( ;F;P)et(Fn)n0une suite de sous-tribus deF. On suppose queE[XnjFn] converge en probabilité vers0. 1.

Mon trerque Xnconverge en probabilité vers0.

2.

Mon trerque la récipro queest fausse.

Solution de l"exercice 41.Raisonnons par l"absurde et supp osonsque P(Xn> ")> "pour un certain"et pour une infinité

den0. On ne raisonne que sur cesndésormais. On poseAn=n

E[XnjFn]>"210

o . Alors par hypothèseP(An)!0quandn!+1. On en déduit queP(fXn> "gnAn)"2

à partir d"un

certain rang. Alors d"après les propriétés de l"espérance conditionnelle on a E

Xn?Acn=EE[XnjFn]?Acn"210

et d"un autre côté

EXn1AcnEXn?fXn>"gnAi"22

C"est une contradiction.

2.

Il su ffitde p rendreFn=f?;

get(Xn)une suite qui converge en probabilité vers0mais pas dans L

1. Par exemple, on peut prendreP(Xn= 0) = 11n

etP(Xn=n2) =1n 2

Exercice 5SoitXune variable intégrable sur(

;F;P)etGune sous-tribu deF. SoitYune v.a. G-mesurable, on veut montrer queE[XjG] =Y. Montrer que siest un ensemble de parties de qui contient , stable par intersections finies et dont la tribu engendrée estG, il suffit de montrer

82;E[X?] =E[Y?]:

Solution de l"exercice 5C"est une application du lemme de classe monotone : en effet, il est facile de

vérifier que l"ensemble desA2Gtels queE[X?A] =E[Y?A]est une classe monotone, donc contient la classe monotone engendrée par, qui estGd"après le lemme de classe monotone.

Exercice 6(Indépendance conditionnelle) On dit que deux variables aléatoiresXetYà valeurs dans

un espace(E;E)sont indépendantes conditionnellement àGsi pour toutes fonctionsfetgdeRdans R +mesurables,

E[f(X)g(Y)jG] =E[f(X)jG]E[g(Y)jG]:

1.

Que signifie ceci si G=f;;

g? SiG=F? 2.

Mon trerque la définition précéden teéquiv autà : p ourtoute v ariablealéatoire ZpositiveG-

mesurable, pour toutes fonctionsfetgdeRdansR+mesurables,

E[f(X)g(Y)Z] =E[f(X)ZE[g(Y)jG]]:

et aussi à : pour toute fonctiongdeRdansRmesurable positive,

E[g(Y)j(G;X)] =E[g(Y)jG]:

Solution de l"exercice 61.Si G=f;;

g, l"egalité s"écrit

E[f(X)g(Y)] =E[f(X)]E[g(Y)]

pour toutes fonctionsfetgdeRdansRmesurables positives c"est à dire queXetYsont indépendantes. SiG=F, l"égalité est triviale et on ne peut rien dire sur les variablesXetY. 2. On supp oseque p ourtoutes fonctions fetgdeRdansR+mesurables,

E[f(X)g(Y)jG] =E[f(X)jG]E[g(Y)jG]:

SoitZune variable aléatoireG-mesurable positive. Alors

E[f(X)g(Y)Z] =E[E[f(X)g(Y)jG]Z]

=E[E[f(X)jG]E[g(Y)jG]Z] =E[f(X)E[g(Y)jG]Z]; carE[g(Y)jG]ZestG-mesurable. Réciproquement, on suppose que pour toutes fonctionsfetgde RdansRmesurables positives, et pour toute variable aléatoireG-mesurable positiveZ,

E[f(X)g(Y)Z] =E[f(X)E[g(Y)jG]Z]:

Alors commeZE[g(Y)jG]estG-mesurable positive, on a E[f(X)g(Y)Z] =E[f(X)E[g(Y)jG]Z] =E[E[f(X)jG]E[g(Y)jG]Z];

et par la propriété caractéristique de l"espérance conditionnelle, commeE[f(X)jG]E[g(Y)jG]est

G-mesurable, on obtient

E[f(X)jG]E[g(Y)jG] =E[f(X)g(Y)jG]:

3 Pour la seconde équivalence, supposonsXetYindépendantes conditionnellement àG. On veut montrer que pour toutA2(G;X), on a

E[g(Y)?A] =E[E[g(Y)jG]?A]:

D"après l"exercice précédent, il suffit de le montrer pour desAde la formeX1(B)\G. avecG2G etB2E, ce qui est un cas particulier de l"équivalence précédente avecf(X) =?X2BetZ=?G. Pour la réciproque, siE[g(Y)jG_(X)] =E[g(Y)jG]pour toute fonctiongmesurable positive, alors pour toutesgmesurable positive etUvariable((X)_G)-mesurable :

E[g(Y)U] =E[E[g(Y)jG]U];

et il suffit d"appliquer ce résultat aux variablesUde la formeZf(X)avecfmesurable positive et

Zune variableG-mesurable.

Exercice 7On se donne deux réelsa;b >0, et(X;Y)une variable aléatoire à valeurs dansNR+dont la loi est caractérisée par

P(X=n;Yt) =bZ

t

0(ay)nn!exp((a+b)y)dy:

DéterminerE[h(Y)jX]pour toutn2Net toute fonctionh:R+!Rmesurable telle queh(Y)soit intégrable, puisE[YX+1]. Calculer ensuiteP(X=njY)et enfinE[XjY]. Solution de l"exercice 7Pour toutn0, on a par le théorème de convergence dominée

P(X=n) = limt!1P(X=n;Yt) =bZ

1

0(ay)nn!exp((a+b)y)dy=ba+b

aa+b n >0:

Donc, puisqueP(X=n)>0,

E[h(Y)jX=n] =E[h(Y)?X=n]P(X=n):

On remarque que :

E[h(Y)?X=n] =bZ

1 0 h(y)(ay)nn!exp((a+b)y)dy:

Pour justifier cette égalité assez intuitive, on peut la vérifier sur une fonction indicatrice d"un intervalle,

puis l"étendre aux fonctions en escalier par linéarité de l"intégrale, puis aux fonctions mesurables positives

par convergence monotone et enfin à une fonction mesurable quelconque en la décomposant selon ses

parties positives et négatives. On obtient :

E[h(Y)jX=n] =E[h(Y)?X=n]P(X=n)= (a+b)n+1Z

1 0 h(y)ynn!exp((a+b)y)dy:=(n); et par définition

E[h(Y)jX] =(X):

En particulier,

E[YjX=n] = (a+b)n+1Z

1 0y n+1n!exp((a+b)y)dy=n+ 1a+b: 4

On a ensuite

E YX+ 1 =E

EYX+ 1

X =E1X+ 1E[YjX] =E" 1X n=01n+ 1E[YjX=n]?fX=ng# 1X n=01n+ 1E[YjX=n]P(X=n) 1a+b1 X n=0P(X=n) =1a+b: Puis, pour toute fonctionhmesurable telle queh(Y)soit intégrable, on a

E[h(Y)] =1X

n=0bZ 1 0 h(y)(ay)nn!exp((a+b)y)dy =bZ 1 0 h(y)exp(by)dy; donc la densité de la loi deYest la fonction q(y) =beby?fy>0g:

Ainsi, pour toute fonctionhbornée,

E[?X=nh(Y)] =bZ

1 0 h(y)(ay)nn!exp((a+b)y)dy Z 1 0 h(y)q(y)(ay)nn!exp(ay)dy =E h(Y)(aY)nn!exp(aY)

Cela implique que

P(X=njY) =(aY)nn!exp(aY):

On en déduit finalement

E[XjY] =1X

n=1nP(X=njY) 1X n=1(aY)n(n1)!exp(aY) =aY: 5quotesdbs_dbs14.pdfusesText_20
[PDF] esperance conditionnelle exercices corrigés pdf

[PDF] espérance conditionnelle par rapport à une tribu

[PDF] espérance conditionnelle par rapport à une variable

[PDF] espérance conditionnelle pdf

[PDF] espérance conditionnelle vecteur gaussien

[PDF] espérance d un mouvement brownien géométrique

[PDF] espérance d une matrice

[PDF] espérance d une somme de variables aléatoires

[PDF] espérance d utilité et utilité espérée

[PDF] espérance d'une fonction de densité

[PDF] espérance d'une somme de variables aléatoires

[PDF] espérance du maximum de deux variables aléatoires

[PDF] espérance et variance formule

[PDF] espérance excel

[PDF] espérance loi binomiale