[PDF] TD 5 : Espérance conditionnelle Corrigé - PSL





Previous PDF Next PDF



TD 5 : Espérance conditionnelle Corrigé

Exercice 3 (Espérance conditionnelle et positivité) Soit X une variable aléatoire positive sur (? ¿



TD Master 2 – Martingales et calcul stochastique - Corrigé des

Corrigé des exercices du chapitre 3 – Espérance conditionnelle. Exercice 3.1. Dans une expérience consistant `a jeter deux tétra`edres parfaitement 



TD 5 : Espérance conditionnelle Corrigé

et G = ?(X + Y ). Exercice 2 (Calculs gentils). Soient X1



TD 6 : Espérance conditionnelle dans L lois conditionnelles Corrigé

18 oct. 2017 Exercice 1. On se donne deux variables aléatoires réelles positives X et Y et on suppose que E[X



X – MAP PC – Lundi mai – Veeurs de variables aléatoires

Corrigé des exercices non traités sur Exercice 4. ... ( ) En déduire la valeur de l'espérance conditionnelle de X sachant Sn. Pouvait-on prévoir ce ...



ESPÉRANCE CONDITIONNELLE MARTINGALES

Propriétés de l'espérance conditionnelle analogues à celles de l'espérance Le point suivant est laissé en exercice. Enfin pour le dernier point on a ...



Espérance conditionnelle et indépendance Exercices

Espérance conditionnelle et indépendance. Exercices. Geneviève Gauthier. Dernière mise à jour : 25 février 2004. Exercice 3.1.



TD Espérance Conditionnelle - Corrigé

Dans cet exercice les v.a. X et Y sont discrètes. formule vue en cours pour le calcul de l'espérance conditionnelle



Éléments de corrigé du DM no 2

Éléments de corrigé du DM no 2. Exercice 1. À l'aide de la définition de l'espérance conditionnelle (et en veillant à une bonne rédaction) démontrer.



TD 6 : Espérance conditionnelle martingales Corrigé

Corrigé. Lundi 24 Octobre. 1 Espérance conditionnelle dans L2. Exercice 1. On se donne deux variables aléatoires réelles positives X et Y et on suppose 



TD 5 : Espérance conditionnelle Corrigé - PSL

TD 5 : Espérance conditionnelle Corrigé Lundi 17 Octobre Exercice 1 (Petits contre-exemples) Soient X et Y deux variables aléatoires réelles sur (;F;P) et G etH deuxsous-tribusdeF tellesque?(G;H ) = F Trouverdescontre-exemplesauxa?rmations suivantes: 1 SiE[XjY] = E[X]alorsXetY sontindépendantes 2 SiE[XjG] = 0 etE[XjH ] = 0alorsX= 0



TD 6 : Conditionnement martingales théorème d’arrêt Corrigé

TD Espérance Conditionnelle - Corrigé Exercice 1 Dans cet exercice les v a X et Y sont discrètes Par conséquent on pouvait appliquer directement la formule vue en cours pour le calcul de l’espérance conditionnelle par exemple E»XjY = 1 = Õ n>1 E»X1 fY=1g P„Y = 1” = Õ n>1 nP„X =;Y 1” P„Y = 1” = Õ n>1 nP„X





Probabilit´e et Esp´erance conditionnelle

1) Remarquons que pour tout bor´elien B? ?(Z) c’est-`a-dire B? P(Z?1({z}) ; z? Support(Z)) on a E(Y11 B) = E(X11 B) 2) Y est ?(Z) mesurable La question qui se pose est de savoir comment g´en´eraliser cette notion d’esp´erance condition- nelle lorsque Zn’est pas a valeurs discr`etes



Feuille d’exercices 1 Espérance conditionnelle

Feuille d’exercices 1 Espérance conditionnelle Danstoutelafeuille(;F;P) désigneunespaceprobabilisé Exercice 1 [Rappeldeprobabilités] SoitXunev a positivep s MontrerquesiE[X] = 0 alorsX= 0 p s Exercice 2 [Cours] Dans la suite G;G 1;G 2 sont des sous-tribus de F les v a X (X n) n 1 sont dans L1(F) et les propriétéssontvraiesp s



Espérance conditionnelle et indépendance Exercices

Espérance conditionnelle et indépendance Exercices Geneviève Gauthier Dernière mise à jour : 25 février 2004 Exercice 3 1 Démontrez les quatre propriétés ci-dessous : pour toutes variables aléatoires X et Y et pour tous nombres réels a et b (E1) EP [aX +bY ]=aEP [X]+bEP [Y]; (E2) Si ?? ? ? X (?) ? Y (?) alors EP [X] ?



ESPÉRANCE CONDITIONNELLE MARTINGALES - u-bordeauxfr

Espérance conditionnelle 1 Introduction Pour de nombreux problèmes concrets (prédiction observation incomplète etc ) il est important de pouvoir estimer une variable aléatoire sur laquelle on n’a qu’une information partielle Dès lors on comprendl’importancedelanotiond’espéranceconditionnelle



TD de Probabilités - Université de Poitiers

Exercice 1 5 (Calcul d'espérance et ariancev pour des estimateurs) Soit (X i) i?1 des v a i i d de carré intégrable de moyenne m et ariancev ?2 1 Calculer l'espérance et la ariancev de l'estimateur de la moyenne X¯ n = 1 n Xn i=1 X i 2 Calculer l'espérance de l'estimateur de la ariancev S2 n = 1 n?1 Xn i=1 (X i ?X¯ n)2



Feuille d'exercices &# 1 : Conditionnement - univ-rennes1fr

Exercice 18 Calcul d'espérance onditionnelc le rouvTer la loi conditionnelle et l'espérance conditionnelle de Y sachant X lorsque la densité du couple (X;Y) est donnée par : a) f(x;y) = xe x(y+1)1 fx;y 0g b) f(x;y) = 4x(y x)exp( (x+ y))1 f0 x yg Exercice 19 Conditionnement arp le maximum Soient (X 1;:::;X



TD 5 : Espérance conditionnelle Corrigé

2 Ilsu?tdeprendreF n= f?; get(X n) unesuitequiconvergeenprobabilitévers0 maispasdans L1 ParexempleonpeutprendreP(X n= 0) = 1 1 n etP(X n= n2) = 1 n Exercice 5



Esp´erance conditionnelle - unicefr

L’esp´erance conditionnelle de X par rapport a la tribu F est la projection orthogonale de X sur le sous espace G des v a F-mesurables Preuve : Soit Z ? G En utilisant les propri´et´es de l’esp´erance conditionnelle du th´eor`eme 3 2 on a : E(XZ) = E(E(XZF)) = E(E(XF)Z) donc < X ?E(XF)Z >= E(XZ)?E(E(XF)Z) = 0



Searches related to exercices corrigés espérance conditionnelle filetype:pdf

Exercice 4: Soient X et Y deux variables al´eatoires sur (?AP) On suppose que X est `a valeurs dans N et que Y suit une loi exponentielle de param`etre 1 On suppose de plus que la loi de X conditionnelle `a Y est une loi de Poisson de param`etre Y i e ?k ? N P [X = kY] = exp(?Y) Yk k! P p s

Comment calculer l'espérance conditionnelle?

  • 1 Espérance conditionnelle dans L2 Exercice 1 On se donne deux variables aléatoires réelles positives X et Y, et on suppose que E[XjY] = Y et E[YjX] = X. 1.MontrerquesiXetY sontdansL2,alorsX= Y p.s.. 2.On se place maintenant dans le cas général. En étudiant des quantités de la forme E[Y1Xa], montrerqueX= Y p.s..

Comment calculer les espérances conditionnelles?

  • LSMC et calcul de SCR14 L’algorithmeLSM (Least Square Monte Carlo) est une méthode de Monte Carlo visant à estimer des espérances conditionnelles via un ensemble de fonctions de base (polynômes de Laguerre, polynômes d’Hermite, fonctions trigonométriques). Cette méthode a par exemple était utilisée afin de valoriser des options

Qu'est-ce que les espérances conditionnelles?

  • 1 Espérances conditionnelles Cette notion sert à modéliser la réponse à la question suivante : si X est une v.a.r. liée à une certaine expérience, que sait-on d’elle si l’on n’a pas toute l’infor- mation (donnée par la tribu A des événements, mais seulement une information partielle (donnée par une sous-tribu B? 1.1 Dé?nition

Qu'est-ce que l'espérance conditionnelle ?

  • Espérance conditionnelle En théorie des probabilités, l' espérance conditionnelle d'une variable aléatoire réelle est, selon les cas, un nombre ou une nouvelle variable aléatoire.

Processus aléatoiresThomas Budzinski

ENS Paris, 2016-2017 Bureau V2

thomas.budzinski@ens.fr

TD 5 : Espérance conditionnelle

Corrigé

Lundi 17 Octobre

Exercice 1(Petits contre-exemples) SoientXetYdeux variables aléatoires réelles sur( ;F;P), et GetHdeux sous-tribus deFtelles que(G;H) =F. Trouver des contre-exemples aux affirmations suivantes : 1.

Si E[XjY] =E[X], alorsXetYsont indépendantes.

2.

Si E[XjG] = 0etE[XjH] = 0, alorsX= 0.

3. Si XetYsont indépendantes, alorsE[XjG]etE[YjG]le sont aussi. Solution de l"exercice 11.Xuniforme surf2;1;1;2getY=jXj. 2. Soien tXetYdeux variables i.i.d. avecP(X= 1) =P(X=1) =12 etF=(X;Y). Soit Z=XY. Il est facile de vérifier queE[ZjX] =E[ZjY] = 0, maisZ6= 0. 3. Prendre XetYvariables de Bernoulli indépendantes de paramètre12 etG=(X+Y). Exercice 2SoientXetYdeux variables aléatoires sur( ;F;P)à valeurs respectivement dansEet F. SoitGune sous-tribu deF. On suppose queXest indépendante deGet queYestG-mesurable. Montrer que pour toute fonction mesurableg:EF!R+, on a

E[g(X;Y)jG] =Z

E g(x;Y)PX(dx)

oùPXdésigne la loi deX. Le terme de droite est la composée de la variable aléatoireYpar l"application

:y!Rg(x;y)PX(dx)(oùest mesurable grâce au théorème de Fubini). Solution de l"exercice 2La variable aléatoire(Y)est(Y)-mesurable, doncG-mesurable. Pour montrer

l"égalité p.s.E[g(X;Y)jG] =(Y), il suffit donc de vérifier que pour toute variable aléatoireZpositive

G-mesurable,

E[g(X;Y)Z] =E[(Y)Z]:

NotonsP(X;Y;Z)la loi du triplet(X;Y;Z), qui est une mesure de probabilité surEFR+. CommeX est indépendante de(Y;Z), on a P (X;Y;Z)=PX

P(Y;Z)

1 et donc, en utilisant le théorème de Fubini,

E[g(X;Y)Z] =Z

EFR+g(x;y)zP(X;Y;Z)(dxdydz)

Z

EFR+g(x;y)zPX(dx)P(Y;Z)(dydz)

Z FR+z Z E g(x;y)PX(dx)) P (Y;Z)(dydz) Z

FR+z(y)P(Y;Z)(dydz)

=E[(Y)Z]; ce qui est le résultat voulu.

Exercice 3(Espérance conditionnelle et positivité) SoitXune variable aléatoire positive sur(

;F;P) etGune sous-tribu deF. Montrer quefE[XjG]>0]gest le plus petit ensembleG-mesurable (aux ensembles négligeables près) qui contientfX >0g.

Solution de l"exercice 3La variable aléatoireE[XjG]est par définitionG-mesurable, et]0;+1[est un

borélien, doncfE[XjG]>0gest un ensembleG-mesurable. De plus, par définition de l"espérance condi-

tionnelle :

EX?E[XjG]=0=EE[XjG]?E[XjG]=0= 0:

OrX?E[XjG]=00p.s., doncX?E[XjG]=0= 0p.s.. Cela signifie que fX >0g fE[XjG]>0g à un ensemble négligeable près. SoitAun ensembleG-mesurable contenantfX >0g. Alors on aX= 0 p.s. surAc. Toujours par définition de l"espérance conditionnelle on a donc

E[E[XjG]?Ac] =E[X?Ac] = 0:

De mêmeE[XjG]0donc surAcon aE[XjG] = 0p.s., soitfE[XjG]>0g Aà un ensemble négligeable près. Exercice 4(Espérance conditionnelle et convergence en proba) Soit(Xn)n0une suite de variables aléatoires positives sur( ;F;P)et(Fn)n0une suite de sous-tribus deF. On suppose queE[XnjFn] converge en probabilité vers0. 1.

Mon trerque Xnconverge en probabilité vers0.

2.

Mon trerque la récipro queest fausse.

Solution de l"exercice 41.Raisonnons par l"absurde et supp osonsque P(Xn> ")> "pour un certain"et pour une infinité

den0. On ne raisonne que sur cesndésormais. On poseAn=n

E[XnjFn]>"210

o . Alors par hypothèseP(An)!0quandn!+1. On en déduit queP(fXn> "gnAn)"2

à partir d"un

certain rang. Alors d"après les propriétés de l"espérance conditionnelle on a E

Xn?Acn=EE[XnjFn]?Acn"210

et d"un autre côté

EXn1AcnEXn?fXn>"gnAi"22

C"est une contradiction.

2.

Il su ffitde p rendreFn=f?;

get(Xn)une suite qui converge en probabilité vers0mais pas dans L

1. Par exemple, on peut prendreP(Xn= 0) = 11n

etP(Xn=n2) =1n 2

Exercice 5SoitXune variable intégrable sur(

;F;P)etGune sous-tribu deF. SoitYune v.a. G-mesurable, on veut montrer queE[XjG] =Y. Montrer que siest un ensemble de parties de qui contient , stable par intersections finies et dont la tribu engendrée estG, il suffit de montrer

82;E[X?] =E[Y?]:

Solution de l"exercice 5C"est une application du lemme de classe monotone : en effet, il est facile de

vérifier que l"ensemble desA2Gtels queE[X?A] =E[Y?A]est une classe monotone, donc contient la classe monotone engendrée par, qui estGd"après le lemme de classe monotone.

Exercice 6(Indépendance conditionnelle) On dit que deux variables aléatoiresXetYà valeurs dans

un espace(E;E)sont indépendantes conditionnellement àGsi pour toutes fonctionsfetgdeRdans R +mesurables,

E[f(X)g(Y)jG] =E[f(X)jG]E[g(Y)jG]:

1.

Que signifie ceci si G=f;;

g? SiG=F? 2.

Mon trerque la définition précéden teéquiv autà : p ourtoute v ariablealéatoire ZpositiveG-

mesurable, pour toutes fonctionsfetgdeRdansR+mesurables,

E[f(X)g(Y)Z] =E[f(X)ZE[g(Y)jG]]:

et aussi à : pour toute fonctiongdeRdansRmesurable positive,

E[g(Y)j(G;X)] =E[g(Y)jG]:

Solution de l"exercice 61.Si G=f;;

g, l"egalité s"écrit

E[f(X)g(Y)] =E[f(X)]E[g(Y)]

pour toutes fonctionsfetgdeRdansRmesurables positives c"est à dire queXetYsont indépendantes. SiG=F, l"égalité est triviale et on ne peut rien dire sur les variablesXetY. 2. On supp oseque p ourtoutes fonctions fetgdeRdansR+mesurables,

E[f(X)g(Y)jG] =E[f(X)jG]E[g(Y)jG]:

SoitZune variable aléatoireG-mesurable positive. Alors

E[f(X)g(Y)Z] =E[E[f(X)g(Y)jG]Z]

=E[E[f(X)jG]E[g(Y)jG]Z] =E[f(X)E[g(Y)jG]Z]; carE[g(Y)jG]ZestG-mesurable. Réciproquement, on suppose que pour toutes fonctionsfetgde RdansRmesurables positives, et pour toute variable aléatoireG-mesurable positiveZ,

E[f(X)g(Y)Z] =E[f(X)E[g(Y)jG]Z]:

Alors commeZE[g(Y)jG]estG-mesurable positive, on a E[f(X)g(Y)Z] =E[f(X)E[g(Y)jG]Z] =E[E[f(X)jG]E[g(Y)jG]Z];

et par la propriété caractéristique de l"espérance conditionnelle, commeE[f(X)jG]E[g(Y)jG]est

G-mesurable, on obtient

E[f(X)jG]E[g(Y)jG] =E[f(X)g(Y)jG]:

3 Pour la seconde équivalence, supposonsXetYindépendantes conditionnellement àG. On veut montrer que pour toutA2(G;X), on a

E[g(Y)?A] =E[E[g(Y)jG]?A]:

D"après l"exercice précédent, il suffit de le montrer pour desAde la formeX1(B)\G. avecG2G etB2E, ce qui est un cas particulier de l"équivalence précédente avecf(X) =?X2BetZ=?G. Pour la réciproque, siE[g(Y)jG_(X)] =E[g(Y)jG]pour toute fonctiongmesurable positive, alors pour toutesgmesurable positive etUvariable((X)_G)-mesurable :

E[g(Y)U] =E[E[g(Y)jG]U];

et il suffit d"appliquer ce résultat aux variablesUde la formeZf(X)avecfmesurable positive et

Zune variableG-mesurable.

Exercice 7On se donne deux réelsa;b >0, et(X;Y)une variable aléatoire à valeurs dansNR+dont la loi est caractérisée par

P(X=n;Yt) =bZ

t

0(ay)nn!exp((a+b)y)dy:

DéterminerE[h(Y)jX]pour toutn2Net toute fonctionh:R+!Rmesurable telle queh(Y)soit intégrable, puisE[YX+1]. Calculer ensuiteP(X=njY)et enfinE[XjY]. Solution de l"exercice 7Pour toutn0, on a par le théorème de convergence dominée

P(X=n) = limt!1P(X=n;Yt) =bZ

1

0(ay)nn!exp((a+b)y)dy=ba+b

aa+b n >0:

Donc, puisqueP(X=n)>0,

E[h(Y)jX=n] =E[h(Y)?X=n]P(X=n):

On remarque que :

E[h(Y)?X=n] =bZ

1 0 h(y)(ay)nn!exp((a+b)y)dy:

Pour justifier cette égalité assez intuitive, on peut la vérifier sur une fonction indicatrice d"un intervalle,

puis l"étendre aux fonctions en escalier par linéarité de l"intégrale, puis aux fonctions mesurables positives

par convergence monotone et enfin à une fonction mesurable quelconque en la décomposant selon ses

parties positives et négatives. On obtient :

E[h(Y)jX=n] =E[h(Y)?X=n]P(X=n)= (a+b)n+1Z

1 0 h(y)ynn!exp((a+b)y)dy:=(n); et par définition

E[h(Y)jX] =(X):

En particulier,

E[YjX=n] = (a+b)n+1Z

1 0y n+1n!exp((a+b)y)dy=n+ 1a+b: 4

On a ensuite

E YX+ 1 =E

EYX+ 1

X =E1X+ 1E[YjX] =E" 1X n=01n+ 1E[YjX=n]?fX=ng# 1X n=01n+ 1E[YjX=n]P(X=n) 1a+b1 X n=0P(X=n) =1a+b: Puis, pour toute fonctionhmesurable telle queh(Y)soit intégrable, on a

E[h(Y)] =1X

n=0bZ 1 0 h(y)(ay)nn!exp((a+b)y)dy =bZ 1 0 h(y)exp(by)dy; donc la densité de la loi deYest la fonction q(y) =beby?fy>0g:

Ainsi, pour toute fonctionhbornée,

E[?X=nh(Y)] =bZ

1 0 h(y)(ay)nn!exp((a+b)y)dy Z 1 0 h(y)q(y)(ay)nn!exp(ay)dy =E h(Y)(aY)nn!exp(aY)

Cela implique que

P(X=njY) =(aY)nn!exp(aY):

On en déduit finalement

E[XjY] =1X

n=1nP(X=njY) 1X n=1(aY)n(n1)!exp(aY) =aY: 5quotesdbs_dbs5.pdfusesText_10
[PDF] exercices corrigés essais mécaniques

[PDF] exercices corrigés et illustrations en matlab et octave pdf

[PDF] exercices corrigés fiabilité des systèmes

[PDF] exercices corrigés fifo lifo cmup pdf

[PDF] exercices corrigés files d'attente

[PDF] exercices corrigés fiscalité

[PDF] exercices corrigés fiscalité sénégalaise

[PDF] exercices corrigés forces de frottement

[PDF] exercices corrigés fractions

[PDF] exercices corrigés génétique humaine

[PDF] exercices corrigés génie chimique pdf

[PDF] exercices corrigés géométrie dans lespace terminale s pdf

[PDF] exercices corrigés géométrie des molécules

[PDF] exercices corrigés gestion de maintenance

[PDF] exercices corrigés graphes