[PDF] ESPÉRANCE CONDITIONNELLE MARTINGALES





Previous PDF Next PDF



TD 5 : Espérance conditionnelle Corrigé

Exercice 3 (Espérance conditionnelle et positivité) Soit X une variable aléatoire positive sur (? ¿



TD 6 : Espérance conditionnelle dans L lois conditionnelles Corrigé

18 oct. 2017 Exercice 1. On se donne deux variables aléatoires réelles positives X et Y et on suppose que E[X



TD Master 2 – Martingales et calcul stochastique - Corrigé des

Corrigé des exercices du chapitre 3 – Espérance conditionnelle. Exercice 3.1. Dans une expérience consistant `a jeter deux tétra`edres parfaitement 



Espérance conditionnelle et indépendance Exercices

Espérance conditionnelle et indépendance. Exercices. Geneviève Gauthier. Dernière mise à jour : 25 février 2004. Exercice 3.1.



TD 5 : Espérance conditionnelle Corrigé

et G = ?(X + Y ). Exercice 2 (Calculs gentils). Soient X1



TD Espérance Conditionnelle - Corrigé

Dans cet exercice les v.a. X et Y sont discrètes. formule vue en cours pour le calcul de l'espérance conditionnelle



X – MAP PC – Lundi mai – Veeurs de variables aléatoires

Corrigé des exercices non traités sur Exercice 4. ... ( ) En déduire la valeur de l'espérance conditionnelle de X sachant Sn. Pouvait-on prévoir ce ...



ENS Lyon Mathématiques M1 Probabilités Feuille dexercices

Dans toute (in)égalité faisant intervenir l'espérance conditionnelle la mention «presque sûrement» est sous-entendue. Exercice 1 Le cas d'une tribu discrète.



Éléments de corrigé du DM no 2

Éléments de corrigé du DM no 2. Exercice 1. À l'aide de la définition de l'espérance conditionnelle (et en veillant à une bonne rédaction) démontrer.



ESPÉRANCE CONDITIONNELLE MARTINGALES

Propriétés de l'espérance conditionnelle analogues à celles de l'espérance Le point suivant est laissé en exercice. Enfin pour le dernier point on a ...



TD 5 : Espérance conditionnelle Corrigé - PSL

>TD 5 : Espérance conditionnelle Corrigé - PSLhttps://www math ens psl eu/~budzinski/td/16-17/td5_processus_c · Fichier PDF



TD Espérance Conditionnelle - Corrigé - u-bordeauxfr

>TD Espérance Conditionnelle - Corrigé - u-bordeaux frhttps://www math u-bordeaux fr/ /td_esperance_conditionnelle_ · Fichier PDF



TD 6 : Conditionnement martingales théorème d’arrêt Corrigé

>TD 6 : Conditionnement martingales théorème d’arrêt Corrigé



Espérance conditionnelle Chaînes de Markov

>Espérance conditionnelle Chaînes de Markov



Chapitre 4 Espérances conditionnelles et martingales

>Chapitre 4 Espérances conditionnelles et martingales



Espérance conditionnelle Chaînes de Markov

>Espérance conditionnelle Chaînes de Markov



Feuille d’exercices 1 Espérance conditionnelle - Dauphine-PSL Paris

>Feuille d’exercices 1 Espérance conditionnelle - Dauphine-PSL Parishttps://www ceremade dauphine fr/~detiliere/Cours/CCM_TD1 pdf · Fichier PDF



TD 5 : Espérance conditionnelle Corrigé - PSL

>TD 5 : Espérance conditionnelle Corrigé - PSLhttps://www math ens psl eu/~budzinski/td/18-19/td5_processus_c · Fichier PDF



ESPÉRANCE CONDITIONNELLE MARTINGALES - u-bordeauxfr

>ESPÉRANCE CONDITIONNELLE MARTINGALES - u-bordeaux frhttps://www math u-bordeaux fr/ /ProbaAgreg1213-COURS2-Esp · Fichier PDF



Probabilit´e et Esp´erance conditionnelle - École Polytechnique

>Probabilit´e et Esp´erance conditionnelle - École Polytechniquewww cmap polytechnique fr/~bansaye/CoursTD6 pdf · Fichier PDF



TD 6 : Espérance conditionnelle martingales Corrigé

>TD 6 : Espérance conditionnelle martingales Corrigéhttps://www math ens psl eu/~budzinski/td/16-17/td6_processus_c · Fichier PDF



Espérance conditionnelle et indépendance Exercices

>Espérance conditionnelle et indépendance Exercicesneumann hec ca/~p240/c664093/documents/03ex_esperancecon · Fichier PDF



TD 5 : Espérance conditionnelle Corrigé - École normale supérieure

>TD 5 : Espérance conditionnelle Corrigé - École normale supérieure https://perso ens-lyon fr/ /td/17-18/td5_processus_corrige pdf · Fichier PDF

Comment calculer l'espérance conditionnelle?

1 Espérance conditionnelle dans L2 Exercice 1 On se donne deux variables aléatoires réelles positives X et Y, et on suppose que E[XjY] = Y et E[YjX] = X. 1.MontrerquesiXetY sontdansL2,alorsX= Y p.s.. 2.On se place maintenant dans le cas général. En étudiant des quantités de la forme E[Y1Xa], montrerqueX= Y p.s..

Comment calculer l’espérance conditionnelle d’une variable par un couple?

Exercice 2.14 (Conditionnement d’une variable par un couple) Soit [X,Y,Z]?un vecteur gaussien centré de matrice de covariance : ? = ? ? 4 1 2 1 9 ?3 2 ?3 4 ? ? 1. Calculer E[XY,Z], l’espérance conditionnelle de X sachant le couple (Y,Z).

Comment définir l’espérance conditionnelle?

Certains auteurs dé?nissent directement, pour X ? L2(?,A ,P), l’espérance conditionnelle de X sachant B comme la projection orthogonale de X sur L2(?,B,P), puis prolongent l’application EBà L1(?,A ,P), par densité. C’est plus élémentaire, mais cela fait complètement perdre de vue le sens réel de l’espérance conditionnelle. Preuve du Lemme 1.7.

ESPÉRANCE CONDITIONNELLE

MARTINGALES

Préparation à l"Agrégation Bordeaux 1

Année 2013 - 2014

Jean-Jacques Ruch et Marie-Line Chabanol

Table des Matières

Chapitre I. Espérance conditionnelle5

1. Introduction5

2. Définition de l"espérance conditionnelle 7

2.A. Cas particulier des variables aléatoires de carré intégrable 7

2.B. Cas général7

3. Propriétés de l"espérance conditionnelle analogues à celles de l"espérance 9

4. Propriétés spécifiques à l"espérance conditionnelle 10

5. Calculs d"espérance conditionnelle, loi conditionnelle 10

Chapitre II. Martingales13

1. Introduction13

2. Définition des martingales 14

3. Surmartingale et sous-martingale 15

4. Temps d"arrêt16

5. Propriétés des martingales par rapport aux temps d"arrêts 17

6. Théorèmes d"arrêt18

7. Inégalités maximales19

8. Convergence des martingales 21

9. Convergence des martingalesL224

10. Complément : convergence dansL125

3

CHAPITRE I

Espérance conditionnelle

1. Introduction

Pour de nombreux problèmes concrets (prédiction, observation incomplète, etc.) il est important de

pouvoir estimer une variable aléatoire sur laquelle on n"a qu"une information partielle. Dès lors, on

comprend l"importance de la notion d"espérance conditionnelle. La définition axiomatique de cette notion

est motivée par le cas discret traité dans le premier paragraphe. Le calcul explicite des espérances

conditionnelles, qui est en général un problème difficile, est illustré sur plusieurs cas, dont le cas gaussien

particulièrement important pour les applications.

On note(

;A;P)un espace probabilisé. SoitB2 Aun événement tel queP(B)>0. On peut définir une nouvelle probabilité sur( ;A), appeléeprobabilité conditionnellesachantB, en posant pour toutA2 A,

P(AjB) =P(A\B)P(B)=E[1A1B]P(B)

De même, pour toute variable aléatoireXpositive ou dansL1( ;A;P), l"espérance conditionnelledeX sachantBest définie par

E[XjB] =E[X1B]P(B):

Cette quantité est aussi l"espérance deXsous la probabilitéP(jB), et elle s"interprète comme la valeur

moyenne deXquandBest réalisé. En particulier, siXest discrète, on obtient (de façon assez conforme à l"intuition?)

E[XjB] =X

kx kP(X=xkjB)

Considérons maintenant une variable aléatoireYà valeurs dans un espaceEdénombrable et soity2E

tel queP(Y=y)>0. Pour toute variable aléatoireX2L1( ;A;P)on peut définir, comme un cas particulier de ce qui précède,

E[XjY=y] =E[X1Y=y]P(Y=y):

Définition 1.SoitX2L1(

;A;P)etYune variable aléatoire discrète sur . L"espérance condition- nelle deXsachantYest la variable aléatoire réelle définie par

E[XjY] ='(Y);

où la fonction':E!Rest donnée par '(y) =E[XjY=y]siyest tel queP(Y=y)>0

0sinon

En particulier siXest également discrète,E[XjY=y] =P

kxkP(X=xkjY=y).Le choix de la valeur de'lorsqueP(Y=y) = 0n"a pas d"importance, puisque c"est un ensemble de

probabilité nulle. En effet si on noteE0=fy2EjP(Y=y) = 0galors

P(Y2E0) =X

y2E0P(Y=y) = 0: 5

6Chapitre I. Espérance conditionnelle

Donc, si on changeait la définition de'surE0cela donnerait la même variable aléatoireE[XjY]à un

ensemble de mesure nulle près.

Dans le cas général, l"espérance conditionnelle sera toujours définie à un ensemble de probabilité nulle

près. En comparant avec le conditionnement par rapport à un événement, on observe que l"espérance

conditionnelleE[XjY]est maintenant une variable aléatoire : c"est la variable aléatoire qui donne la

valeur moyenne deXquand on connaitY: on a presque sûrement

E[XjY](!) =E[XjY=y];siY(!) =y:

On a donc aussi les écritures suivantes, avec plus ou moins d"abus de langage... : LorsqueYest une variable discrète à valeurs dansE

E[XjY](!) =X

y2E1

Y1(fyg)(!)E[XjY=y] =X

y2E1

Y(!)=yE[XjY=y] =E[XjY=Y(!)]:Remarquons queE[XjY]est une fonction deY(puisqu"elle ne dépend de!que par la valeurY(!))

donc une variable aléatoire(Y)-mesurable. Dans un sens qui sera précisé plus loin, c"est la meilleure

approximation deXpar une fonction deY.

Exemple :Lancer d"un dé. On prend

=f1;2;:::;6getP(f!g) = 1=6pour tout!. Soient

Y(!) =1si!est impair

0si!est pair

etX(!) =!:Alors,

E[XjY](!) =3si!2 f1;3;5g

4si!2 f2;4;6g:

Ou encore

E[XjY] = 31Y=1+ 41Y=0

Proposition 2.SoitX2L1(

;A;P). On a

E[jE[XjY]j]E[jXj];

en particulierE[XjY]2L1( ;A;P). De plus pour toute variable aléatoireZbornée et(Y)-mesurable

E[ZE[XjY]] =E[ZX]:

en particulierE[E[XjY]] =E[X].Démonstration.D"après la définition de l"espérance conditionnelleE[XjY], on a

E[jE[XjY]j] =X

y2EnE0P(Y=y)jE[XjY=y]j X y2EnE0P(Y=y)E[X1Y=y]P(Y=y) X y2EE[jXj1Y=y] =E[jXj]:

Pour la deuxième assertion, on utilise le fait qu"on peut écrireZ= (Y), avec une fonction bornée.

Alors,

E[ (Y)E[XjY]] =X

y2EnE0P(Y=y) (y)E[XjY=y] =X y2EnE0P(Y=y) (y)E[X1Y=y]P(Y=y) X y2EnE0 (y)E[X1Y=y] =X y2EnE0E[ (y)X1Y=y] X y2EnE0E[ (Y)X1Y=y] =E2 4 X y2EnE0 (Y)1Y=yX3 5 =E[ (Y)X]

Esp. cond.

2.Définition de l"espérance conditionnelle7

Enfin, on peut vérifier que siY0est une autre variable aléatoire discrète telle que(Y) =(Y0), on a

E[XjY] =E[XjY0]p.s.

Ceci suggère que la bonne notion de conditionnement est la notion de conditionnement par rapport à une

tribu. C"est cette notion que nous allons développer dans la suite.

2. Définition de l"espérance conditionnelle

2.A. Cas particulier des variables aléatoires de carré intégrable.SiYest discrète, on peut

vérifier que la définition précédente entraine que siXest de carré intégrable, alorsE[XjY]aussi; de plus

la proposition précédente entraine alors que(E[XjY]X)est orthogonal (au sensL2) à toute variable

aléatoireZbornée(Y)mesurable.

Cela suggère une généralisation de la définition lorsqueYn"est pas forcément discrète en terme de

projection orthogonale. Avant d"énoncer le résultat, rappelons que siBest une sous-tribu deAalorsL2( ;B;P)s"identifie à un sous-espace fermé deL2( ;A;P), à savoir l"espace des éléments deL2( ;A;P)dont un représentant au moins estB-mesurable.

Définition 3.SiX2L2(

;A;P)et siBest une sous tribu deAalorsE[XjB]est la projection orthogonale deXsurL2( ;B;P). En particulierE[XjB]2L2( ;B;P).

SiYest une variable aléatoire, on noteE[XjY] =E[Xj(Y)]: c"est la variable aléatoire fonction de

Yqui approche le mieuxXau sensL2.Remarque :siB=f;; g,L2( ;B; ) =fv:a:constantesg, et on a alorsE[XjB] =E[X]. Si On en déduit immédiatement la proposition suivante :

Proposition 4.

Si X2L2(

;A;P)alors

E[(XE[XjB])2] = infZ2L2(

;B;P)E[(XZ)2]:

On a p ourtoute variable alé atoireZ2L2(

;B;P)

E[ZE[XjB]] =E[ZX]

En particulier, pour toute fonction mesurable telle que (Y)est de carré intégrable,

E[ (Y)E[XjY]] =E[ (Y)X]

L"esp érancec onditionnelleE[XjB]est caractérisée parmi les variables deL2( ;B;P)par8B2 B;E[1BE[XjB]] =E[1BX]Ces propriétés suggèrent la définition dans le casL1.

2.B. Cas général.

J.-J. Ruch et M.-L. Chabanol

8Chapitre I. Espérance conditionnelle

Théorème 5.SoitBune sous-tribu deA, et soit une variable aléatoireX2L1( ;A;P). Il existe alors une unique variable aléatoire dansL1( ;mA;P),Bmesurable, notéeE[XjB], telle que

8B2 B;E[X1B] =E[E[XjB]1B]:

De manière équivalente on a, pour toute variable aléatoire,Z,B-mesurable et bornée

E[XZ] =E[E[XjB]Z]:

En particulier, siZ= 1on a

E[E[XjB]] =E[X]:L"espérance conditionnelle par rapport une tribu est caractérisée par l"une des deux propriétés ci-dessus.

L"équivalence entre les deux points est assez facile à voir. La premier point nous dit que l"on a le résultat

pour toutes les indicatricesB-mesurables. Donc par somme et passage à la limite, il est encore vrai pour

les fonctions étagées puis pour les fonctions bornées etB-mesurables. Pour la réciproque il suffit de poser

Z= 1B.

Ainsi, par exemple, pour démontrer un résultat du styleE[XjY] =U, une méthode est : On commence par v érifierque UestL1et est fonction deY

Puis on mon tre

8 mesurable bornée,E[X (Y)] =E[XU]

Démonstration.1. Existence

On a vu plus haut le cas oùX2L2(

;A;P): dans ce casE[XjB]est la projection orthogonale deXsur L 2( ;B;P), et on a bien l"existence. Passons maintenant au cas général, c"est-à-direX2L1( ;A;P). En posant classiquementX=X+X, il est clair que l"on peut se ramener au cas oùX0. Soit pourn2N,Xn=X^n. D"après ce qui

précède on peut prendre son espérance conditionnelle par rapport àB,Yn=E[XnjB]:D"autre part,Xn

tend simplement en croissant versX. Pour lesYnremarquons que0YnYn+1presque sûrement. Il

suffit pour cela de vérifier que siU0alors son espérance conditionnelle vérifieV=E[UjB]0. En effet,

par l"absurde : siP(V <0)>0alors il existe" >0tel queP(V <")>0. Or commefV <"g 2 Bon a

0E[U1V <"] =E[V1V <"] "

ce qui est impossible. PosonsY= limsupYnqui estBmesurable. Pour toutB2 Bon a :

E[Y1B] = limn!+1E[Yn1B]par convergence monotone

= lim n!+1E[Xn1B] =E[X1B]par convergence monotone.

2. Unicité. SoientYetY0deux variables aléatoires dansL1(

;A;P),B-mesurables, et telles que

8B2 B;E[Y1B] =E[X1B] =E[Y01B]:

CommeYetY0sontB-mesurables,B1=fY > Y0getB2=fY0> Ygle sont aussi. D"où on obtient

E[Y1B1] =E[Y01B1]etE[Y1B2] =E[Y01B2]

Donc, on en déduit(YY0)1B1= 0p.s. et(Y0Y)1B2= 0p.s. ce qui entraîne queY=Y0p.s.

Esp. cond.

3.Propriétés de l"espérance conditionnelle analogues à celles de l"espérance9

3. Propriétés de l"espérance conditionnelle analogues à celles de l"espérance

SoitXune variable aléatoire dansL1(

;A;P). On noteBune sous-tribu deA. -a)Pour tous réelsaetbet toute variable aléatoire réelleXintégrable,

E[aX+bjB] =aE[XjB] +b;

et pour toutes variables aléatoires réellesX1; X2intégrables

E[X1+X2jB] =E[X1jB] +E[X2jB]

-b)SiX1X2p.s. alorsE[X1jB]E[X2jB].Démonstration.Le pointa)est une conséquence de l"unicité de l"espérance conditionnelle.

Pour le dernier point, on commence par montrer que siX0alorsE[XjB]0:C"est un corollaire de la preuve précédente : siY=E[XjB]vérifieP(Y <0)>0, alorsE[Y1Y <0]<0; mais1Y <0estBmesurable, donc cette quantité est aussi égale àE[X1Y <0]qui est positive, d"où la contradiction. -c)SiXetXnsont des variables aléatoires positives dansL1( ;A;P)alors X n"X)E[XnjB]"E[XjB]: -d)SiXnsont des variables aléatoires positives, alors

E[liminfXnjB]liminfE[XnjB]

-e)SiXn!Xp.s. avec pour toutn,jXnj Z2L1( ;A;P), alors limE[XnjB] =E[XjB]: -f)Soitfune fonction continue et convexe etXune variable aléatoire réelle telle queXetf(X) sont intégrables, alors f(E[XjB])E[f(X)jB];

-g)En particulierjE[XjB]j E[jXjjB], et par conséquentE[jE[XjB]j]E[jXj].Démonstration.Pour le pointc): on poseY= limE[XnjB] = limsupE[XnjB](d"après la

croissance) qui estB-mesurable. On a pour toutB2 B

E[Y1B] = limE[E[XnjB]1B]par convergence monotone

= limE[Xn1B] =E[X1B]par convergence monotone Pour le pointd): On a d"après le résultat précédent

E[liminfXnjB] = limn!+1E[infknXkjB]

limn!+1infknE[XkjB] = liminfE[XnjB]:

Pour les derniers points (convergence dominée conditionnelle et inégalité de Jensen conditionnelle) il suffit

de reprendre les démonstrations faites dans le cas de l"espérance classique.

J.-J. Ruch et M.-L. Chabanol

10Chapitre I. Espérance conditionnelle

4. Propriétés spécifiques à l"espérance conditionnelle

-a)SiXest intégrable alorsE[XjB]l"est aussi etE[E[XjB]] =E[X]. -b)SiXest une variable aléatoire réelleB-mesurable alors

E[XjB] =Xp.s.

en particulierE[1jB] = 1. Donc si est une fonction mesurable telle que (Y)est intégrable,

E[ (Y)jY] = (Y).

-c)SoientXetZdeux variables aléatoires réelles intégrables telles queXZsoit aussi intégrable.

SupposonsZB-mesurable alors

E[XZjB] =ZE[XjB]p.s.;

En particulier si est une fonction mesurable telle que (Y)etX (Y)soient intégrables,

E[X (Y)jY] = (Y)E[XjY]

-d)SiB1etB2sont deux sous-tribus deAtelles queB1 B2alors

E[E[XjB1]jB2] =E[XjB1]etE[E[XjB2]jB1] =E[XjB1]:

-e)SoitBune sous-tribus deA. SiXest une variable aléatoire dansL1( ;A;P), telle que(X)et

Bsont indépendantes, alors

E[XjB] =E[X];

en particulier siXetYsont deux variables aléatoires réelles indépendantes telles queX2 L 1( ;A;P)alors

E[XjY] =E[X]

la réciproque de ce dernier point étant fausse.Démonstration.Les pointsa)etb)se déduisent de la définition.

LorsqueZest bornée, le pointc)se déduit de la définition de l"espérance conditionnelle et de son unicité.

Puis on applique la machine standard, qui montre que la propriété est vérifiée siZest une indicatrice,

ensuite une fonction en escalier positive, puis une fonction positiveB-mesurable et enfin une fonction,Z,

B-mesurable telle queXZsoit intégrable.

Le point suivant est laissé en exercice. Enfin pour le dernier point on a pour toutB2 B:

E[E[XjB]1B] =E[X1B] =E[X]E[1B] =E[E[X]1B]

d"où par unicité de l"espérance conditionnelle on obtient le résultat.

5. Calculs d"espérance conditionnelle, loi conditionnelle

B=f;; gest la tribu triviale. Une variable aléatoire réelle estB-mesurable si elle est constante sur . Dans ce cas,E[XjB]est l"unique variable aléatoire réelle constante sur et égale àE[X]. Best engendré par une partition finie ou dénombrable de (cela correspond au cas oùB=(Y) lorsqueYest une variable aléatoire discrète) On notefAi; i2Jg, avecJdénombrable, une partition de qui engendreB. On définitLcomme étant l"ensemble des indices dansJtels queP(Ai)>0. Alors on a

E[XjB] =X

i2LE[1AiX]P(Ai)1Ai: On retrouve bien la formule donnée au début du chapitre. En particulier siXetYsont toutes les deux discrètes, avecP(X=xk;Y=yl) =pkletP(Y=yl) =ql, on a

P(X=xkjY=yl) =pklq

l

Esp. cond.

5.Calculs d"espérance conditionnelle, loi conditionnelle11

Silest fixée, la loi de probabilité sur les(xk)donnée par(xk) =pklq lest appelée "loi conditionnelle de XsachantY=yl". On a ainsi une famille de lois de probabilité indexées par lesyl.

En particulier, si est une fonction bornée,

E[ (X)jY=yl] =X

k (xk)pklq l et

E[ (X)jY] =X

l1

Y=ylE[ (X)jY=yl]

On a alors

E[ (X)] =X

lP(Y=yl)E[ (X)jY=yl] Cas particulier d"une somme aléatoire de variables aléatoires.

Soit(Xi)i1une suite de variables aléatoires indépendantes intégrables identiquement distribuées.

SoitNune variable aléatoire à valeurs dansNindépendante desXi. On poseSN=NX i=1X i. Alors

E[SNjN] =NE[X1]. En effet on a pour tout entierk

E[SNjN=k] =E[SN1N=k]P(N=k)=E[(Pk

i=1Xi)1N=k]P(N=k)=kE[X1].

On en déduit entre autresE[SN] =E[N]E[X1]. On peut calculer de manière analogue la variance deSN.

En particulier, si lesXisont des variables de Bernoulli de paramètrep, on dira que la loi conditionnelle

deSNsachantNest une loi binomiale de paramètres(N;p). Best la tribu engendré par une variable aléatoire à densité à valeurs dansRd.

Pour simplifier les écritures on suppose queXetYsont des variables aléatoires à densité à valeurs

dansR, de couple à densité. On notef(X;Y)(x;y)la densité jointe et les densités marginalesfX(x) =Rf(X;Y)(x;y)dyetfY(y) =Rf(X;Y)(x;y)dx. On pose alors

f

XjY(xjy) =f(X;Y)(x;y)f

Y(y)1fY(y)6=0:

On a alors :

E[XjY](!) ='(Y)(!) =Z

R xf

XjY(xjY(!))dx:

f XjY(xjy)est appelée "densité conditionnelle deXsachantY=y" : sifY(y)6= 0,x7!fXjY(xjy)est

bien une densité. Ainsi on a une famille de densités (indexées pary). Cette famille de densités permet en

fait de définir la "loi conditionnelle deXsachantY" : en effet on a bien, si est une fonction borélienne

bornée, l"égalité presque sûre :

E[ (X)jY] =Z

R (x)fXjY(xjY)dx:

Réciproquement, si on connaît la densité deyet la loi conditionnelle deXsachantY=y, on retrouve la

densité du couple f (X;Y)(x;y) =fXjY(xjy)fY(y) Remarque: on peut vérifier queP(f!;fY(Y(!)) = 0)) =R f 1

Y(0)fY(y)dy= 0...

Exemple 1

Si(X;Y)est uniforme sur le disqueD(0;1), la loi deXsachantYest uniforme sur[p1Y2;p1Y2].

En effet, siy2[1:1],

f

XjY(xjy) =1D(x;y)f

Y(y)=1[p1y2;1+y2](x)f

Y(y).

Exemple 2

Si(X;Y)a pour densité2exp((x+y))10xy, on afY(y) = 2exp(y)(1exp(y))1y>0, donc8y >0, la loi deXsachantY=ya pour densité2exp(x)1exp(y)1[0;y](x).

Exemple important des vecteurs gaussiens

J.-J. Ruch et M.-L. Chabanol

12Chapitre I. Espérance conditionnelle

Soit(X1;X2)un vecteur gaussien de loiN(M;). Alors il existe des constantes réellesaetbtelles que X

1bX2est indépendant deX2et

E[X1jX2] =a+bX2.

En effet il suffit de choisirbtels que Cov(X1bX2;X2) = 0, c"est-à-dire Cov(X1;X2)bVar(X2) = 0.

PuisE[X1jX2] =E[X1bX2+bX2jX2] =E[X1bX2] +bX2.

Ainsi l"espérance conditionnelle d"une composante d"un vecteur gaussien par rapport à une autre

composante est une fonction linéaire de cette composante. Elle suit donc à nouveau une loi normale...

Esp. cond.

CHAPITRE II

Martingales

Biblio : Cottrell pour des rappels de cours rapides; Foata-Fuchs (Processus stochastiques) et Bercu

1. Introduction

Définition 1.Sous le nom deprocessus aléatoireouprocessus stochastiqueon entend un modèle

permettant d"étudier un phénomêne aléatoire évoluant au cours du temps. Pour le décrire, on se

donne : 1) un esp acepr obabilisé( ;A;P); 2) un esp acemesur able(E;B), oùEest appeléespace des étatsdu processus; 3) une famil le(Xt)t2Tde variables aléatoires définies sur( ;A;P)et à valeurs dansE.

L"ensembleTdes indicestest l"espace des temps.

Etant donné!2

, on appelletrajectoire du processus, l"applicationt7!Xt(!).

Pour!2

ett2T, la quantitéXt(!)est appeléeétat du processus à l"instantt.LorsqueTest discret on représente une trajectoire par une suite de points dans le plan.

On distingue plusieurs type de processus :

les processus à temps discretet lesprocessus à temps continusiTNet respectivement siT= [0;1] ouR;

les pro cessusà espace d"états fini, àespace d"états dénombrableou àespace d"états continu, siEest

fini, dénombrable ou respectivement continu.

Dans la suite sauf exception on ne considérera que des processus à temps discret c"est-à-dire une suite

X

0;X1;X2;:::de variables aléatoires sur(

;A;P)à valeurs dans(E;B). SiEest fini ou dénombrable ces variables aléatoires sont forcément discrètes.

Définition 2.Unefiltrationde(

;A;P)est une suite croissante(Fn)n2Nde sous-tribus deA. On dit alors que(

;A;(Fn)n2N;P)est unespace probabilisé filtré.On définit souvent pour un filtration la tribuF1parF1=f;;

g. Définition 3.Un processus(Xn)n2Nestadaptéà la filtration(Fn)n2Nsi pour toutn2N,Xnest mesurable par rapport à la tribuFn.

Soit(Xn)n2Nun processus sur(

;A;P). On définitFXncomme étant la plus petite tribu rendant les variables aléatoiresX0;:::;Xnmesurables : F

Xn=(X0;:::;Xn):

Alors(FXn)n2Nest une filtration appeléefiltration canoniquedu processus aléatoire(Xn)n2N.D"après la définition, si(Xn)n2Nestadaptéà la filtration(Fn)n2N, alorsXnmesurable par rapport à la

tribuFmpourmn.

La filtration canonique est par construction la plus petite filtration qui rende le processus adapté.

Donnons deux exemples de processus, que nous étudierons plus en détails. 13

14Chapitre II. Martingales

Un processus aléatoire(Xn)n2Nadapté à la filtration(Fn)n2Ntel que chaqueXnest intégrable et

E(Xn+1jFn) =Xnp.s.

est appelé unemartingale. Un processus aléatoire(Xn)n2Nà valeurs dans(E;B)est unechaîne de Markovsi pour toutn2Net toutB2 Bon a

P(Xn+12BjX0;:::;Xn) =P(Xn+12BjXn):

Cela signifie que si l"on connaît la positionXndu processus à l"instantnet si on veut prédire sa position

X n+1, la connaissance de ce qui c"est passé avant l"instantnn"apporte aucun renseignement utile.

2. Définition des martingales

On se fixe, pour toute la suite, un espace probabilisé filtré( ;A;(Fn)n0;P). Définition 4.Un processus stochastique(Xn)n0est unemartingalepar rapport à la filtration (Fn)n0si : (1)E[jXnj]<+1(ieXnest intégrable); (2)(Xn)n0est adapté à la filtration(Fn)n0;

(3)E[Xn+1jFn] =Xnp.s..Lorsqu"on ne précise pas la filtration, on suppose que l"on a pris la filtration canonique ou naturelle. On

dira que(Xn)n0est une martingale par rapport au processus(Yn)n0, si on a choisiFn=(Y0;:::;Yn).

On peut remarquer que, par définition de l"espérance conditionnelle la dernière propriété est équivalente

8A2 Fn;E[1AXn+1] =E[1AXn];

ou encore à

E[(Xn+1Xn)jFn] = 0:

Historiquement, les martingales ont été introduites en lien avec les jeux de hasard;Xnreprésentait alors

la fortune du joueur à lan-ième partie, et la condition de martingale exprimait le fait que le jeu était

équilibré.Exemples

quotesdbs_dbs14.pdfusesText_20
[PDF] esperance conditionnelle exercices corrigés pdf

[PDF] espérance conditionnelle par rapport à une tribu

[PDF] espérance conditionnelle par rapport à une variable

[PDF] espérance conditionnelle pdf

[PDF] espérance conditionnelle vecteur gaussien

[PDF] espérance d un mouvement brownien géométrique

[PDF] espérance d une matrice

[PDF] espérance d une somme de variables aléatoires

[PDF] espérance d utilité et utilité espérée

[PDF] espérance d'une fonction de densité

[PDF] espérance d'une somme de variables aléatoires

[PDF] espérance du maximum de deux variables aléatoires

[PDF] espérance et variance formule

[PDF] espérance excel

[PDF] espérance loi binomiale