B Cas général 7 3 Propriétés de l'espérance conditionnelle analogues à celles de l'espérance Le point suivant est laissé en exercice Enfin pour le dernier
Previous PDF | Next PDF |
[PDF] Espérance conditionnelle & Chaînes de Markov - Laboratoire de
Corrigé Arnaud Guyader - Rennes 2 Espérance conditionnelle Chaînes de Exercices 31 Exercice 1 5 (Memento) 1 On dit que la variable aléatoire
[PDF] TD 5 : Espérance conditionnelle Corrigé
TD 5 : Espérance conditionnelle Corrigé Lundi 17 Octobre Exercice 1 (Petits contre-exemples) Soient X et Y deux variables aléatoires réelles sur (Ω, ¿, P), et
[PDF] TD 5 : Espérance conditionnelle Corrigé
Exercice 7 (Espérance conditionnelle et positivité) Soit X une variable aléatoire positive sur (Ω, F, P) et G une sous-tribu de F Montrer que {E [XG] > 0]} est le plus
[PDF] ENS Lyon Mathématiques M1 Probabilités Feuille dexercices
Exercice 3 Espérance conditionnelle et indépendance Soient X et Y deux variables aléatoires telles que X, Y et XY soient dans L1(Ω, F, P) Montrer que (1) ⇒ (2)
[PDF] Éléments de corrigé du DM no 2
Éléments de corrigé du DM no 2 Exercice 1 Soit un À l'aide de la définition de l'espérance conditionnelle (et en veillant à une bonne rédaction), démontrer
[PDF] TD Master 2 – Martingales et calcul stochastique
Corrigé des exercices du chapitre 3 – Espérance conditionnelle Exercice 3 1 Dans une expérience consistant `a jeter deux tétra`edres parfaitement
[PDF] TD Espérance Conditionnelle - Corrigé - Institut de Mathématiques
TD Espérance Conditionnelle - Corrigé Exercice Dans cet exercice, les v a formule vue en cours pour le calcul de l'espérance conditionnelle, par exemple
[PDF] ESPÉRANCE CONDITIONNELLE MARTINGALES - Institut de
B Cas général 7 3 Propriétés de l'espérance conditionnelle analogues à celles de l'espérance Le point suivant est laissé en exercice Enfin pour le dernier
[PDF] TD7 Indépendance Espérance conditionnelle Vecteurs Gaussiens
Exercice 1: Convergence en loi et convergence des fonctions de répartition Soit (Xn)n≥0 et X des v a r définies sur (Ω, Л,P) Soit Fn la fonction de répartition de
[PDF] Espérance conditionnelle et indépendance Exercices
25 fév 2004 · (V 3) Va G R, VarP [aX + b] = a2VarP [X] Exercice 3 3 Montrez que pour toutes variables aléatoires X et Y et pour tous nombres réels a et b (C1)
[PDF] espérance conditionnelle par rapport à une tribu
[PDF] espérance conditionnelle par rapport à une variable
[PDF] espérance conditionnelle pdf
[PDF] espérance conditionnelle vecteur gaussien
[PDF] espérance d un mouvement brownien géométrique
[PDF] espérance d une matrice
[PDF] espérance d une somme de variables aléatoires
[PDF] espérance d utilité et utilité espérée
[PDF] espérance d'une fonction de densité
[PDF] espérance d'une somme de variables aléatoires
[PDF] espérance du maximum de deux variables aléatoires
[PDF] espérance et variance formule
[PDF] espérance excel
[PDF] espérance loi binomiale
ESPÉRANCE CONDITIONNELLE
MARTINGALES
Préparation à l"Agrégation Bordeaux 1
Année 2013 - 2014
Jean-Jacques Ruch et Marie-Line Chabanol
Table des Matières
Chapitre I. Espérance conditionnelle5
1. Introduction5
2. Définition de l"espérance conditionnelle 7
2.A. Cas particulier des variables aléatoires de carré intégrable 7
2.B. Cas général7
3. Propriétés de l"espérance conditionnelle analogues à celles de l"espérance 9
4. Propriétés spécifiques à l"espérance conditionnelle 10
5. Calculs d"espérance conditionnelle, loi conditionnelle 10
Chapitre II. Martingales13
1. Introduction13
2. Définition des martingales 14
3. Surmartingale et sous-martingale 15
4. Temps d"arrêt16
5. Propriétés des martingales par rapport aux temps d"arrêts 17
6. Théorèmes d"arrêt18
7. Inégalités maximales19
8. Convergence des martingales 21
9. Convergence des martingalesL224
10. Complément : convergence dansL125
3CHAPITRE I
Espérance conditionnelle
1. Introduction
Pour de nombreux problèmes concrets (prédiction, observation incomplète, etc.) il est important de
pouvoir estimer une variable aléatoire sur laquelle on n"a qu"une information partielle. Dès lors, on
comprend l"importance de la notion d"espérance conditionnelle. La définition axiomatique de cette notion
est motivée par le cas discret traité dans le premier paragraphe. Le calcul explicite des espérances
conditionnelles, qui est en général un problème difficile, est illustré sur plusieurs cas, dont le cas gaussien
particulièrement important pour les applications.On note(
;A;P)un espace probabilisé. SoitB2 Aun événement tel queP(B)>0. On peut définir une nouvelle probabilité sur( ;A), appeléeprobabilité conditionnellesachantB, en posant pour toutA2 A,P(AjB) =P(A\B)P(B)=E[1A1B]P(B)
De même, pour toute variable aléatoireXpositive ou dansL1( ;A;P), l"espérance conditionnelledeX sachantBest définie parE[XjB] =E[X1B]P(B):
Cette quantité est aussi l"espérance deXsous la probabilitéP(jB), et elle s"interprète comme la valeur
moyenne deXquandBest réalisé. En particulier, siXest discrète, on obtient (de façon assez conforme à l"intuition?)E[XjB] =X
kx kP(X=xkjB)Considérons maintenant une variable aléatoireYà valeurs dans un espaceEdénombrable et soity2E
tel queP(Y=y)>0. Pour toute variable aléatoireX2L1( ;A;P)on peut définir, comme un cas particulier de ce qui précède,E[XjY=y] =E[X1Y=y]P(Y=y):
Définition 1.SoitX2L1(
;A;P)etYune variable aléatoire discrète sur . L"espérance condition- nelle deXsachantYest la variable aléatoire réelle définie parE[XjY] ='(Y);
où la fonction':E!Rest donnée par '(y) =E[XjY=y]siyest tel queP(Y=y)>00sinon
En particulier siXest également discrète,E[XjY=y] =PkxkP(X=xkjY=y).Le choix de la valeur de'lorsqueP(Y=y) = 0n"a pas d"importance, puisque c"est un ensemble de
probabilité nulle. En effet si on noteE0=fy2EjP(Y=y) = 0galorsP(Y2E0) =X
y2E0P(Y=y) = 0: 56Chapitre I. Espérance conditionnelle
Donc, si on changeait la définition de'surE0cela donnerait la même variable aléatoireE[XjY]à un
ensemble de mesure nulle près.Dans le cas général, l"espérance conditionnelle sera toujours définie à un ensemble de probabilité nulle
près. En comparant avec le conditionnement par rapport à un événement, on observe que l"espérance
conditionnelleE[XjY]est maintenant une variable aléatoire : c"est la variable aléatoire qui donne la
valeur moyenne deXquand on connaitY: on a presque sûrementE[XjY](!) =E[XjY=y];siY(!) =y:
On a donc aussi les écritures suivantes, avec plus ou moins d"abus de langage... : LorsqueYest une variable discrète à valeurs dansEE[XjY](!) =X
y2E1Y1(fyg)(!)E[XjY=y] =X
y2E1Y(!)=yE[XjY=y] =E[XjY=Y(!)]:Remarquons queE[XjY]est une fonction deY(puisqu"elle ne dépend de!que par la valeurY(!))
donc une variable aléatoire(Y)-mesurable. Dans un sens qui sera précisé plus loin, c"est la meilleure
approximation deXpar une fonction deY.Exemple :Lancer d"un dé. On prend
=f1;2;:::;6getP(f!g) = 1=6pour tout!. SoientY(!) =1si!est impair
0si!est pair
etX(!) =!:Alors,E[XjY](!) =3si!2 f1;3;5g
4si!2 f2;4;6g:
Ou encore
E[XjY] = 31Y=1+ 41Y=0
Proposition 2.SoitX2L1(
;A;P). On aE[jE[XjY]j]E[jXj];
en particulierE[XjY]2L1( ;A;P). De plus pour toute variable aléatoireZbornée et(Y)-mesurableE[ZE[XjY]] =E[ZX]:
en particulierE[E[XjY]] =E[X].Démonstration.D"après la définition de l"espérance conditionnelleE[XjY], on a
E[jE[XjY]j] =X
y2EnE0P(Y=y)jE[XjY=y]j X y2EnE0P(Y=y)E[X1Y=y]P(Y=y) X y2EE[jXj1Y=y] =E[jXj]:Pour la deuxième assertion, on utilise le fait qu"on peut écrireZ= (Y), avec une fonction bornée.
Alors,
E[ (Y)E[XjY]] =X
y2EnE0P(Y=y) (y)E[XjY=y] =X y2EnE0P(Y=y) (y)E[X1Y=y]P(Y=y) X y2EnE0 (y)E[X1Y=y] =X y2EnE0E[ (y)X1Y=y] X y2EnE0E[ (Y)X1Y=y] =E2 4 X y2EnE0 (Y)1Y=yX3 5 =E[ (Y)X]Esp. cond.
2.Définition de l"espérance conditionnelle7
Enfin, on peut vérifier que siY0est une autre variable aléatoire discrète telle que(Y) =(Y0), on a
E[XjY] =E[XjY0]p.s.
Ceci suggère que la bonne notion de conditionnement est la notion de conditionnement par rapport à une
tribu. C"est cette notion que nous allons développer dans la suite.2. Définition de l"espérance conditionnelle
2.A. Cas particulier des variables aléatoires de carré intégrable.SiYest discrète, on peut
vérifier que la définition précédente entraine que siXest de carré intégrable, alorsE[XjY]aussi; de plus
la proposition précédente entraine alors que(E[XjY]X)est orthogonal (au sensL2) à toute variable
aléatoireZbornée(Y)mesurable.Cela suggère une généralisation de la définition lorsqueYn"est pas forcément discrète en terme de
projection orthogonale. Avant d"énoncer le résultat, rappelons que siBest une sous-tribu deAalorsL2( ;B;P)s"identifie à un sous-espace fermé deL2( ;A;P), à savoir l"espace des éléments deL2( ;A;P)dont un représentant au moins estB-mesurable.Définition 3.SiX2L2(
;A;P)et siBest une sous tribu deAalorsE[XjB]est la projection orthogonale deXsurL2( ;B;P). En particulierE[XjB]2L2( ;B;P).SiYest une variable aléatoire, on noteE[XjY] =E[Xj(Y)]: c"est la variable aléatoire fonction de
Yqui approche le mieuxXau sensL2.Remarque :siB=f;; g,L2( ;B; ) =fv:a:constantesg, et on a alorsE[XjB] =E[X]. Si On en déduit immédiatement la proposition suivante :Proposition 4.
Si X2L2(
;A;P)alorsE[(XE[XjB])2] = infZ2L2(
;B;P)E[(XZ)2]:On a p ourtoute variable alé atoireZ2L2(
;B;P)E[ZE[XjB]] =E[ZX]
En particulier, pour toute fonction mesurable telle que (Y)est de carré intégrable,E[ (Y)E[XjY]] =E[ (Y)X]
L"esp érancec onditionnelleE[XjB]est caractérisée parmi les variables deL2( ;B;P)par8B2 B;E[1BE[XjB]] =E[1BX]Ces propriétés suggèrent la définition dans le casL1.2.B. Cas général.
J.-J. Ruch et M.-L. Chabanol
8Chapitre I. Espérance conditionnelle
Théorème 5.SoitBune sous-tribu deA, et soit une variable aléatoireX2L1( ;A;P). Il existe alors une unique variable aléatoire dansL1( ;mA;P),Bmesurable, notéeE[XjB], telle que8B2 B;E[X1B] =E[E[XjB]1B]:
De manière équivalente on a, pour toute variable aléatoire,Z,B-mesurable et bornéeE[XZ] =E[E[XjB]Z]:
En particulier, siZ= 1on a
E[E[XjB]] =E[X]:L"espérance conditionnelle par rapport une tribu est caractérisée par l"une des deux propriétés ci-dessus.
L"équivalence entre les deux points est assez facile à voir. La premier point nous dit que l"on a le résultat
pour toutes les indicatricesB-mesurables. Donc par somme et passage à la limite, il est encore vrai pour
les fonctions étagées puis pour les fonctions bornées etB-mesurables. Pour la réciproque il suffit de poser
Z= 1B.
Ainsi, par exemple, pour démontrer un résultat du styleE[XjY] =U, une méthode est : On commence par v érifierque UestL1et est fonction deYPuis on mon tre
8 mesurable bornée,E[X (Y)] =E[XU]
Démonstration.1. Existence
On a vu plus haut le cas oùX2L2(
;A;P): dans ce casE[XjB]est la projection orthogonale deXsur L 2( ;B;P), et on a bien l"existence. Passons maintenant au cas général, c"est-à-direX2L1( ;A;P). En posant classiquementX=X+X, il est clair que l"on peut se ramener au cas oùX0. Soit pourn2N,Xn=X^n. D"après ce quiprécède on peut prendre son espérance conditionnelle par rapport àB,Yn=E[XnjB]:D"autre part,Xn
tend simplement en croissant versX. Pour lesYnremarquons que0YnYn+1presque sûrement. Ilsuffit pour cela de vérifier que siU0alors son espérance conditionnelle vérifieV=E[UjB]0. En effet,
par l"absurde : siP(V <0)>0alors il existe" >0tel queP(V <")>0. Or commefV <"g 2 Bon a0E[U1V <"] =E[V1V <"] "
ce qui est impossible. PosonsY= limsupYnqui estBmesurable. Pour toutB2 Bon a :E[Y1B] = limn!+1E[Yn1B]par convergence monotone
= lim n!+1E[Xn1B] =E[X1B]par convergence monotone.2. Unicité. SoientYetY0deux variables aléatoires dansL1(
;A;P),B-mesurables, et telles que8B2 B;E[Y1B] =E[X1B] =E[Y01B]:
CommeYetY0sontB-mesurables,B1=fY > Y0getB2=fY0> Ygle sont aussi. D"où on obtientE[Y1B1] =E[Y01B1]etE[Y1B2] =E[Y01B2]
Donc, on en déduit(YY0)1B1= 0p.s. et(Y0Y)1B2= 0p.s. ce qui entraîne queY=Y0p.s.Esp. cond.
3.Propriétés de l"espérance conditionnelle analogues à celles de l"espérance9
3. Propriétés de l"espérance conditionnelle analogues à celles de l"espérance
SoitXune variable aléatoire dansL1(
;A;P). On noteBune sous-tribu deA. -a)Pour tous réelsaetbet toute variable aléatoire réelleXintégrable,E[aX+bjB] =aE[XjB] +b;
et pour toutes variables aléatoires réellesX1; X2intégrablesE[X1+X2jB] =E[X1jB] +E[X2jB]
-b)SiX1X2p.s. alorsE[X1jB]E[X2jB].Démonstration.Le pointa)est une conséquence de l"unicité de l"espérance conditionnelle.
Pour le dernier point, on commence par montrer que siX0alorsE[XjB]0:C"est un corollaire de la preuve précédente : siY=E[XjB]vérifieP(Y <0)>0, alorsE[Y1Y <0]<0; mais1Y <0estBmesurable, donc cette quantité est aussi égale àE[X1Y <0]qui est positive, d"où la contradiction. -c)SiXetXnsont des variables aléatoires positives dansL1( ;A;P)alors X n"X)E[XnjB]"E[XjB]: -d)SiXnsont des variables aléatoires positives, alorsE[liminfXnjB]liminfE[XnjB]
-e)SiXn!Xp.s. avec pour toutn,jXnj Z2L1( ;A;P), alors limE[XnjB] =E[XjB]: -f)Soitfune fonction continue et convexe etXune variable aléatoire réelle telle queXetf(X) sont intégrables, alors f(E[XjB])E[f(X)jB];-g)En particulierjE[XjB]j E[jXjjB], et par conséquentE[jE[XjB]j]E[jXj].Démonstration.Pour le pointc): on poseY= limE[XnjB] = limsupE[XnjB](d"après la
croissance) qui estB-mesurable. On a pour toutB2 BE[Y1B] = limE[E[XnjB]1B]par convergence monotone
= limE[Xn1B] =E[X1B]par convergence monotone Pour le pointd): On a d"après le résultat précédentE[liminfXnjB] = limn!+1E[infknXkjB]
limn!+1infknE[XkjB] = liminfE[XnjB]:Pour les derniers points (convergence dominée conditionnelle et inégalité de Jensen conditionnelle) il suffit
de reprendre les démonstrations faites dans le cas de l"espérance classique.J.-J. Ruch et M.-L. Chabanol
10Chapitre I. Espérance conditionnelle
4. Propriétés spécifiques à l"espérance conditionnelle
-a)SiXest intégrable alorsE[XjB]l"est aussi etE[E[XjB]] =E[X]. -b)SiXest une variable aléatoire réelleB-mesurable alorsE[XjB] =Xp.s.
en particulierE[1jB] = 1. Donc si est une fonction mesurable telle que (Y)est intégrable,E[ (Y)jY] = (Y).
-c)SoientXetZdeux variables aléatoires réelles intégrables telles queXZsoit aussi intégrable.
SupposonsZB-mesurable alors
E[XZjB] =ZE[XjB]p.s.;
En particulier si est une fonction mesurable telle que (Y)etX (Y)soient intégrables,E[X (Y)jY] = (Y)E[XjY]
-d)SiB1etB2sont deux sous-tribus deAtelles queB1 B2alorsE[E[XjB1]jB2] =E[XjB1]etE[E[XjB2]jB1] =E[XjB1]:
-e)SoitBune sous-tribus deA. SiXest une variable aléatoire dansL1( ;A;P), telle que(X)etBsont indépendantes, alors
E[XjB] =E[X];
en particulier siXetYsont deux variables aléatoires réelles indépendantes telles queX2 L 1( ;A;P)alorsE[XjY] =E[X]
la réciproque de ce dernier point étant fausse.Démonstration.Les pointsa)etb)se déduisent de la définition.
LorsqueZest bornée, le pointc)se déduit de la définition de l"espérance conditionnelle et de son unicité.
Puis on applique la machine standard, qui montre que la propriété est vérifiée siZest une indicatrice,
ensuite une fonction en escalier positive, puis une fonction positiveB-mesurable et enfin une fonction,Z,
B-mesurable telle queXZsoit intégrable.
Le point suivant est laissé en exercice. Enfin pour le dernier point on a pour toutB2 B:E[E[XjB]1B] =E[X1B] =E[X]E[1B] =E[E[X]1B]
d"où par unicité de l"espérance conditionnelle on obtient le résultat.5. Calculs d"espérance conditionnelle, loi conditionnelle
B=f;; gest la tribu triviale. Une variable aléatoire réelle estB-mesurable si elle est constante sur . Dans ce cas,E[XjB]est l"unique variable aléatoire réelle constante sur et égale àE[X]. Best engendré par une partition finie ou dénombrable de (cela correspond au cas oùB=(Y) lorsqueYest une variable aléatoire discrète) On notefAi; i2Jg, avecJdénombrable, une partition de qui engendreB. On définitLcomme étant l"ensemble des indices dansJtels queP(Ai)>0. Alors on aE[XjB] =X
i2LE[1AiX]P(Ai)1Ai: On retrouve bien la formule donnée au début du chapitre. En particulier siXetYsont toutes les deux discrètes, avecP(X=xk;Y=yl) =pkletP(Y=yl) =ql, on aP(X=xkjY=yl) =pklq
lEsp. cond.
5.Calculs d"espérance conditionnelle, loi conditionnelle11
Silest fixée, la loi de probabilité sur les(xk)donnée par(xk) =pklq lest appelée "loi conditionnelle de XsachantY=yl". On a ainsi une famille de lois de probabilité indexées par lesyl.En particulier, si est une fonction bornée,
E[ (X)jY=yl] =X
k (xk)pklq l etE[ (X)jY] =X
l1Y=ylE[ (X)jY=yl]
On a alors
E[ (X)] =X
lP(Y=yl)E[ (X)jY=yl] Cas particulier d"une somme aléatoire de variables aléatoires.Soit(Xi)i1une suite de variables aléatoires indépendantes intégrables identiquement distribuées.
SoitNune variable aléatoire à valeurs dansNindépendante desXi. On poseSN=NX i=1X i. AlorsE[SNjN] =NE[X1]. En effet on a pour tout entierk
E[SNjN=k] =E[SN1N=k]P(N=k)=E[(Pk
i=1Xi)1N=k]P(N=k)=kE[X1].On en déduit entre autresE[SN] =E[N]E[X1]. On peut calculer de manière analogue la variance deSN.
En particulier, si lesXisont des variables de Bernoulli de paramètrep, on dira que la loi conditionnelle
deSNsachantNest une loi binomiale de paramètres(N;p). Best la tribu engendré par une variable aléatoire à densité à valeurs dansRd.Pour simplifier les écritures on suppose queXetYsont des variables aléatoires à densité à valeurs
dansR, de couple à densité. On notef(X;Y)(x;y)la densité jointe et les densités marginalesfX(x) =Rf(X;Y)(x;y)dyetfY(y) =Rf(X;Y)(x;y)dx. On pose alors
fXjY(xjy) =f(X;Y)(x;y)f
Y(y)1fY(y)6=0:
On a alors :
E[XjY](!) ='(Y)(!) =Z
R xfXjY(xjY(!))dx:
f XjY(xjy)est appelée "densité conditionnelle deXsachantY=y" : sifY(y)6= 0,x7!fXjY(xjy)estbien une densité. Ainsi on a une famille de densités (indexées pary). Cette famille de densités permet en
fait de définir la "loi conditionnelle deXsachantY" : en effet on a bien, si est une fonction borélienne
bornée, l"égalité presque sûre :E[ (X)jY] =Z
R (x)fXjY(xjY)dx:Réciproquement, si on connaît la densité deyet la loi conditionnelle deXsachantY=y, on retrouve la
densité du couple f (X;Y)(x;y) =fXjY(xjy)fY(y) Remarque: on peut vérifier queP(f!;fY(Y(!)) = 0)) =R f 1Y(0)fY(y)dy= 0...
Exemple 1
Si(X;Y)est uniforme sur le disqueD(0;1), la loi deXsachantYest uniforme sur[p1Y2;p1Y2].En effet, siy2[1:1],
fXjY(xjy) =1D(x;y)f
Y(y)=1[p1y2;1+y2](x)f
Y(y).Exemple 2
Si(X;Y)a pour densité2exp((x+y))10xy, on afY(y) = 2exp(y)(1exp(y))1y>0, donc8y >0, la loi deXsachantY=ya pour densité2exp(x)1exp(y)1[0;y](x).Exemple important des vecteurs gaussiens
J.-J. Ruch et M.-L. Chabanol
12Chapitre I. Espérance conditionnelle
Soit(X1;X2)un vecteur gaussien de loiN(M;). Alors il existe des constantes réellesaetbtelles que X1bX2est indépendant deX2et
E[X1jX2] =a+bX2.
En effet il suffit de choisirbtels que Cov(X1bX2;X2) = 0, c"est-à-dire Cov(X1;X2)bVar(X2) = 0.PuisE[X1jX2] =E[X1bX2+bX2jX2] =E[X1bX2] +bX2.
Ainsi l"espérance conditionnelle d"une composante d"un vecteur gaussien par rapport à une autre
composante est une fonction linéaire de cette composante. Elle suit donc à nouveau une loi normale...
Esp. cond.
CHAPITRE II
Martingales
Biblio : Cottrell pour des rappels de cours rapides; Foata-Fuchs (Processus stochastiques) et Bercu1. Introduction
Définition 1.Sous le nom deprocessus aléatoireouprocessus stochastiqueon entend un modèlepermettant d"étudier un phénomêne aléatoire évoluant au cours du temps. Pour le décrire, on se
donne : 1) un esp acepr obabilisé( ;A;P); 2) un esp acemesur able(E;B), oùEest appeléespace des étatsdu processus; 3) une famil le(Xt)t2Tde variables aléatoires définies sur( ;A;P)et à valeurs dansE.L"ensembleTdes indicestest l"espace des temps.
Etant donné!2
, on appelletrajectoire du processus, l"applicationt7!Xt(!).Pour!2
ett2T, la quantitéXt(!)est appeléeétat du processus à l"instantt.LorsqueTest discret on représente une trajectoire par une suite de points dans le plan.
On distingue plusieurs type de processus :
les processus à temps discretet lesprocessus à temps continusiTNet respectivement siT= [0;1] ouR;les pro cessusà espace d"états fini, àespace d"états dénombrableou àespace d"états continu, siEest
fini, dénombrable ou respectivement continu.Dans la suite sauf exception on ne considérera que des processus à temps discret c"est-à-dire une suite
X0;X1;X2;:::de variables aléatoires sur(
;A;P)à valeurs dans(E;B). SiEest fini ou dénombrable ces variables aléatoires sont forcément discrètes.Définition 2.Unefiltrationde(
;A;P)est une suite croissante(Fn)n2Nde sous-tribus deA. On dit alors que(;A;(Fn)n2N;P)est unespace probabilisé filtré.On définit souvent pour un filtration la tribuF1parF1=f;;
g. Définition 3.Un processus(Xn)n2Nestadaptéà la filtration(Fn)n2Nsi pour toutn2N,Xnest mesurable par rapport à la tribuFn.Soit(Xn)n2Nun processus sur(
;A;P). On définitFXncomme étant la plus petite tribu rendant les variables aléatoiresX0;:::;Xnmesurables : FXn=(X0;:::;Xn):
Alors(FXn)n2Nest une filtration appeléefiltration canoniquedu processus aléatoire(Xn)n2N.D"après la définition, si(Xn)n2Nestadaptéà la filtration(Fn)n2N, alorsXnmesurable par rapport à la
tribuFmpourmn.La filtration canonique est par construction la plus petite filtration qui rende le processus adapté.
Donnons deux exemples de processus, que nous étudierons plus en détails. 1314Chapitre II. Martingales
Un processus aléatoire(Xn)n2Nadapté à la filtration(Fn)n2Ntel que chaqueXnest intégrable et
E(Xn+1jFn) =Xnp.s.
est appelé unemartingale. Un processus aléatoire(Xn)n2Nà valeurs dans(E;B)est unechaîne de Markovsi pour toutn2Net toutB2 Bon aP(Xn+12BjX0;:::;Xn) =P(Xn+12BjXn):
Cela signifie que si l"on connaît la positionXndu processus à l"instantnet si on veut prédire sa position
X n+1, la connaissance de ce qui c"est passé avant l"instantnn"apporte aucun renseignement utile.2. Définition des martingales
On se fixe, pour toute la suite, un espace probabilisé filtré( ;A;(Fn)n0;P). Définition 4.Un processus stochastique(Xn)n0est unemartingalepar rapport à la filtration (Fn)n0si : (1)E[jXnj]<+1(ieXnest intégrable); (2)(Xn)n0est adapté à la filtration(Fn)n0;(3)E[Xn+1jFn] =Xnp.s..Lorsqu"on ne précise pas la filtration, on suppose que l"on a pris la filtration canonique ou naturelle. On
dira que(Xn)n0est une martingale par rapport au processus(Yn)n0, si on a choisiFn=(Y0;:::;Yn).On peut remarquer que, par définition de l"espérance conditionnelle la dernière propriété est équivalente
8A2 Fn;E[1AXn+1] =E[1AXn];
ou encore àE[(Xn+1Xn)jFn] = 0:
Historiquement, les martingales ont été introduites en lien avec les jeux de hasard;Xnreprésentait alors
la fortune du joueur à lan-ième partie, et la condition de martingale exprimait le fait que le jeu était