PDFprof.com Search Engine



Introduction aux processus stochastiques Notes de cours

PDF
Images
List Docs
:

Introduction aux processus stochastiques Notes de cours
Processus stochastiques
INTRODUCTION AU CALCUL STOCHASTIQUE
NOTES DU COURS PROCESSUS STOCHASTIQUES
Processus stochastiques
MASTER 1 de MATHEMATIQUES
Les processus stochastiques
Processus stochastiques
Processus stochastiques modélisation
Code de procédure civile
Code de procédure civilepdf
Next PDF List

Introduction aux processus stochastiquesNotes de coursNicolas Chopin2Table des matières1 Introduction 71.

1) Processus stochastiques : définition . . . . . . . . . . . . . . . . . 71. 2) Rappels sur l"espérance conditionnelle . . . . . . . . . . . . . . . 92 Chaînes de Markov 132. 1) Construction et définitions . . . . . . . . . . . . . . . . . . . . . . 132. 2) Propriétés élémentaires . . . . . . . . . . . . . . . . . . . . . . . . 152. 3) Propriété de Markov forte . . . . . . . . . . . . . . . . . . . . . . 192. 4) Classes d"états . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212. 5) Opérateur potentiel et nature des classes d"états . . . . . . . . . 222. 6) Théorèmes ergodiques . . . . . . . . . . . . . . . . . . . . . . . . 272. 7) Périodicité, convergence des lois marginales . . . . . . . . . . . . 342. 8) Réversibilité, algorithme de Metropolis-Hastings . . . . . . . . . 372. 9) Extension à un espace d"états continu . . . . . . . . . . . . . . . 403 Martingales 433. 1) Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433. 2) Temps d"arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463. 3) Théorème d"arrêt : le cas borné . . . . . . . . . . . . . . . . . . . 523. 4) Décomposition de Doob . . . . . . . . . . . . . . . . . . . . . . . 543. 5) Inégalités maximales . . . . . . . . . . . . . . . . . . . . . . . . . 553. 6) Convergence dansL2(et plus généralementLp,p >1) . . . . . . 593. 7) Interlude : urnes de Polya . . . . . . . . . . . . . . . . . . . . . . 623. 8) Convergence : résultats plus généraux . . . . . . . . . . . . . . . 643.

9) Deuxième interlude : processus de branchement (Galton-Watson) 663.10 Martingales régulières et théorème d"arrêt . . . . . . . . . . . . . 684 Processus en temps continu 714.

1) Processus ponctuels, processus de Poisson . . . . . . . . . . . . . 714.1. 1) Préliminaires : loi de Poisson . . . . . . . . . . . . . . . . 714.1. 2) Les processus de Poisson comme processus ponctuels . . . 724.1. 3) CasE=R+. . . . . . . . . . . . . . . . . . . . . . . . . 754.1. 4) Généralisation aux processus Markovien en temps discret 764. 2) Mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . . 7734TABLE DES MATIÈRES4.2. 1) Processus gaussiens . . . . . . . . . . . . . . . . . . . . . 774.2. 2) Mouvement brownien . . . . . . . . . . . . . . . . . . . . 784.2.

3) Processus markovien en temps continu . . . . . . . . . . . 79TABLE DES MATIÈRES5La première version de ces notes du cours d"introduction aux processus(deuxième année de l"ENSAE) est due à Pierre Alquier, qui a enseigné cettematière avant moi.

Un grand merci à lui, ainsi qu"à ses prédécesseurs (EricGautier notamment).

Depuis cette première version, le poly a été beaucoup re-manié; n"hésitez pas à me signaler toute erreur ou faute de frappe qui m"auraitéchappé.Quelques références pour aller plus loin : Le livre de Brémaud (1999) a unpoint de vue très mathématique.

A l"inverse, le livre de Lawler (2006) offre unpanorama assez complet tout en gardant un niveau de formalisme assez faible :c"est idéal pour se forger une intuition sur le sujet.

Enfin, le livre de Baldi et al.(2002) est une compilation d"exercices assez utile pour réviser (même si ils sonten général assez difficiles).

Il contient également de brefs rappels de cours assezutiles (et sur lesquels beaucoup des preuves de ce poly sont basées).

6) TABLE DES MATIÈRESChapitre 1Introduction1.

1) Processus stochastiques : définitionDans tout le cours, on considèrera un espace probabilisé(Ω,F,P), un espacemesurable(E,E)et un ensembleT.Définition 1.1.1.On appelle processus stochastique, ou processus aléatoire, unefamille(Xt)t∈Tde variables aléatoires à valeurs dansE.

Autrement dit, pourtoutt∈ T, l"applicationω7→Xt(ω)est une application mesurable de(Ω,F)dans(E,E).

On appelleEl"espace d"états du processus.En pratique, on utilise souvent les processus pour de la modélisation dy-namique :Xtest la valeur d"une variable d"intérêt à la datet.

L"ensembleTreprésente alors l"ensemble des dates possibles.Définition 1.1.2.LorsqueT=NouT=Zon dit que(Xt)t∈Test un processusà temps discret.

LorsqueT=R, ou un intervalle deR, on parle de processus àtemps continu.Exemple 1.1.1.Un exemple à temps discret : soitXtle PIB de la France àl"annéet(doncE=R+).

En revanche, en finance, les prix des actifs, devises,etc. sont mises à jour avec une fréquence tellement élevée qu"on préfère utiliserune modélisation à temps continu : soitXtle cours EURO/DOLLAR à la datet,tmesurée en heures avect= 0correspondant au 1er janvier 1999 à 0h.On peut donc voir un processus comme une fonction de deux variables :Ω× T →E78CHAPITRE 1.

INTRODUCTION(ω,t)7→Xt(ω)qui doit vérifier la condition que, pourtfixé,ω7→Xt(ω)est mesurable (autre-ment dit,Xtvérifie bien la définition de variable aléatoire).

Aωfixé, la fonctiont7→Xt(ω)s"appelle unetrajectoiredu processus.Définition 1.1.3.On appelle filtration une suite(Ft)t∈Tdeσ-algèbres vérifiants≤t⇒ Fs⊂ Ft⊂ F.Explication sur cette notion : quand on observe un processus au cours dutemps, à la datet, on connaît les valeurs deXspours≤tmais on ne connaîtpas encore les valeurs deXspours > t.

En terme de conditionnement, ça veutdire qu"on sera souvent amené à conditionner par les variables(Xs)s≤t, ou defaçon équivalente par laσ-algèbreFt:=σ(Xs,s≤t).

On vérifie immédiatementque(Ft)t∈Test une filtration, on l"appelle filtration canonique.Donc, l"idée d"une filtration(Ft)t∈Test de représenter l"information dispo-nible à la datet.On peut se poser la question naturelle : pourquoi introduire un conceptgénéral de filtration plutôt que d"utiliser toujours la filtration canonique? D"unpoint de vue intuitif : à la datet, on peut avoir plus d"informations que lesvaleurs passées(Xs)s≤t.

Dans l"exemple oùXtest le PIB de la France à l"annéet, à la fin de l"annéet, on connaît certes le PIB de la France à l"annéet, maisaussi le PIB des USA, des autres pays de la zone euro, le cours du pétrôle,les différents taux de change, etc. qui peuvent donner de l"information sur lesvaleurs futures du PIB de la France.

D"un point de vue plus formel, on peutavoir plusieurs processus définis sur le même(Ω,F,P), par exemple(Xt)t∈Tet(Yt)t∈T, et la considérer la filtrationFt:=σ(Xs,Ys,s≤t)qui n"est PAS lafiltration canonique pour le processus(Xt).Définition 1.1.4.Le processus(Xt)t∈Test dit adapté à la filtration(Ft)t∈Tsipour toutt∈ T,XtestFt-mesurable.Exemple 1.1.2.Dans cet exempleT=N, soit(εt)t∈Nune suite de variablesaléatoires i.i.d de loiN(0,1),(α,β)∈R2,X0= 0etXt+1=αXt+β+εt.Ce processus est étudié dans le cours de séries temporelles sous le nom de proces-sus autorégressif (AR).

On définitFt=σ(εs,s≤t)la filtration canonique pour(εt)t∈N.

On peut vérifier de façon triviale que le processus(Xt)t∈Nest adapté àla filtration(Ft)t∈N.On peut maintenant annoncer le plan du cours.

Dans les Chapitres 3 et 2,on n"étudiera que des processus à temps discret avecT=N.Chapitre .

2) On étudiera les chaînes de Markov, définies par la propriétéL(Xt+1|Ft) =L(Xt+1|Xt)(oùLse lit "loi de", là encore, une définition formelle viendra plus tard).On se restreindra au cas oùEest fini ou dénombrable.1.2.

RAPPELS SUR L"ESPÉRANCE CONDITIONNELLE9Chapitre .

3) On étudiera les martingales, c"est-à-dire la classe des processus à valeursdansE=Rvérifiant la relationE(Xt+1|Ft) =Xt(une définition formelle sera donnée plus loin).Chapitre .

4) Une toute petite discussion du cas continu, à travers deux exemples (leprocessus de Poisson, et le mouvement brownien) définis surT=R+.Comme la définition de martingale repose sur une espérance conditionnelle,la fin de cette introduction contient quelques rapp