PDFprof.com Search Engine



Processus stochastiques

PDF
Images
List Docs
  • Qu'est-ce qu'un phénomène stochastique ?

    Adjectif.
    Aléatoire.
    Un phénomène stochastique est un phénomène qui ne se prête qu'à une analyse statistique, par opposition à un phénomène déterministe.

  • Qu’est-ce qu’un exemple de processus stochastique ?

    Certains exemples de processus stochastiques sont le processus de Poisson, le processus de renouvellement, le processus de branchement, le processus semi-Markovien, les chaînes de Markov réversibles dans le temps, le processus de naissance-mort, les marches aléatoires et le mouvement brownien .
    Les modèles stochastiques pourraient être discrets et continus dans le temps et dans l’espace des états.

  • Qu’est-ce qu’un processus stochastique dans les séries chronologiques ?

    Définition : un processus stochastique (aléatoire) est un phénomène statistique constitué d'un ensemble de variables aléatoires ordonnées dans le temps .
    Le processus stochastique évolue dans le temps selon des lois probabilistes.

  • Les termes processus aléatoire et processus stochastique sont considérés comme synonymes et sont utilisés de manière interchangeable, sans que l'ensemble d'index soit spécifié avec précision .
    Les deux « collection » ou « famille » sont utilisées tandis qu'au lieu de « ensemble d'index », les termes « ensemble de paramètres » ou « espace de paramètres » sont parfois utilisés.
Un processus stochastique ou processus aléatoire (voir Calcul stochastique) ou fonction aléatoire (voir Probabilité) représente une évolution, discrète ou à  Notion de processus · Trajectoire d'un processus · Processus stochastiques Autres questions

Processus stochastiques
Introduction aux processus stochastiques Notes de cours
Processus stochastiques
INTRODUCTION AU CALCUL STOCHASTIQUE
NOTES DU COURS PROCESSUS STOCHASTIQUES
Processus stochastiques
MASTER 1 de MATHEMATIQUES
Les processus stochastiques
Processus stochastiques
Processus stochastiques modélisation
Code de procédure civile
Next PDF List

Processus stochastiques

Processus stochastiquesM2 Math´ematiquesJean-ChristopheBretonUniversit´e de RennesSeptembre-D´ecembre 2023Version du 4 novembre 20232Table des mati`eresI Processus stochastiques1 1 Processus stochastiques3 1.

1) Loi d'un processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1. 2) R´egularit´e des trajectoires. . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1. 3) Convergence faible des lois de processus. . . . . . . . . . . . . . . . . . . . 1 01.3.

1) Rappels sur la convergence faible. . . . . . . . . . . . . . . . . . . 11 1.3.2´Equitension. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 52 Processus gaussiens17 2.

1) Lois des processus gaussiens. . . . . . . . . . . . . . . . . . . . . . . . . . 17 2. 2) R´egularit´e gaussienne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 02. 3) Espace gaussien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.

4) Exemples de processus gaussiens. . . . . . . . . . . . . . . . . . . . . . . . 23 3 Mouvement brownien29 3.

1) Historique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3. 2) D´eifinition, premi`eres propri´et´es. . . . . . . . . . . . . . . . . . . . . . . . 3 13.2. 1) Propri´et´es imm´ediates. . . . . . . . . . . . . . . . . . . . . . . . . 3 13. 3) Constructions du mouvement brownien. . . . . . . . . . . . . . . . . . . . 3 33.3. 1) Principe d'invariance de Donsker. . . . . . . . . . . . . . . . . . . 34 3.3. 2) Mesure de Wiener. . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 3. 4) Propri´et´es en loi du mouvement brownien. . . . . . . . . . . . . . . . . . 39 3. 5) Propri´et´es trajectorielles du mouvement brownien. . . . . . . . . . . . . . 4 13.5. 1) Loi du 0/1 de Blumenthal. . . . . . . . . . . . . . . . . . . . . . . 4 13.5. 2) Cons´equences trajectorielles de la loi du 0/1 de Blumenthal. . . . . 4 43.5. 3) R´egularit´e trajectorielle brownienne. . . . . . . . . . . . . . . . . . 4 63. 6) Variation quadratique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 73. 7) Propri´et´e de Markov forte. . . . . . . . . . . . . . . . . . . . . . . . . . . 50 3.7. 1) Temps d'arrˆet. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 03.7. 2) Propri´et´e de Markov. . . . . . . . . . . . . . . . . . . . . . . . . . 5 33.7.

3) Principe de r´elflexion. . . . . . . . . . . . . . . . . . . . . . . . . . 5 43.8´Equation de la chaleur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 63.8.

1) Origine physique. . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 iiiTable des mati`eres3.8.

2) Origine math´ematique. . . . . . . . . . . . . . . . . . . . . . . . . 5 7II Martingales61 4 Martingales en temps continu63 4.

1) Filtration et processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 34. 2) Filtrations et temps d'arrˆet. . . . . . . . . . . . . . . . . . . . . . . . . . 6 64. 3) D´eifinition et exemples de martingales en temps continu. . . . . . . . . . . 7 24. 4) In´egalit´es pour martingales en temps continu. . . . . . . . . . . . . . . . . 72 4. 5) R´egularisation de trajectoires. . . . . . . . . . . . . . . . . . . . . . . . . 75 4. 6) Th´eor`emes de convergence. . . . . . . . . . . . . . . . . . . . . . . . . . . 7 94. 7) Th´eor`eme d'arrˆet. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 4.

8) Processus de Poisson. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 55 Semimartingales `a trajectoires continues87 5.

1) Processus `a variation born´ee. . . . . . . . . . . . . . . . . . . . . . . . . . 87 5.1. 1) Fonctions `a variation born´ee. . . . . . . . . . . . . . . . . . . . . . 87 5.1. 2) Int´egrale de Stieltjes. . . . . . . . . . . . . . . . . . . . . . . . . . 9 15.1. 3) Processus `a variation born´ee. . . . . . . . . . . . . . . . . . . . . . 9 45. 2) Martingales locales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 55. 3) Variation quadratique d'une martingale locale. . . . . . . . . . . . . . . . 10 05.

4) Semimartingales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 15III Int´egration stochastique119 6 Int´egration stochastique121 6.

1) Par rapport `a une martingale born´ee dansL2. . . . . . . . . . . . . . . .1 216. 2) Par rapport `a une martingale locale. . . . . . . . . . . . . . . . . . . . . . 1 316. 3) Par rapport `a une semimartingale. . . . . . . . . . . . . . . . . . . . . . . 1 366.

4) Cas de processus `a trajectoires non continues. . . . . . . . . . . . . . . . . 1 40IntroductionCes notes de cours ont pour but d'introduire au calcul stochastique et `a ses outils fon-damentaux.

Elles sont principalement destin´ees aux ´etudiants du Master 2 Math´ematiqueset applications de l'Universit´e de Rennes 1.

Ces notes ont plusieurs sources d'inspiration,dont principalement [LG1] mais aussi les notes de cours [Gu´e], [EGK], [Mal].P arai lleurs,des r´ef´erences standards conseill´ees sur le sujet sont les livres [KS],[ RY] (en anglais) et[Gal],[ CM] (en fran¸cais).Le contenu de ces notes est le suivant :On commence par quelques rappels gaussiens en introduction.

La notion g´en´erale deprocessus stochastique est pr´esent´ee au Chapitre1 .L eCh apitre2 i ntroduitl acl assed esprocessus gaussiens.

Ces chapitres s'inspirent de [Dav]et d esr ´ef´erencescl assiquesso nt[Bil2],[ Kal].Au Chapitre3 , on pr´esente le mouvement brownien, processus stochastique central, donton discute de nombreuses propri´efent´es.Au Chapitre4 ,o ni ntroduitl an otiond em artingaleen t empsco ntinu.O nr evisitel esprincipales propri´et´es connues dans le cas des martingales discr`etes.La notion de semimartingale, essentielle dans la th´eorie de l'int´egration stochastique, estpr´esent´ee au Chapitre5 .Le Chapitre6 est co nsacr´e` al aco nstructiond esi nt´egralesst ochastiqueset ` ase sp rincipalespropri´et´es.On ach`eve ces notes avec la formule d'Itˆo dans le Chapitre??.

Ce r´esultat est essentiel etconstitue le point de d´epart du calcul stochastique qui est la suite naturelle de cours etpour laquelle on renvoie `a [JCB-stoch].Les propri´et´es de l'int´egrale stochastique, en particulier la formule d'Itˆo et le th´eor`emede Girsanov, sont des outils qui fondent le calcul stochastique.Les pr´erequis de ce cours sont des probabilit´es de base (des fondements des probabilit´esaux cons´equences de la LGN et du TCL - niveau L3) pour lesquelles on pourra consulter[JCB-proba],l esm artingalese nte mpsd iscret( niveauM 1),v oir[ JCB-martingale].iiiiv©JCB - M2 Math. - Universit´e de RennesRappels gaussiensDans ce chapitre, on rappelle les principaux r´esultats sur les variables al´eatoires gaus-siennes et sur les vecteurs al´eatoires gaussiens.

Ces rappels seront utiles pour g´en´eraliser lecadre gaussien aux processus au Chapitre2 e tp r´esenterl an otiond ep rocessusga ussien.Variables gaussiennesD´eifinition 0.

1) Une variable al´eatoireXsuit la loi normale standardN(0,1)si elle admetpour densit´et∈R7→1√2πexp-t2/2.De fa¸con g´en´erale, une variable al´eatoireXsuit la loi normaleN(m,σ2)(m∈R,σ2>0)si elle admet pour densit´et∈R7→1√2πσ2exp-(t-m)22σ2.Siσ2= 0, la loi est d´eg´en´er´ee, la variable al´eatoireXest constante ´egale `am.

Sa loi estune mesure de Dirac enm:PX=δm.Proposition 0.

2) Une variable al´eatoireX∼ N(m,σ2)peut se voir comme la translat´ee etla dilat´ee deX0∼ N(0,1)parX=m+σX0.Autrement dit siX∼ N(m,σ2),σ2>0, on d´eifinit la variable al´eatoire centr´ee r´eduiteeX=(X-m)/σ.

Elle suit la loiN(0,1). Cette action s'appelle′′centrer, r´eduire′′.Proposition 0.

3) Une variable al´eatoireXde loiN(m,σ2)a pour - esp ´erance: E[X] =m; - var iance: Var(X) =σ2; - fonction c aract´eristique: φX(t) = expimt-σ2t2/2.SiX∼ N(0,σ2)alors les moments deXsont donn´es pasEX2n=(2n)!2nn!σ2netEX2n+1= 0.(1)vvi©JCB - M2 Math. - Universit´e de RennesD´emonstration :[Esquisse] Centrer, r´eduire pour se ramener `aX∼ N(0,1).

Calculs simplespourE[X], Var(X).

Pour la fonction caract´eristique, identiifier les fonctions holomorphesE[ezX] etez2/2pourz∈Ret consid´ererz=ix.

Pour les moments de tous ordres faire desint´egrations par parties successives.□L'estimation de la queue normale suivante s'av`ere utile : pourN∼ N(0,1) etx≥1, on aP(N≥x) =1√2πZ+∞xe-t2/2dt≤1√2πZ+∞xte-t2/2dt≤1√2πe-x2/2.(2)En fait, on a une estimation valable pour toutx >0 et meilleure six≥1 :Proposition 0.

4) SoitN∼ N(0,1)etx >0alorsP(N≥x)≤1√2πx2exp(-x2/2).D´emonstration :En notantf(x) =1x√2πexp(-x2/2), on af′(x) =-exp(-x2/2)√2π-1x2exp(-x2/2)√2π≤ -exp(-x2/2)√2π.D'o`uP(N≥x) =Z+∞x1√2πexp(-u2/2)du≤ -Z+∞xf′(u)du=-f(u)+∞x=f(x).□Proposition 0.

5) SoitN1∼ N(m1,σ21)etN2∼ N(m2,σ22)ind´ependantes.

AlorsN1+N2∼N(m1+m2,σ21+σ22).D´emonstration :Par les fonctions caract´eristiques, avec l'ind´ependance, on a :φN1+N2(t) =φN1(t)φN2(t) = expim1t-σ21t2/2expim2t-σ22t2/2= expi(m1+m2)t-(σ21+σ22)t2/2=φN(m1+m2,σ21+σ22)(t)ce qui prouve le r´esultat.□Proposition 0.

6) Soit(Xn)n≥1une suite de variables normales de loiNmn,σ2n.1.L asuite (Xn)n≥1converge en loi ssimn→m∈Retσ2n→σ2∈R+.

La loi limiteest alorsN(m,σ2).2.Si la suite (Xn)n≥1converge en probabilit´e versX, la convergence a lieu dans tousles espacesLp,p <+∞.viiD´emonstration : 1)D'apr`es le th´eor`eme de Paul L´evy, la convergence en loiXn=⇒Xest´equivalente `a avoir pour toutt∈R:φXn(t) = expimnt-σ2n2t2→φX(t), n→+∞.(3)CommeφXest continue etφX(0) = 1, il existet̸= 0 tel que|φX(t)| ̸= 0.

Pour cet, enprenant le module dans (3),o na exp( -σ2n2t2)→ |φX(t)|. On d´eduit alors que limn→+∞σ2n=-2t2ln|φX(t)|:=σ2existe. Par suite, on a aussiexpimnt→expσ2t2/2φX(t).Supposons que (mn)n≥1est non born´ee.

On construit alors une sous-suitemnk→+∞,k→+∞(ou-∞ce qui m`ene `a un raisonnement analogue).

Alors pour toutη >0,P(X≥η)≥limsupk→+∞P(Xnk≥η)≥12puisque, pourkassez grand,P(Xnk≥η)≥P(Xnk≥mk) = 1/2 (la moyennemk´etantaussi la m´ediane).

En faisantη→+∞, on aP(X= +∞)≥1/2, ce qui est absurde carP(X∈R) = limn→+∞P(Xn∈R) = 1.On a donc (mn)n≥1born´ee.

D`es lors, simetm′sont deux valeurs d'adh´erence de (mn)n≥1,en passant `a la limite sur les bonnes sous-suites, on doit avoireimt=eim′tpour toutt∈R,ce qui exigem=m′.

Il y a donc unicit´e de la valeur d'adh´erence, c'est `a dire existence dela limitemdemn.Finalement,mn→metσn→σ(n→+∞) et en passant `a la limite dans (3),o na : φX(t) = expimt-σ22t2ce qui assureX∼ N(m,σ2).2)On ´ecritXn=σnNn+mnavecNn∼ N(0,1).

CommeXnconverge en loi, les suites(mn)n≥1et (σn)n≥1sont born´ees d'apr`es la partie 1).

Par convexit´e pourq≥1|σnN+mn|q≤2q-1(|σn|q||N|q+|mn|q)et l'expression des moments deNn, donn´ee en (1) assure alorssupn≥1E|Xn|q<+∞ ∀q≥1.Comme la convergence en probabilit´e donne la convergence ps d'une sous-suiteXnk, par lelemme de Fatou, on a :E|X|q=Ehlimk→+∞|Xnk|qi≤liminfk→+∞E[Xnk|q]≤supk≥1E|Xnk|q≤supn≥1E|Xn|q<+∞.viii©JCB - M2 Math. - Universit´e de RennesSoitp≥1, la suite|Xn-X|pconverge vers 0 en probabilit´e et est uniform´ement int´egrablecar born´ee dansL2(d'apr`es ce qui pr´ec`ede avecq= 2p).

Elle converge donc dansL1vers0, ce qui prouve 2) dans la Prop.0 .6.□Le caract`ere universel de la loi normale est illustr´e par le r´esultat suivant.

Il montre que laloi normale standard contrˆole les lfluctuations par rapport `a leur moyenne des efffets cumul´esd'un ph´enom`ene al´eatoire r´ep´et´e avec des r´ep´etitions ind´ependantes.Dans la suite,iidsigniifiera ind´ependant(e)s et identiquement distribu´e(e)s, c'est `a direde mˆeme loi.

Souvent, on notera aussivaiidpour variables al´eatoires ind´ependantes etidentiquement distribu´ees.Th´eor`eme 0.7 (TCL)Soit(Xn)n≥1une suite de variables al´eatoires iid, d'esp´erancemetde variance ifinieσ2>0.

SoitSn=X1+···+Xnla somme partielle.

AlorsSn-nm√σ2n=⇒ N(0,1), n→+∞.Remarque 0.8 - Le TCL co mpl`etel al oid esgr andsn ombres: en e fffet,l aL GNd onneSn/n→m, c'est `a direSn-nm≈0.

Le TCL donne la vitesse de cette convergence(en loi) : elle est en√n.

Noter que la convergence est presque sˆure dans la LGN eten loi (donc beaucoup plus faible) dans le TCL. - La l oiN(0,1) apparaˆıt `a la limite dans le TCL alors que les variables al´eatoiresXisont de lois arbitraires (de carr´e int´egrable) : ce r´esultat justiifie le rˆole universel dela loi normale.

Elle mod´elise les petites variations de n'importe quelle loi (avec unmoment d'ordre 2) par rapport `a sa moyenne.D´emonstration :D'apr`es le th´eor`eme de Paul L´evy, il suiÌifiÌit de montrer la convergencedes fonctions caract´eristiques.

PosonsYi= (Xi-m)/σ, si bien que les variables al´eatoiresYisont ind´ependantes de mˆeme loi avecE[Yi] = 0, Var(Yi) = Var(Xi)/σ2= 1.

NotonsS′n=Y1+···+YnetZn=Sn-nm√n=S′n√n.

On aφZn(t) =EexpitS′n√n=Eexpit√nS′n=φS′nt√n=φY1t√n φYnt√n=φY1t√nnen utilisantφY1+···+Yn=φY1 φYn=φnY1par ind´ependance et identique distribution desvariables al´eatoiresYi.CommeY1a un moment d'ordre 2,φY1est d´erivable 2 fois avecφY1(0) = 1,φ′Y1(0) =iE[Y1] = 0 etφ′′Y1(0) =i2E[Y21] =-1.

La formule de Taylor `a l'ordre 2 en 0 donne alorsφY1(x) =φY1(0) +xφ′Y1(0) +x22φ′′Y1(0) +x2ϵ(x) = 1-x22+x2ϵ(x)ixo`u la fonctionϵv´eriifie limx→0ϵ(x) = 0.

On a doncφZn(t) =φY1t√nn= 1-t22√n2+t√n2ϵ(t/√n)!n=1-t22n+1nϵ(1/√n)n= expnln1-t22n+1nϵ(1/√n)= expn-t22n+1nϵ(1/√n)= exp-t22+ϵ(1/√n).(Noter que la fonction resteϵ(·) dansφY1est `a valeurs complexes si bien qu'il est un peurapide de prendre directement le logarithme comme pr´ec´edemment.

Cependant l'argumentpeut ˆetre pr´ecis´e sans passer par la forme exponentielle avec les logarithmes; on renvoie `aun (bon) cours de L3 ou de M1.) On a donc pour chaquet∈R,limn→+∞φZn(t) = exp-t2/2=φN(0,1)(t).Le th´eor`eme de Paul L´evy donne alors la convergence en loi deZnversN(0,1), ce quiprouve le TCL.□Remarque 0.

9) En g´en´eral, lorsquenest grand, on approxime la loi d'une somme de va-riables al´eatoiresiiddeL2(Ω) par une loi normale grˆace au TCL de la fa¸con suivante : SoitSn=X1+···+Xnla somme de variables al´eatoiresiidXiavecσ2<+∞, on a d'apr`es leTCLX1+···+Xn-nE[X1]σ√n=⇒ N(0,1).Quandnest grand, on approxime alors la loi deX1+···+Xn-nE[X1]σ√npar celle deN∼ N(0,1).Si bien que la loi de la sommeSn=X1+···+Xnest approxim´ee par celle denE[X1] +σ√nN∼ NnE[X1],σ2n.R`egle d'approximation :La sommeSnd'une suite de vaiidL2de moyennemet de varianceσ2s'approxime parSn≈ N(nm,nσ2).Application (Moivre-Laplace).Comme une variable al´eatoireXnde loi binomialeB(n,p)peut se voir comme la somme denvariables al´eatoiresϵi1≤i≤n, ind´ependantes de loide Bernoullib(p),Xn=ϵ1+···+ϵn, la remarque pr´ec´edente montre qu'on peut approcherla loiB(n,p) par la loi normaleNnp,np(1-p).x©JCB - M2 Math. - Universit´e de RennesVecteurs gaussiensOn consid`ere des vecteurs al´eatoires dansRn.

Muni de son produit scalaire canonique,Rnest un espace euclidien. Pour deux vecteursa= (a1, ,an),b= (b1, ,bn)∈Rn, onnote⟨a,b⟩=Pni=1aibileur produit scalaire.

On peut g´en´eraliser cette section `a un espaceEeuclidien (si dim(E) =nalorsE∼Rn).D´eifinition 0.10 (Vecteur gaussien)Un vecteur al´eatoireX= (X1, ,Xn)est gaussien siet seulement si toutes les combinaisons lin´eaires de ses coordonn´ees⟨a,X⟩=a1X1+···+anXnsuivent une loi gaussienne dansR(pour touta= (a1, ,an)∈Rn).Dans un cadre euclidienE,Xvecteur `a valeurs dansEest gaussien ssi pour touta∈E,⟨a,X⟩suit une loi gaussienne.En particulier, chaque marginaleXisuit une loi normale et a donc un moment d'ordre 2ifini.

Les moments jointsE[XiXj], 1≤i,j≤n, sont donc bien d´eifinis (par l'in´egalit´e deCauchy-Schwarz) et on peut d´eifinir licitement la matrice de covariance :D´eifinition 0.11Lamatrice de covarianced'un vecteur gaussienX= (X1, ,Xn)est lamatrice carr´ee sym´etrique, positiveK=Cov(Xi,Xj)1≤i,j≤n.SidetK= 0, le vecteur est dit d´eg´en´er´e.L'esp´erancedeX= (X1, ,Xn)est le vecteur des esp´erances de ses marginalesE[X] =E[X1], ,E[Xn].SiE[X] = 0, le vecteurXest ditcentr´e.Fonction caract´eristique gaussienne en dimensionnSiX= (X1, ,Xn) est un vecteur gaussien alors⟨a,X⟩=Pni=1aiXisuit une loinormale de param`etresE⟨a,X⟩=E[a1X1+···+anXn] =a1E[X1] +···+anE[Xn] =⟨a,E[X]⟩,Var⟨a,X⟩= Var(a1X1+···+anXn) =nXi,j=1aiajCov(Xi,Xj) =atCov(X)a.La variable al´eatoire⟨a,X⟩suit donc la loiN⟨a,E[X]⟩,atCov(X)a, sa fonction caract´e-ristique est donn´ee parφ⟨a,X⟩(x) = expix⟨a,E[X]⟩ -12atCov(X)ax2.xiD'apr`es la d´eifinition des fonctions caract´eristiques d'une variable al´eatoire et d'un vecteural´eatoireφX(x) =Eei⟨x,X⟩=φ⟨x,X⟩(1).On en d´eduit :Proposition 0.12La fonction caract´eristique d'un vecteur gaussienX= (X1, ,Xn)estdonn´ee parφX(x) = expi⟨x,E[X]⟩ -12(xtCov(X)x)= expi⟨x,E[X]⟩ -12⟨x,Cov(X)x⟩.(4)Remarque 0.13 - La l oid 'unv ecteurg aussienes tc onnued `esqu 'ona l ev ecteurmoyenneE[X] et la matrice de covariance Cov(X). - On p arled uv ecteurga ussienst andarden d imensionnlorsqueE[X] = 0 et Cov(X) =In.

Sa fonction caract´eristique se simpliifie enφX(x) = exp- ⟨x,x⟩/2= exp- ∥x∥2/2. - P ouru nv ecteurg aussience ntr´e,o na