[PDF] Processus Gaussiens Définition propriétés





Previous PDF Next PDF



FONCTIONS AFFINES (Partie 2)

3) Accroissements. Propriété des accroissements : Si A(xA ; yA) et B(xB ; yB) sont deux points de la droite (d) représentant la fonction f définie par.



Fonctions affines

III) Propriétés du coefficient directeur. 1) Proportionnalité des accroissements. Propriété : Soit f une fonction affine définie par f(x) = ax + b.



1 Définition et premi`eres propriétés.

Le but de ce chapitre est d'étudier parall`element quelques propriétés du mouvement Brownien et des pro- cessus `a accroissements stationnaires et indépendants 



6.3 Théorème de Rolle et des accroissements finis.

Exercice 6.28. Montrer que pour tout x ? R on a



Chapitre 8 Le Mouvement Brownien

alors la propriété d'accroissements indépendants revient `a dire que pour tout Considérons un processus gaussien `a accroissements indépendants centré.



Exercices corrigés Théor`eme de Rolle accroissements finis

g(x) = e. Solution de l'exercice 11. On consid`ere la propriété. (?n) fg est au moins n 



Processus Gaussiens

Définition propriétés



VARIATIONS DUNE FONCTION

Dire que est monotone signifie que est soit croissante soit décroissante. Propriété des accroissements : Soit la fonction affine définie sur ? ...



FICHE METHODE sur les FONCTIONS USUELLES I) A quoi servent

4) Une fonction est constante si et seulement si sa courbe est une droite parallèle à l'axe (ox) . ? Propriété 2 : ( PROPORTIONNALITE des ACCROISSEMENTS). Une 



Calcul stochastique libre : processus `a accroissements libres

en géométrie non commutative : on essaye de transporter des propriétés de `a accroissements indépendants en calcul stochastique tels que le mouvement.



[PDF] 63 Théorème de Rolle et des accroissements finis

Notons que les fonctions dérivées partagent des propriétés des fonctions continues même si elles ne le sont pas nécessairement (plus haut dans ces notes on a 



[PDF] 18 Le théorème des accroissements finis

On en déduit une première extension du théorème des accroissements finis pour les fonctions définies sur un ouvert d'un espace vectoriel normé E à valeurs dans 



[PDF] Exercices corrigés Théor`eme de Rolle accroissements finis

Exercice 10 (a) A l'aide du théor`eme des accroissements finis montrer que ?x > 0 1 x + 1 < ln(x + 1) ? ln x



[PDF] Chapitre 3 Dérivabilité des fonctions réelles

La notion de dérivée est une notion fondamentale en analyse Elle permet d'étudier les variations d'une fonction de construire des tangentes `a une courbe 



[PDF] Accroissements finis

L'inégalité des accroissements finis et son dessin Théor`eme IAF Soit f dérivable sur I := [ab] avec a < b et m et M deux nombres réels On suppose



[PDF] 52 Théorème de Rolle théorème des accroissements finis

Théorème des accroissements finis • Pour établir une propriété du type



[PDF] Le théorème des accroissements finis comme question curriculaire

27 jui 2016 · El teorema del valor medio constituye una situación paradigmática que permite observar no solo las expectativas de los autores del currículo



Théorème et inégalité des accroissements finis Formule de Taylor

On remarque que plus qu'une application de l'inégalité des accroissements finis il s'agit de propriétés concernant d'une part les applications contractantes 



[PDF] Gradient - Théorème des accroissements finis - Exo7

GRADIENT – THÉORÈME DES ACCROISSEMENTS FINIS ce qui signifie que le gradient est orthogonal au vecteur tangent C'est une propriété purement

  • Pourquoi le théorème des accroissements finis ?

    Fonction d'une variable réelle à valeurs réelles
    Graphiquement, le théorème des accroissements finis indique que, pour toute droite sécante en deux points à une courbe différentiable, il existe, entre ces deux points, une tangente parallèle à la sécante.
  • Comment utiliser l'inégalité des accroissements finis ?

    L'inégalité des accroissements finis se généralise aux fonctions de plusieurs variables. Théorème : Soit U un ouvert de Rn et f:U?Rp f : U ? R p . Soit a et b deux points de U tels que le segment [a,b] soit contenu dans U .
  • Comment étudier la Dérivabilité d'une fonction en un point ?

    Soit f : [a, b] ? R une fonction. (1) Soit x0 ?]a, b[. Alors f est dérivable en x0 si et seulement si f est dérivable `a droite et `a gauche en x0 et fg(x0) = fd(x0). (2) f est dérivable en a si et seulement si f est dérivable `a droite en a.
  • On dit qu'une fonction est dérivable en �� = �� ? si ces limites existent. Si seule la limite à gauche ou à droite existe, alors on dit que la fonction est dérivable en �� = �� ? à gauche ou à droite respectivement.

Processus Gaussiens

Master IMA 2eme annee

Jean-ChristopheBreton

Universite deLa Rochelle

Septembre{Decembre 2006version de decembre 2006

2

Table des matieres

1 Variable et vecteur Gaussiens 1

1.1 Variables aleatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.1.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.1.2 Esperance et variance probabilistes . . . . . . . . . . . . . . . . . . 2

1.2 Convergences probabilistes . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.3 Vecteurs aleatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.3.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.3.2 Independance de variables aleatoires . . . . . . . . . . . . . . . . . 6

1.3.3 Covariance et independance . . . . . . . . . . . . . . . . . . . . . . 8

1.4 Variables gaussiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.4.1 Vecteur gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.5 Theoremes limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

1.5.1 Loi des grands nombres (LGN) . . . . . . . . . . . . . . . . . . . . 14

1.5.2 Theoreme central limite (TCL) . . . . . . . . . . . . . . . . . . . . 14

2 Processus gaussien 17

2.1 Processus stochastique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2.1.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2.1.2 Regularite des trajectoires . . . . . . . . . . . . . . . . . . . . . . . 18

2.1.3 Exemples de proprietes en loi des processus. . . . . . . . . . . . . . 21

2.2 Processus Gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2.3 Exemples de processus gaussiens . . . . . . . . . . . . . . . . . . . . . . . . 23

2.3.1 Mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . . . 23

2.3.2 Pont Brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

2.3.3 Processus d'Ornstein-Uhlenbeck . . . . . . . . . . . . . . . . . . . . 25

2.3.4 Brownien geometrique . . . . . . . . . . . . . . . . . . . . . . . . . 25

2.3.5 Bruit blanc gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . 25

2.3.6 Mouvement brownien fractionnaire . . . . . . . . . . . . . . . . . . 26

3 Mouvement brownien 27

3.1 Historique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

3.2 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

3.3 Proprietes du MB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

i iiTable des matieres

3.3.1 Proprietes en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

3.3.2 Proprietes des trajectoires du MB . . . . . . . . . . . . . . . . . . . 29

3.4Equation de la chaleur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3.4.1 Origine physique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3.4.2 Origine mathematique . . . . . . . . . . . . . . . . . . . . . . . . . 34

3.5 Versions multidimensionnelles du MB . . . . . . . . . . . . . . . . . . . . . 38

3.5.1 Mouvement brownien multidimensionel . . . . . . . . . . . . . . . . 38

3.5.2 Champ de Wiener-Chensov . . . . . . . . . . . . . . . . . . . . . . 38

3.5.3 Fonction brownienne de Levy . . . . . . . . . . . . . . . . . . . . . 39

4 Integration stochastique 41

4.1 Variation quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

4.2 Formule d'It^o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

4.3 Et l'integrale d'It^o? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

4.4Equations dierentielles stochastiques (EDS) . . . . . . . . . . . . . . . . . 46

4.4.1Equations dierentielles et EDS . . . . . . . . . . . . . . . . . . . . 46

4.4.2 Exemples d'EDS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

5 Mouvement brownien fractionnaire 49

5.1 Generalites sur l'autosimilarite . . . . . . . . . . . . . . . . . . . . . . . . . 49

5.2 Denition du mouvement brownien fractionnaire . . . . . . . . . . . . . . . 51

5.3 Regularite des trajectoires . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

5.3.1 H

older . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

5.3.2 Exposant de H

older . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

5.4 Representations integrales du mBf . . . . . . . . . . . . . . . . . . . . . . . 56

5.4.1 Representation en moyenne mobile . . . . . . . . . . . . . . . . . . 56

5.4.2 Representation harmonisable . . . . . . . . . . . . . . . . . . . . . . 57

5.5 Generalisations multidimensionnelles du mBf . . . . . . . . . . . . . . . . . 60

5.5.1 Drap brownien fractionnaire . . . . . . . . . . . . . . . . . . . . . . 60

5.5.2 Fonction brownienne fractionnaire de Levy . . . . . . . . . . . . . . 60

5.6 Mouvement brownien multifractionaire (mBm) . . . . . . . . . . . . . . . . 61

5.6.1 Denition et proprietes du mBm . . . . . . . . . . . . . . . . . . . 61

5.6.2 Regularite des trajectoires . . . . . . . . . . . . . . . . . . . . . . . 62

5.6.3 Simulation, estimation du mBm . . . . . . . . . . . . . . . . . . . . 63

5.7 Modelisation d'un signal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

Introduction

Ces notes de cours s'adressent a des etudiants Math-Info de Master 2. Elles sont large- ment inspirees de plusieurs sources. Le chapitre 1 contient les rappels essentiels de variables et vecteurs aleatoires et est issu des notes de cours de L3 [JCB]. Le chapitre 2 est inspire de la presentation de Youri Davydov pour son cours de DEA [Dav] a l'Universite Lille 1 et de [Lif].

Le chapitre 3 est inspire de [EGK] et de [Lif].

Le chapitre 4 sur l'integration stochastique est un melange de [EGK] et de [Dav]. Le chapitre 5 est inspire de [ST] pour ce qui concerne le mBf mais aussi de [A-LV, LV, P-LV] pour les generalisations. Enn la modelisation pour l'image provient essentiellement de [BCM, PPLV]. iii ivTable des matieres

Chapitre 1

Variable et vecteur Gaussiens

Denition, proprietes, covariance, fonction caracteristique, TCL et generalisations.

1.1 Variables aleatoires

1.1.1 Denition

Denition 1.1.1Un espace de probabilite est un espace mesurable( ;F)muni d'une mesure de probabiliteP, c'est a dire une mesure de masse totale1:P( ) = 1. Les ensembles mesurablesA2 Fsont appeles les evenements (ou observables).

Denition 1.1.2 (variable aleatoire)

{ On appelle variable aleatoire (v.a.) toute application mesurableXd'un espace de probabilite( ;F;P)dansRmuni de la tribu borelienneB(R). { On appelle loi deXla mesure de probabilitePXdenie surRpar P

X(A) =P(X2A) =P(!2

jX(!)2A); A2 B(R): { La v.a.Xest discrete si elle est a valeurs dans un ensemble au plus denombrable (en bijection avec une partie deN) :X( )est ni ou denombrable (on peut compter ses elements). { La v.a.Xest a densite, de densitef, si

P(X2A) =Z

A fd;P(X2[a;b]) =Z b a f(x)dx: Denition 1.1.3La fonction caracteristique d'une v.a.Xest la fonction deRdansC

X(t) =E[eitX] =Z

eitXdP=Z eitxdPX(x):(1.1) 1

2Chapitre 1.c

JCB { M2 IMA { Universite de La Rochelle

Il s'agit de la transformee de Fourier de la loiPXdeX. Cette fonction caracterise la loi de X. Exemples.Une v.a.Xsuit la loi normale standardN(0;1) si elle admet pour densite t7!1p2et2=2: Elle a pour fonction caracteristiqueX(t) =et2=2. De facon generale, une v.a.Xsuit la loi normaleN(m;2) si elle admet pour densite t7!1p22exp (tm)222 Elle a pour fonction caracteristiqueX(t) = exp(imt2t2=2).

1.1.2 Esperance et variance probabilistes

Denition 1.1.4

Moment :Une v.a.X: (

;F;P)!Ra un moment d'ordrep1ssi

E[jXjp] =Z

jXjpdP<+1: Esperance :SiXa un moment d'ordre1, l'esperance d'une v.a.Xest donnee par

E[X] =Z

X(!)dP(!) =Z

XdP: Variance :SiXa un moment d'ordre2, la variance deXest donnee par

Var(X) =E[(XE[X])2]:(1.2)

Ecart-type :L'ecart-type d'une v.a.Xqui admet une variance est donnee parX=pVar(X).

On note aussiLp(

;F;P) =fX: ( ;F;P)!RjE[jXjp]<+1g, c'est un espace vectoriel norme avec pour norme kXkp= (E[jXjp])1=p: Remarque 1.1.1L'esperance d'une v.a. donne la valeur moyenne (au sens probabiliste) de la v.a. Sa variance (ou son ecart-type) mesure la dispersion des valeurs de la v.a. autour de sa moyenne. Ou encore, l'ecart-type donne l'ecart moyen de la v.a. par rapport a sa moyenne. Il est equivalent de dire que la variance deXest nie et queXadmet un moment d'ordre 2 ni.

1.1. Variables aleatoires3

Proposition 1.1.1 (Fonction caracteristique et moments)Si une v.a.Xa un mo- ment d'ordrep, alors sa fonction caracteristiqueXest derivablepfois et on a (p)

X(0) =ipE[Xp]:

Demonstration :C'est une consequence du theoreme de derivation sous l'esperance (par convergence dominee) avec une hypothese de domination donnee par l'existence du mo- ment d'ordrep. Proposition 1.1.2 (Inegalite de Markov)SoitXune v.a. positive avec un moment d'ordre 1 ni. On a pour toutt >0:

P(Xt)E[X]t

Exemple.Une v.a.X' N(m;2) a pour esperance et variance

E[X] =m;E[X2] =2:

En fait, une v.a.X' N(m;2) peut alors se denir comme une translatee et dilatee deX0' N(0;1) par

X=m+X0:

Proposition 1.1.3 (Proprietes de la variance)

Var(X)0.

Var(X) =E[X2]E[X]2(Formule de Koenig).

Var(aX) =a2Var(X).

Var(X+b) = Var(X)pour toute constanteb2R.

Var(X) = 0ssiXest constante ps (et vaut alorsE[X]). La variance est un operateur quadratique non lineaire. Denition 1.1.5 (Covariance)SoientX;Ydeux variables aleatoires avec des variances nies, on denit la covariance deXet deYpar

Cov(X;Y) =E[(XE[X])(YE[Y])] =E[XY]E[X]E[Y]:

On a en eet

Cov(X;Y) =E[(XE[X])(YE[Y])] =E[XYYE[X]XE[Y]E[X]E[Y]] =E[XY]E[YE[X]]E[XE[Y]] +E[X]E[Y] =E[XY]E[Y]E[X]E[X]E[Y] +E[X]E[Y] =E[XY]E[X]E[Y]:

4Chapitre 1.c

JCB { M2 IMA { Universite de La Rochelle

Remarque :(X;Y)7!Cov(X;Y) est une application bilineaire symetrique.

SiXouYest centree alors Cov(X;Y) =E[XY].

Cov(X;X) = Var(X).

La variance Var est une forme quadratique surL2(

), d'application bilineaire syme- trique associee la covariance Cov. Proposition 1.1.4SiXetYsont deux v.a. avec des moments d'ordre 2 nis alors

Var(X+Y) = Var(X) + Var(Y) + 2Cov(X;Y) (1.3)

jCov(X;Y)j pVar(X)Var(Y):(1.4) Demonstration :Pour(1.3), il sut de developper Var(X+Y). Puis pour l'inegalite (1.4), on applique l'inegalite de Cauchy-Schwarz jCov(X;Y)j=E[(XE[X])(YE[Y])] pE[(XE[X])2]E[(YE[Y])2] =pVar(X)Var(Y):

1.2 Convergences probabilistes

On rappelle brievement les dierentes convergences probabilistes. Denition 1.2.1Soit(Xn)nune suite de v.a. etXune v.a. limite. Convergence ps.On dit que(Xn)nconverge presque s^urement versXsi la convergence est vraie avec une probabilite1 P !2 jlimn!+1Xn(!) =X(!)= 1:

On la noteXn!Xp.s.

Convergence en normep.On dit que(Xn)nconverge en normepversXsikXn

Xkp!0quandn!+1, c'est a dire

lim n!+1E[jXnXjp] = 0:

On la noteXnLp!X.

Convergence en proba.On dit que(Xn)nconverge en probabilite versXsi

8" >0;limn!+1P(jXXnj ") = 0:

On la noteXnP!X.

1.3. Vecteurs aleatoires5

Convergence en loi.On dit que(Xn)nconverge en loi versXsi

P(Xn2A)!P(X2A); n!+1;pour toutA2 B(R)

On la noteXn=)X.

Theoreme 1.2.1 (Paul Levy)La convergence en loi des variables aleatoires est equiva- lente a la convergence simple des fonctions caracteristiques : X n=)Xssi8t2R; Xn(t)!X(t): Proposition 1.2.1Les liens entre les dierentes convergences sont donnes par le dia- gramme suivant :

CV ps CVL1 CVLp

CV en proba

CV en loi

1.3 Vecteurs aleatoires

1.3.1 Denition

Denition 1.3.1On appelle vecteur aleatoireX= (X1;:::;Xi;:::;Xn)toute application de( ;F;P)dans(Rn;B(Rn))mesurable. La v.a.Xis'appelle laieme marginale. Denition 1.3.2La loi du vecteur aleatoireXest la mesure image surRnde la probabilite parX: P X(A1An) =P(X2A1An) =P(X12A1;:::;Xn2An);Ai2 B(R);1in:

C'est une mesure de probabilite dans(Rn;B(Rn)).

Denition 1.3.3Un vecteur aleatoireXest discret si l'ensemble de ses valeursX( est discret dansRn. Un vecteur aleatoireXdeRnest de loi a densite, de densitef(x1;:::;xn)si dPX(x) =f(x1;:::;xn)dx1:::dxn()PX(A) =Z A f(x1;:::;xn)dx1:::dxn; A2 B(Rn): On verie sans peine que commePX(Rn) =P(X2Rn) = 1, une densite en dimension nsatisfaitf(x1;:::;xn)0 et Z R nf(x1;:::;xn)dx1:::dxn= 1:

6Chapitre 1.c

JCB { M2 IMA { Universite de La Rochelle

Denition 1.3.4SoitX= (X1;:::;Xn)un vecteur aleatoire, on denit sa fonction ca- racteristique comme la fonction de n variablest= (t1;:::;tn)deRndansC:

X(t) =E[eiht;Xi] =E[ei(t1X1++tnXn)]

ouht;xi=t1x1++tnxnest le produit scalaire euclidien deRn. Proposition 1.3.1Si(X;Y)est un couple de loiPX;Y=alors les lois marginalesPX etPYdeXet deYs'obtiennent par P

X(A) =(AR);P(Y2B) =(RB); A;B2 B(R):

Demonstration :C'est evident si on remarque quefX2Ag=f(X;Y)2ARg. Idem pour la marginaleY. De m^eme siX= (X1;:::;Xn) est de densitef, lai-eme marginaleXiest de densite f

Xi(xi) =Z

R n1f(x1;:::;xn)dx1:::dxi1dxi+1:::dxn:

1.3.2 Independance de variables aleatoires

Il s'agit d'une notion fondamentale en probabilite.

Denition 1.3.5 (Independance)

Deux evenementsA;B2 Fd'un espace de probabilite(

;F;P)sont independants si

P(A\B) =P(A)P(B):

On noteA??B.

Deux vaXetYsont independantes ssi pour toutA;B, on a

P(X2A;Y2B) =P(X2A)P(Y2B):

On note encoreX??Y.

En particulier, deux evenementsAetBincompatibles ne peuvent pas ^etre independants a moins que l'un des deux ne soit de probabilite nulle. SinonP(A\B) =P(;) = 0, tandis queP(A)P(B)>0. Il ne faut donc pas confondre les deux notions. Proposition 1.3.2Un vecteur aleatoireX= (X1;:::;Xn)est a composantes indepen- dantes ssi sa loiPXest une loi produit (de ses lois marginales) : P X=PX1

PXn:(1.5)

1.3. Vecteurs aleatoires7

Application.SiX??Yalors (quand les esperances sont denies)

E[XY] =E[X]E[Y]

et plus generalement pour toutes fonctions mesurablesfetgalorsE[f(X)g(Y)] =E[f(X)]E[g(Y)]. En terme de densite, le critere d'independance s'enonce : soit (X;Y) un couple de densitef(X;Y)et de densite marginalefX(x) pourx,fY(y) pourY. Les v.a.XetYsont independantes ssi

8x;y; f(X;Y)(x;y) =fX(x)fY(y):

Remarque 1.3.1Une consequence importante : si on connait les lois deXet deY, des variables supposeesindependantes, on peut reconstruire la loi du couple (X;Y) a partir des marginales par (1.5). Ce n'est pas vrai en general quandXetYne sont pas independantes. Theoreme 1.3.1Deux variables aleatoiresXetYsont independantes ssi (X;Y)(t;s) =X(t)Y(s):

Demonstration :On raisonne par equivalence :

X??Y,dPX;Y(dx;dy) =dPX(dx)dPY(dy)

,Z R

2ei(tx+sy)dPX;Y(dx;dy) =Z

R

2ei(tx+sy)dPX(dx)dPY(dy)

Z R

2ei(tx+sy)dPX;Y(dx;dy) =Z

R eitxdPX(dx)Z R eisydPY(dy) Z ei(tX+sY)dP=Z eitXdPZ eisYdP ,(X;Y)(t;s) =X(t)Y(s) ou on admet l'equivalence de la deuxieme ligne (c'est la m^eme que celle sur la caracterisation de la loi deXparX) et ou on a utilise ensuite les theoremes de Fubini, puis de transfert. Proposition 1.3.3Si deux variables aleatoiresXetYsont independantes alors

X+Y(t) =X(t)Y(t):

Plus generalement, pournvariables aleatoiresX1;:::;Xnindependantes on a

X1++Xn(t) =X1(t):::Xn(t):

Dans le cas a densite, on a le resultat suivant pour la somme de v.a. independantes Proposition 1.3.4SoitX;Ydeux v.a. independantes et de densitefetgalorsX+Y est a densite, de densite (fg)(x) =Z +1 1 f(y)g(xy)dy:

8Chapitre 1.c

JCB { M2 IMA { Universite de La Rochelle

1.3.3 Covariance et independance

Proposition 1.3.5SoientXetYdeux vecteurs aleatoires independants de variances - nies. AlorsCov(X;Y) = 0. Demonstration :Par independance, on aE[XY] =E[X]E[Y]. D'ou

Cov(X;Y) =E[XY]E[X]E[Y] = 0:

La reciproque est fausse : siXetYsont de covariance nulle alors ils ne sont pas necessai- rement independants. Cependant dans le cas de variablesX,Ygaussiennes, on verra que la reciproque est vraie. Pour la somme d'une variance, on deduit de la Prop. 1.3.5 et de (1.3) : Corollaire 1.3.1SiXetYsont deux v.a. independantes avec des moments d'ordre deux alors

Var(X+Y) = Var(X) + Var(Y):

1.4 Variables gaussiennes

Denition 1.4.1Une v.a.Xsuit la loi normale standardN(0;1)si elle admet pour densite t7!1p2et2=2: De facon generale, une v.a.Xsuit la loi normaleN(m;2)si elle admet pour densite t7!1p22exp (tm)222 Si2= 0, la loi est degeneree, la v.a.Xest constante egale am. Sa loi est un dirac en m:PX=m.

Exercice.Normalisation de la loi normaleZ

+1 1 ex2=2dx=p2.

NotonsI=Z

+1 1 ex2=2dxet montrons queI2= 2. On a I 2=Z +1 1 ex2=2dxZ +1 1 ey2=2dy Z +1 1Z +1 1 ex2=2ey2=2dxdy=Z Z

RRe(x2+y2)=2dxdy

Z 2 0Z +1 0 er2=2rdrd

1.4. Variables gaussiennes9

Z 2 0 dZ +1 0 rer2=2dr= 2h er2=2i+1 0= 2 ou on a utilise le theoreme de Fubini a la 2eme ligne puis on a fait un changement de variables en polaires a la 3eme ligne.

Proposition 1.4.1Une v.a.Xde loiN(m;2)a pour

{ Esperance :E[X] =m { Variance :Var(X) =2 { Fonction caracteristique :X(t) = exp(imt2t2=2). Proposition 1.4.2Une v.a.X' N(m;2)peut se voir comme la translatee et la dilatee deX0' N(0;1)par

X=m+X0:

Autrement dit siX' N(m;2), on denit la variable centree reduite~X=Xm . Elle suit la loiN(0;1). Proposition 1.4.3SoientX1' N(m1;21)etX2' N(m2;22)independantes. AlorsX1+ X

2' N(m1+m2;21+22).

Demonstration :C'est une application, dans le cas gaussien, de la Prop. 1.3.4 (avec un peu de calcul).

1.4.1 Vecteur gaussien

Denition 1.4.2Un vecteur aleatoireX= (X1;:::;Xn)est gaussien ssi toutes les combi- naisons lineaires de ses coordonneesha;Xi=a1X1++anXnsuivent une loi gaussienne dansR(pour touta= (a1;:::;an)2Rn). Denition 1.4.3La matrice de covariance d'un vecteur aleatoireX= (X1;:::;Xn)est la matrice carree symetrique, positive

K= (Cov(Xi;Xj))1i;jn:

L'esperance deX= (X1;:::;Xn)est le vecteur des esperances de ses marginales

E[X] = (E[X1];:::;E[Xn]):

SiE[X] = 0, le vecteurXest dit centre.

10Chapitre 1.c

JCB { M2 IMA { Universite de La Rochelle

Fonction caracteristique gaussienne en dimensionn

SiX= (X1;:::;Xn) est un vecteur gaussien alorsha;Xi=Pn i=1aiXisuit une loi normale de parametres E[ha;Xi] =E[a1X1++anXn] =a1E[X1] ++anE[Xn] =ha;E[X]i

Var(ha;Xi) = Var(a1X1++anXn) =nX

i;j=1a iajCov(Xi;Xj) =atCov(X)a: La v.a.ha;Xisuit donc la loiN(ha;E[X]i;atCov(X)a), sa fonction caracteristique est donnee par ha;Xi(x) = exp ixha;E[X]i 12 (atCov(X)a)x2 D'apres les denitions des fonctions caracteristiques d'une v.a. et d'un vecteur aleatoire

X(x) =E[eihx;Xi] =hx;Xi(1):

On en deduit :

Proposition 1.4.4La fonction caracteristique d'un vecteur gaussienX= (X1;:::;Xn) est donnee par

X(x) = exp

ihx;E[X]i 12 (xtCov(X)x) = exp ihx;E[X]i 12 hx;Cov(X)xi :(1.6)

Remarque :

{ La loi d'un vecteur gaussien est connue des qu'on a le vecteur moyenneE[X] et la matrice de covariance Cov(X). { On parle du vecteur gaussien standard en dimensionnlorsqueE[X] = 0 et Cov(X) = I n. Sa fonction caracteristique est alors

X(x) = exp(hx;xi=2) = exp(kxk2=2):

quotesdbs_dbs35.pdfusesText_40
[PDF] telecharger livre de cuisine africaine gratuit pdf

[PDF] livre de cuisine pdf gratuit - download

[PDF] livre de recette poisson pdf

[PDF] livre de recette de cuisine africaine gratuit pdf

[PDF] recette de cuisine africaine senegalaise pdf

[PDF] recette de patisserie pdf

[PDF] recette sirr

[PDF] rafiou darajati wadoudou

[PDF] arts visuels maison

[PDF] layastakhlifannahum secret

[PDF] fonction linéaire et affine exercices

[PDF] proche et moyen orient un foyer de conflits depuis 1918 fiche de revision

[PDF] fiche proche et moyen orient terminale s

[PDF] fonction linéaire cours

[PDF] fiche de révision gouverner la france depuis 1946