[PDF] Processus Gaussiens Pour un vecteur gaussien centré





Previous PDF Next PDF



Vecteurs gaussiens

Une variable aléatoire réelle Z est dite gaussienne centrée réduite si elle admet pour Donnons la fonction caractéristique d'un vecteur gaussien et les ...



VECTEURS GAUSSIENS

Les vecteurs gaussiens sont associés aux lois gaussiennes multivariées est égale à Idd. Le vecteur aléatoire AX est alors centré de matrice de.



Vecteurs gaussiens

Vecteurs gaussiens. 24 novembre 2013 - v1 non relue. 1 Variables aléatoires gaussiennes réelles. Définition. On appelle loi gaussienne centrée réduite la 



PC 5 – Calcul de lois & Vecteurs gaussiens

20 mai 2019 Donc X3 est indépendant du vecteur gaussien (X1X2). 2. On va montrer que (X1



CHAPITRE 6 : VECTEURS GAUSSIENS

m et sa matrice de covariance ?. Si m = 0 et ? = In on dit que X est un vecteur Gaussien centré réduit. 2) Caractérisation de l'indépendance.



Chapitre 2 - Vecteurs aléatoires gaussiens

On peut “ visualiser une v.a.r. gaussienne centrée réduite G ainsi : prenons Théorème 2.5 Si X est un vecteur gaussien sa fonction caractéristique vaut ...



Processus Gaussiens

Pour un vecteur gaussien centré E[X] = 0 et on montre que. ?x



Leçon 14

d'un vecteur X centré de matrice de covariance ?



T.P. I: Vecteurs gaussiens

est un vecteur gaussien centré de matrice de covariance. (1 ? ? 1. ) . Utiliser dans Scilab la fonction chol en la testant sur une matrice 2x2.



PC 5 : Calcul de lois & Vecteurs gaussiens

On en déduit par la méthode de la fonction muette



[PDF] Vecteurs gaussiens

Rappelons la définition des variables aléatoires gaussiennes réelles Définition 1 • Une variable aléatoire réelle Z est dite gaussienne centrée réduite si 



[PDF] VECTEURS GAUSSIENS

Les vecteurs gaussiens sont associés aux lois gaussiennes multivariées et de ce fait jouent un rôle important en probabilités et en statistique



[PDF] Vecteurs gaussiens

On appelle loi gaussienne centrée réduire la loi N(0Id) Une matrice de variance est nécessaire symétrique et positive Le résultat suivant établit que c'est 



[PDF] VECTEURS GAUSSIENS

VECTEURS GAUSSIENS Préparation à l'agrégation externe de Mathématiques de l'université Rennes 1 1 Année 2008/2009 1 DEFINITIONS ET PREMIERES PROPRIETES



[PDF] Vecteurs aléatoires gaussiens

2 Vecteurs aléatoires gaussiens Rappelons que la loi gaussienne (ou normale) centrée réduite est la loi J (0 1) sur R dont la densité est : fG(x) = 1



[PDF] CHAPITRE 6 : VECTEURS GAUSSIENS - mathenspsleu

Comme nous allons le constater les vecteurs Gaussiens constituent la généralisation naturelle en n dimensions des variables Gaussiennes uni-dimensionnelles La 



[PDF] Vecteurs Gaussiens

Définition 1 7 Nous dirons qu'une v a de carré intégrable X est centrée réduite si E(X)=0 ; V ar(X)=1 Proposition 1 1 Soit Y v a de carré intégrable Alors 



[PDF] VECTEURS GAUSSIENS - ENS Rennes

Souvent un moyen simple de montrer qu'un vecteur aléatoire est gaussien est d'utiliser la proposition suivante qui constitue une définition alternative 



[PDF] PC 5 – Calcul de lois & Vecteurs gaussiens

20 mai 2019 · PC 5 – Calcul de lois Vecteurs gaussiens Exercice 1 Soient X et Y deux variables aléatoires indépendantes gaussiennes centrées réduites



[PDF] Chapitres 8 - Vecteurs Gaussiens et Conditionnement - Ceremade

On dit qu'un vecteur aléatoire X à valeurs dans Rd est gaussien si pour tout ? ? Rd la variable aléatoire réelle ? · X = ?i ?iXi suit une loi gaussienne

:

Processus Gaussiens

Master IMA 2eme annee

Jean-ChristopheBreton

Universite deLa Rochelle

Septembre{Decembre 2006version de decembre 2006

2

Table des matieres

1 Variable et vecteur Gaussiens 1

1.1 Variables aleatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.1.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.1.2 Esperance et variance probabilistes . . . . . . . . . . . . . . . . . . 2

1.2 Convergences probabilistes . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.3 Vecteurs aleatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.3.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.3.2 Independance de variables aleatoires . . . . . . . . . . . . . . . . . 6

1.3.3 Covariance et independance . . . . . . . . . . . . . . . . . . . . . . 8

1.4 Variables gaussiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.4.1 Vecteur gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.5 Theoremes limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

1.5.1 Loi des grands nombres (LGN) . . . . . . . . . . . . . . . . . . . . 14

1.5.2 Theoreme central limite (TCL) . . . . . . . . . . . . . . . . . . . . 14

2 Processus gaussien 17

2.1 Processus stochastique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2.1.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2.1.2 Regularite des trajectoires . . . . . . . . . . . . . . . . . . . . . . . 18

2.1.3 Exemples de proprietes en loi des processus. . . . . . . . . . . . . . 21

2.2 Processus Gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2.3 Exemples de processus gaussiens . . . . . . . . . . . . . . . . . . . . . . . . 23

2.3.1 Mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . . . 23

2.3.2 Pont Brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

2.3.3 Processus d'Ornstein-Uhlenbeck . . . . . . . . . . . . . . . . . . . . 25

2.3.4 Brownien geometrique . . . . . . . . . . . . . . . . . . . . . . . . . 25

2.3.5 Bruit blanc gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . 25

2.3.6 Mouvement brownien fractionnaire . . . . . . . . . . . . . . . . . . 26

3 Mouvement brownien 27

3.1 Historique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

3.2 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

3.3 Proprietes du MB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

i iiTable des matieres

3.3.1 Proprietes en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

3.3.2 Proprietes des trajectoires du MB . . . . . . . . . . . . . . . . . . . 29

3.4Equation de la chaleur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3.4.1 Origine physique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3.4.2 Origine mathematique . . . . . . . . . . . . . . . . . . . . . . . . . 34

3.5 Versions multidimensionnelles du MB . . . . . . . . . . . . . . . . . . . . . 38

3.5.1 Mouvement brownien multidimensionel . . . . . . . . . . . . . . . . 38

3.5.2 Champ de Wiener-Chensov . . . . . . . . . . . . . . . . . . . . . . 38

3.5.3 Fonction brownienne de Levy . . . . . . . . . . . . . . . . . . . . . 39

4 Integration stochastique 41

4.1 Variation quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

4.2 Formule d'It^o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

4.3 Et l'integrale d'It^o? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

4.4Equations dierentielles stochastiques (EDS) . . . . . . . . . . . . . . . . . 46

4.4.1Equations dierentielles et EDS . . . . . . . . . . . . . . . . . . . . 46

4.4.2 Exemples d'EDS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

5 Mouvement brownien fractionnaire 49

5.1 Generalites sur l'autosimilarite . . . . . . . . . . . . . . . . . . . . . . . . . 49

5.2 Denition du mouvement brownien fractionnaire . . . . . . . . . . . . . . . 51

5.3 Regularite des trajectoires . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

5.3.1 H

older . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

5.3.2 Exposant de H

older . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

5.4 Representations integrales du mBf . . . . . . . . . . . . . . . . . . . . . . . 56

5.4.1 Representation en moyenne mobile . . . . . . . . . . . . . . . . . . 56

5.4.2 Representation harmonisable . . . . . . . . . . . . . . . . . . . . . . 57

5.5 Generalisations multidimensionnelles du mBf . . . . . . . . . . . . . . . . . 60

5.5.1 Drap brownien fractionnaire . . . . . . . . . . . . . . . . . . . . . . 60

5.5.2 Fonction brownienne fractionnaire de Levy . . . . . . . . . . . . . . 60

5.6 Mouvement brownien multifractionaire (mBm) . . . . . . . . . . . . . . . . 61

5.6.1 Denition et proprietes du mBm . . . . . . . . . . . . . . . . . . . 61

5.6.2 Regularite des trajectoires . . . . . . . . . . . . . . . . . . . . . . . 62

5.6.3 Simulation, estimation du mBm . . . . . . . . . . . . . . . . . . . . 63

5.7 Modelisation d'un signal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

Introduction

Ces notes de cours s'adressent a des etudiants Math-Info de Master 2. Elles sont large- ment inspirees de plusieurs sources. Le chapitre 1 contient les rappels essentiels de variables et vecteurs aleatoires et est issu des notes de cours de L3 [JCB]. Le chapitre 2 est inspire de la presentation de Youri Davydov pour son cours de DEA [Dav] a l'Universite Lille 1 et de [Lif].

Le chapitre 3 est inspire de [EGK] et de [Lif].

Le chapitre 4 sur l'integration stochastique est un melange de [EGK] et de [Dav]. Le chapitre 5 est inspire de [ST] pour ce qui concerne le mBf mais aussi de [A-LV, LV, P-LV] pour les generalisations. Enn la modelisation pour l'image provient essentiellement de [BCM, PPLV]. iii ivTable des matieres

Chapitre 1

Variable et vecteur Gaussiens

Denition, proprietes, covariance, fonction caracteristique, TCL et generalisations.

1.1 Variables aleatoires

1.1.1 Denition

Denition 1.1.1Un espace de probabilite est un espace mesurable( ;F)muni d'une mesure de probabiliteP, c'est a dire une mesure de masse totale1:P( ) = 1. Les ensembles mesurablesA2 Fsont appeles les evenements (ou observables).

Denition 1.1.2 (variable aleatoire)

{ On appelle variable aleatoire (v.a.) toute application mesurableXd'un espace de probabilite( ;F;P)dansRmuni de la tribu borelienneB(R). { On appelle loi deXla mesure de probabilitePXdenie surRpar P

X(A) =P(X2A) =P(!2

jX(!)2A); A2 B(R): { La v.a.Xest discrete si elle est a valeurs dans un ensemble au plus denombrable (en bijection avec une partie deN) :X( )est ni ou denombrable (on peut compter ses elements). { La v.a.Xest a densite, de densitef, si

P(X2A) =Z

A fd;P(X2[a;b]) =Z b a f(x)dx: Denition 1.1.3La fonction caracteristique d'une v.a.Xest la fonction deRdansC

X(t) =E[eitX] =Z

eitXdP=Z eitxdPX(x):(1.1) 1

2Chapitre 1.c

JCB { M2 IMA { Universite de La Rochelle

Il s'agit de la transformee de Fourier de la loiPXdeX. Cette fonction caracterise la loi de X. Exemples.Une v.a.Xsuit la loi normale standardN(0;1) si elle admet pour densite t7!1p2et2=2: Elle a pour fonction caracteristiqueX(t) =et2=2. De facon generale, une v.a.Xsuit la loi normaleN(m;2) si elle admet pour densite t7!1p22exp (tm)222 Elle a pour fonction caracteristiqueX(t) = exp(imt2t2=2).

1.1.2 Esperance et variance probabilistes

Denition 1.1.4

Moment :Une v.a.X: (

;F;P)!Ra un moment d'ordrep1ssi

E[jXjp] =Z

jXjpdP<+1: Esperance :SiXa un moment d'ordre1, l'esperance d'une v.a.Xest donnee par

E[X] =Z

X(!)dP(!) =Z

XdP: Variance :SiXa un moment d'ordre2, la variance deXest donnee par

Var(X) =E[(XE[X])2]:(1.2)

Ecart-type :L'ecart-type d'une v.a.Xqui admet une variance est donnee parX=pVar(X).

On note aussiLp(

;F;P) =fX: ( ;F;P)!RjE[jXjp]<+1g, c'est un espace vectoriel norme avec pour norme kXkp= (E[jXjp])1=p: Remarque 1.1.1L'esperance d'une v.a. donne la valeur moyenne (au sens probabiliste) de la v.a. Sa variance (ou son ecart-type) mesure la dispersion des valeurs de la v.a. autour de sa moyenne. Ou encore, l'ecart-type donne l'ecart moyen de la v.a. par rapport a sa moyenne. Il est equivalent de dire que la variance deXest nie et queXadmet un moment d'ordre 2 ni.

1.1. Variables aleatoires3

Proposition 1.1.1 (Fonction caracteristique et moments)Si une v.a.Xa un mo- ment d'ordrep, alors sa fonction caracteristiqueXest derivablepfois et on a (p)

X(0) =ipE[Xp]:

Demonstration :C'est une consequence du theoreme de derivation sous l'esperance (par convergence dominee) avec une hypothese de domination donnee par l'existence du mo- ment d'ordrep. Proposition 1.1.2 (Inegalite de Markov)SoitXune v.a. positive avec un moment d'ordre 1 ni. On a pour toutt >0:

P(Xt)E[X]t

Exemple.Une v.a.X' N(m;2) a pour esperance et variance

E[X] =m;E[X2] =2:

En fait, une v.a.X' N(m;2) peut alors se denir comme une translatee et dilatee deX0' N(0;1) par

X=m+X0:

Proposition 1.1.3 (Proprietes de la variance)

Var(X)0.

Var(X) =E[X2]E[X]2(Formule de Koenig).

Var(aX) =a2Var(X).

Var(X+b) = Var(X)pour toute constanteb2R.

Var(X) = 0ssiXest constante ps (et vaut alorsE[X]). La variance est un operateur quadratique non lineaire. Denition 1.1.5 (Covariance)SoientX;Ydeux variables aleatoires avec des variances nies, on denit la covariance deXet deYpar

Cov(X;Y) =E[(XE[X])(YE[Y])] =E[XY]E[X]E[Y]:

On a en eet

Cov(X;Y) =E[(XE[X])(YE[Y])] =E[XYYE[X]XE[Y]E[X]E[Y]] =E[XY]E[YE[X]]E[XE[Y]] +E[X]E[Y] =E[XY]E[Y]E[X]E[X]E[Y] +E[X]E[Y] =E[XY]E[X]E[Y]:

4Chapitre 1.c

JCB { M2 IMA { Universite de La Rochelle

Remarque :(X;Y)7!Cov(X;Y) est une application bilineaire symetrique.

SiXouYest centree alors Cov(X;Y) =E[XY].

Cov(X;X) = Var(X).

La variance Var est une forme quadratique surL2(

), d'application bilineaire syme- trique associee la covariance Cov. Proposition 1.1.4SiXetYsont deux v.a. avec des moments d'ordre 2 nis alors

Var(X+Y) = Var(X) + Var(Y) + 2Cov(X;Y) (1.3)

jCov(X;Y)j pVar(X)Var(Y):(1.4) Demonstration :Pour(1.3), il sut de developper Var(X+Y). Puis pour l'inegalite (1.4), on applique l'inegalite de Cauchy-Schwarz jCov(X;Y)j=E[(XE[X])(YE[Y])] pE[(XE[X])2]E[(YE[Y])2] =pVar(X)Var(Y):

1.2 Convergences probabilistes

On rappelle brievement les dierentes convergences probabilistes. Denition 1.2.1Soit(Xn)nune suite de v.a. etXune v.a. limite. Convergence ps.On dit que(Xn)nconverge presque s^urement versXsi la convergence est vraie avec une probabilite1 P !2 jlimn!+1Xn(!) =X(!)= 1:

On la noteXn!Xp.s.

Convergence en normep.On dit que(Xn)nconverge en normepversXsikXn

Xkp!0quandn!+1, c'est a dire

lim n!+1E[jXnXjp] = 0:

On la noteXnLp!X.

Convergence en proba.On dit que(Xn)nconverge en probabilite versXsi

8" >0;limn!+1P(jXXnj ") = 0:

On la noteXnP!X.

1.3. Vecteurs aleatoires5

Convergence en loi.On dit que(Xn)nconverge en loi versXsi

P(Xn2A)!P(X2A); n!+1;pour toutA2 B(R)

On la noteXn=)X.

Theoreme 1.2.1 (Paul Levy)La convergence en loi des variables aleatoires est equiva- lente a la convergence simple des fonctions caracteristiques : X n=)Xssi8t2R; Xn(t)!X(t): Proposition 1.2.1Les liens entre les dierentes convergences sont donnes par le dia- gramme suivant :

CV ps CVL1 CVLp

CV en proba

CV en loi

1.3 Vecteurs aleatoires

1.3.1 Denition

Denition 1.3.1On appelle vecteur aleatoireX= (X1;:::;Xi;:::;Xn)toute application de( ;F;P)dans(Rn;B(Rn))mesurable. La v.a.Xis'appelle laieme marginale. Denition 1.3.2La loi du vecteur aleatoireXest la mesure image surRnde la probabilite parX: P X(A1An) =P(X2A1An) =P(X12A1;:::;Xn2An);Ai2 B(R);1in:

C'est une mesure de probabilite dans(Rn;B(Rn)).

Denition 1.3.3Un vecteur aleatoireXest discret si l'ensemble de ses valeursX( est discret dansRn. Un vecteur aleatoireXdeRnest de loi a densite, de densitef(x1;:::;xn)si dPX(x) =f(x1;:::;xn)dx1:::dxn()PX(A) =Z A f(x1;:::;xn)dx1:::dxn; A2 B(Rn): On verie sans peine que commePX(Rn) =P(X2Rn) = 1, une densite en dimension nsatisfaitf(x1;:::;xn)0 et Z R nf(x1;:::;xn)dx1:::dxn= 1:

6Chapitre 1.c

JCB { M2 IMA { Universite de La Rochelle

Denition 1.3.4SoitX= (X1;:::;Xn)un vecteur aleatoire, on denit sa fonction ca- racteristique comme la fonction de n variablest= (t1;:::;tn)deRndansC:

X(t) =E[eiht;Xi] =E[ei(t1X1++tnXn)]

ouht;xi=t1x1++tnxnest le produit scalaire euclidien deRn. Proposition 1.3.1Si(X;Y)est un couple de loiPX;Y=alors les lois marginalesPX etPYdeXet deYs'obtiennent par P

X(A) =(AR);P(Y2B) =(RB); A;B2 B(R):

Demonstration :C'est evident si on remarque quefX2Ag=f(X;Y)2ARg. Idem pour la marginaleY. De m^eme siX= (X1;:::;Xn) est de densitef, lai-eme marginaleXiest de densite f

Xi(xi) =Z

R n1f(x1;:::;xn)dx1:::dxi1dxi+1:::dxn:

1.3.2 Independance de variables aleatoires

Il s'agit d'une notion fondamentale en probabilite.

Denition 1.3.5 (Independance)

Deux evenementsA;B2 Fd'un espace de probabilite(

;F;P)sont independants si

P(A\B) =P(A)P(B):

On noteA??B.

Deux vaXetYsont independantes ssi pour toutA;B, on a

P(X2A;Y2B) =P(X2A)P(Y2B):

On note encoreX??Y.

En particulier, deux evenementsAetBincompatibles ne peuvent pas ^etre independants a moins que l'un des deux ne soit de probabilite nulle. SinonP(A\B) =P(;) = 0, tandis queP(A)P(B)>0. Il ne faut donc pas confondre les deux notions. Proposition 1.3.2Un vecteur aleatoireX= (X1;:::;Xn)est a composantes indepen- dantes ssi sa loiPXest une loi produit (de ses lois marginales) : P X=PX1

PXn:(1.5)

1.3. Vecteurs aleatoires7

Application.SiX??Yalors (quand les esperances sont denies)

E[XY] =E[X]E[Y]

et plus generalement pour toutes fonctions mesurablesfetgalorsE[f(X)g(Y)] =E[f(X)]E[g(Y)]. En terme de densite, le critere d'independance s'enonce : soit (X;Y) un couple de densitef(X;Y)et de densite marginalefX(x) pourx,fY(y) pourY. Les v.a.XetYsont independantes ssi

8x;y; f(X;Y)(x;y) =fX(x)fY(y):

Remarque 1.3.1Une consequence importante : si on connait les lois deXet deY, des variables supposeesindependantes, on peut reconstruire la loi du couple (X;Y) a partir des marginales par (1.5). Ce n'est pas vrai en general quandXetYne sont pas independantes. Theoreme 1.3.1Deux variables aleatoiresXetYsont independantes ssi (X;Y)(t;s) =X(t)Y(s):

Demonstration :On raisonne par equivalence :

X??Y,dPX;Y(dx;dy) =dPX(dx)dPY(dy)

,Z R

2ei(tx+sy)dPX;Y(dx;dy) =Z

R

2ei(tx+sy)dPX(dx)dPY(dy)

Z R

2ei(tx+sy)dPX;Y(dx;dy) =Z

R eitxdPX(dx)Z R eisydPY(dy) Z ei(tX+sY)dP=Z eitXdPZ eisYdP ,(X;Y)(t;s) =X(t)Y(s) ou on admet l'equivalence de la deuxieme ligne (c'est la m^eme que celle sur la caracterisation de la loi deXparX) et ou on a utilise ensuite les theoremes de Fubini, puis de transfert. Proposition 1.3.3Si deux variables aleatoiresXetYsont independantes alors

X+Y(t) =X(t)Y(t):

Plus generalement, pournvariables aleatoiresX1;:::;Xnindependantes on a

X1++Xn(t) =X1(t):::Xn(t):

Dans le cas a densite, on a le resultat suivant pour la somme de v.a. independantes Proposition 1.3.4SoitX;Ydeux v.a. independantes et de densitefetgalorsX+Y est a densite, de densite (fg)(x) =Z +1 1 f(y)g(xy)dy:

8Chapitre 1.c

JCB { M2 IMA { Universite de La Rochelle

1.3.3 Covariance et independance

Proposition 1.3.5SoientXetYdeux vecteurs aleatoires independants de variances - nies. AlorsCov(X;Y) = 0. Demonstration :Par independance, on aE[XY] =E[X]E[Y]. D'ou

Cov(X;Y) =E[XY]E[X]E[Y] = 0:

La reciproque est fausse : siXetYsont de covariance nulle alors ils ne sont pas necessai- rement independants. Cependant dans le cas de variablesX,Ygaussiennes, on verra que la reciproque est vraie. Pour la somme d'une variance, on deduit de la Prop. 1.3.5 et de (1.3) : Corollaire 1.3.1SiXetYsont deux v.a. independantes avec des moments d'ordre deux alors

Var(X+Y) = Var(X) + Var(Y):

1.4 Variables gaussiennes

Denition 1.4.1Une v.a.Xsuit la loi normale standardN(0;1)si elle admet pour densite t7!1p2et2=2: De facon generale, une v.a.Xsuit la loi normaleN(m;2)si elle admet pour densite t7!1p22exp (tm)222 Si2= 0, la loi est degeneree, la v.a.Xest constante egale am. Sa loi est un dirac en m:PX=m.

Exercice.Normalisation de la loi normaleZ

+1 1 ex2=2dx=p2.

NotonsI=Z

+1 1 ex2=2dxet montrons queI2= 2. On a I 2=Z +1 1 ex2=2dxZ +1 1 ey2=2dy Z +1 1Z +1 1 ex2=2ey2=2dxdy=Z Z

RRe(x2+y2)=2dxdy

Z 2 0Z +1 0 er2=2rdrd

1.4. Variables gaussiennes9

Z 2 0 dZ +1 0 rer2=2dr= 2h er2=2i+1 0= 2 ou on a utilise le theoreme de Fubini a la 2eme ligne puis on a fait un changement de variables en polaires a la 3eme ligne.

Proposition 1.4.1Une v.a.Xde loiN(m;2)a pour

{ Esperance :E[X] =m { Variance :Var(X) =2 { Fonction caracteristique :X(t) = exp(imt2t2=2). Proposition 1.4.2Une v.a.X' N(m;2)peut se voir comme la translatee et la dilatee deX0' N(0;1)par

X=m+X0:

Autrement dit siX' N(m;2), on denit la variable centree reduite~X=Xm . Elle suit la loiN(0;1). Proposition 1.4.3SoientX1' N(m1;21)etX2' N(m2;22)independantes. AlorsX1+ X

2' N(m1+m2;21+22).

Demonstration :C'est une application, dans le cas gaussien, de la Prop. 1.3.4 (avec un peu de calcul).

1.4.1 Vecteur gaussien

Denition 1.4.2Un vecteur aleatoireX= (X1;:::;Xn)est gaussien ssi toutes les combi- naisons lineaires de ses coordonneesha;Xi=a1X1++anXnsuivent une loi gaussiennequotesdbs_dbs42.pdfusesText_42
[PDF] matrice de variance et covariance exercice corrigé

[PDF] exercice microéconomie consommateur

[PDF] exercice aire et périmètre 3eme

[PDF] exercices corrigés arithmétique 3eme

[PDF] relations interspécifiques exercices

[PDF] relations interspécifiques exemples

[PDF] exercice sur les facteurs biotiques

[PDF] démontrer que deux triangles sont isométriques

[PDF] triangles isométriques démonstrations

[PDF] triangles isométriques exercices corrigés

[PDF] figures isométriques et semblables exercices

[PDF] triangles isométriques exercices corrigés 4ème

[PDF] figures isométriques exercices

[PDF] isométrie exercices corrigés

[PDF] exercices corrigés dioptre sphérique