[PDF] Chapitre 2 - Vecteurs aléatoires gaussiens





Previous PDF Next PDF



Vecteurs gaussiens

Une variable aléatoire réelle Z est dite gaussienne centrée réduite si elle admet pour Donnons la fonction caractéristique d'un vecteur gaussien et les ...



VECTEURS GAUSSIENS

Les vecteurs gaussiens sont associés aux lois gaussiennes multivariées est égale à Idd. Le vecteur aléatoire AX est alors centré de matrice de.



Vecteurs gaussiens

Vecteurs gaussiens. 24 novembre 2013 - v1 non relue. 1 Variables aléatoires gaussiennes réelles. Définition. On appelle loi gaussienne centrée réduite la 



PC 5 – Calcul de lois & Vecteurs gaussiens

20 mai 2019 Donc X3 est indépendant du vecteur gaussien (X1X2). 2. On va montrer que (X1



CHAPITRE 6 : VECTEURS GAUSSIENS

m et sa matrice de covariance ?. Si m = 0 et ? = In on dit que X est un vecteur Gaussien centré réduit. 2) Caractérisation de l'indépendance.



Chapitre 2 - Vecteurs aléatoires gaussiens

On peut “ visualiser une v.a.r. gaussienne centrée réduite G ainsi : prenons Théorème 2.5 Si X est un vecteur gaussien sa fonction caractéristique vaut ...



Processus Gaussiens

Pour un vecteur gaussien centré E[X] = 0 et on montre que. ?x



Leçon 14

d'un vecteur X centré de matrice de covariance ?



T.P. I: Vecteurs gaussiens

est un vecteur gaussien centré de matrice de covariance. (1 ? ? 1. ) . Utiliser dans Scilab la fonction chol en la testant sur une matrice 2x2.



PC 5 : Calcul de lois & Vecteurs gaussiens

On en déduit par la méthode de la fonction muette



[PDF] Vecteurs gaussiens

Rappelons la définition des variables aléatoires gaussiennes réelles Définition 1 • Une variable aléatoire réelle Z est dite gaussienne centrée réduite si 



[PDF] VECTEURS GAUSSIENS

Les vecteurs gaussiens sont associés aux lois gaussiennes multivariées et de ce fait jouent un rôle important en probabilités et en statistique



[PDF] Vecteurs gaussiens

On appelle loi gaussienne centrée réduire la loi N(0Id) Une matrice de variance est nécessaire symétrique et positive Le résultat suivant établit que c'est 



[PDF] VECTEURS GAUSSIENS

VECTEURS GAUSSIENS Préparation à l'agrégation externe de Mathématiques de l'université Rennes 1 1 Année 2008/2009 1 DEFINITIONS ET PREMIERES PROPRIETES



[PDF] Vecteurs aléatoires gaussiens

2 Vecteurs aléatoires gaussiens Rappelons que la loi gaussienne (ou normale) centrée réduite est la loi J (0 1) sur R dont la densité est : fG(x) = 1



[PDF] CHAPITRE 6 : VECTEURS GAUSSIENS - mathenspsleu

Comme nous allons le constater les vecteurs Gaussiens constituent la généralisation naturelle en n dimensions des variables Gaussiennes uni-dimensionnelles La 



[PDF] Vecteurs Gaussiens

Définition 1 7 Nous dirons qu'une v a de carré intégrable X est centrée réduite si E(X)=0 ; V ar(X)=1 Proposition 1 1 Soit Y v a de carré intégrable Alors 



[PDF] VECTEURS GAUSSIENS - ENS Rennes

Souvent un moyen simple de montrer qu'un vecteur aléatoire est gaussien est d'utiliser la proposition suivante qui constitue une définition alternative 



[PDF] PC 5 – Calcul de lois & Vecteurs gaussiens

20 mai 2019 · PC 5 – Calcul de lois Vecteurs gaussiens Exercice 1 Soient X et Y deux variables aléatoires indépendantes gaussiennes centrées réduites



[PDF] Chapitres 8 - Vecteurs Gaussiens et Conditionnement - Ceremade

On dit qu'un vecteur aléatoire X à valeurs dans Rd est gaussien si pour tout ? ? Rd la variable aléatoire réelle ? · X = ?i ?iXi suit une loi gaussienne

:

Chapitre 2

Vecteurs aléatoires gaussiensUniversité d"Artois

Faculté des Sciences Jean Perrin

Probabilités (Master 1 Mathématiques-Informatique)

Daniel Li

1 Vecteurs aléatoires

Certaines notions que l"on a définies dans le chapitre précédent que pour les variables aléatoires réelles se transposent pour les variables aléatoires vecto- rielles.

On dispose dansRddu produit scalaire usuel :

?x|y?=x1y1+···+xdyd six= (x1,...,xd)ety= (y1,...,yd)?Rd.

1.1 Fonction caractéristique

SiX: Ω→Rdest une variable aléatoire, on définit safonction caracté- ristiqueΦX:Rd→Cpar :Φ

X(u) =E?ei?u|X??,?u?Rd,

où ??u|X??(ω) =?u|X(ω)?,?ω?Ω. Autrement dit, siX= (X1,...,Xd)et u= (u1,...,ud):Φ

X(u) =E?ei(u1X1+···+udXd)?Convention.Il est d"usage d"identifier les vecteurs deRdà desmatrices-

colonnes; ainsi on écrira le vecteur aléatoireX= (X1,...,Xd)sous la forme : X=( (X 1... X d) et alors : tX= (X1···Xd) est une matrice-ligne (noter l"absence maintenant des virgules). 1 Siu=( (u 1... u d) ), le produit scalaire s"écrira, en identifiant les éléments deR à des matrices à une ligne et une colonne, comme le produit des matrices :?u|X?=tX.u=tu.X.

Comme lorsqued= 1, on a :

Théorème 1.1Deux v.a. possédant la même fonction caractéristique ont la même loi : siXetYsont deux v.a. à valeurs dansRdtelles queΦX= ΦY, alorsPX=PY. Preuve.Elle est la même que celle faite dans le casd= 1, en utilisant l"unité approchée définie parpa(y) =1a dp?ya ?,a >0, avecp(y) =p(y1,...,yd) = 1π

d(1+y21)···(1+y2d)·?Corollaire 1.2SoitXk: Ω→Rdk,1?k?n, des v.a.; elles sont indépen-

dantes si et seulement si :

[X1,...,Xn)(t1,...,tn) = ΦX1(t1)···ΦXn(tn),?tk?Rdk,1?k?n.Preuve.Le Théorème de Fubini donne :

X1(t1)···ΦXn(tn) =?

R d"où le résultat, puisque le membre de droite est laf.cd"unev.a.suivant la loi P

X1? ··· ?PXn.?

1.2 Espérance

On dira queX= (X1,...,Xd): Ω→Rdestintégrable(resp.,de carré intégrable,resp.de puissancer`emeintégrable :X?Lr(Ω;Rd)) si chacune de ses composantesX1,...,Xd: Ω→Rl"est. On notera, pourXintégrable :E(X) =?E(X1),...,E(Xd)?, ou, matriciellement :E(X) =( (E(X1)

E(Xd))

Il est facile de voir que lav.a.X?Lr(Ω;Rd)si et seulement si :

E(?X?r)<+∞.

2 Proposition 1.3SoitA:Rd→Rd?une applicationlinéaire, etX: Ω→Rd un vecteur aléatoire intégrable. Alors :E(AX) =AE(X). Dans cette proposition, de la même manière que l"on a identifié les vecteurs à des matrices-colonnes, on identifiel"application linéaireAà sa matrice; donc : A=(

1,1···α1,d......

d?,1···αd?,d)

Preuve.Il suffit de l"écrire; on a :

AX=? d? l=1α k,lXl?

1?k?d?;

chacune des composantes deAXest intégrable; doncAXest intégrable et :

E(AX) =?

E?d? l=1α k,lXl??

1?k?d?

d? l=1α k,lXlE(Xl)?

1?k?d?=AE(X).?

En particulier, pour touta?Rd, on a :E

??a|X??=?a|E(X)?, ou, autrement écrit :E(ta.X) =ta.E(X).

Définition 1.4SiM=?Xk,l?

1?k?n

1?l?sest une matrice formée de variables aléa-

toires réellesXk,l: Ω→R, on dit que c"est unematrice aléatoire. On dit qu"elle estintégrablesi chacune desXk,ll"est, et l"on pose alors :

E(M) =?E(Xk,l?

k,l. Proposition 1.5SoitMune matrice aléatoire etAetBdeux matrices (non aléatoires; on dit qu"elles sontdéterministes) telles que les produitsAMet MBexistent et soient intégrables. On a :E(AM) =AE(M)etE(MB) =E(M)B. Preuve.Il suffit de regarder la définition du produit des matrices.? 3 Définition 1.6SiX: Ω→Rdest un vecteur aléatoire de carré intégrable, on définit samatrice de covariance, avec les notations matricielles, par :K

X=E??X-E(X)?.t?X-E(X)??.

On notera que :

X-E(X)?.t?X-E(X)?=(

(X

1-E(X1)

X d-E(Xd)) X

1-E(X1)···Xd-E(Xd)?

est une matrice carrée d"ordred, dont les termes sont : ?Xk-E(Xk)??Xl-E(Xl)?,1?k,l?d. LorsqueX,Y?L2(Ω)sont deuxv.a.réellesde carré intégrable, on définit leurcovariancepar : cov(X,Y) =E??X-E(X)??Y-E(Y)??=E(XY)-E(X)E(Y).

LorsqueY=X, on obtient lavariancedeX.

Revenant au cas oùX= (X1,...,Xd)est un vecteur aléatoire, on voit que sa matrice de covariance est : K X=? cov(Xk,Xl)?

1?k,l?d.

Proposition 1.7La matrice de covariance estsymétriqueetpositive. La forme quadratique associée est non dégénérée si et seulement si,en tant qu"élé- ments deL2(Ω,P), les vecteursX1-E(X1),...,Xd-E(Xd)sontlinéairementindépendants.

Preuve.La symétrie est évidente.

Rappelons qu"une matrice symétrique est positive si la forme bilinéaire (ou la forme quadratique) associée est une forme positive. Il faut donc voir que, pour toutu=( (u 1... u d) ), on a :t uKXu?0.

Mais cela résulte du lemme suivant.

Lemme 1.8Pour toutu?Rd, on a :t

uKXu=E?[?u|X-E(X)?]2?. 4 Preuve.C"est un simple calcul; grâce à la Proposition 1.3, on a : t d"où le résultat, puisque tu.[X-E(X)] =?u|X-E(X)?et quet[X-E(X)].u= ?X-E(X)|u?=?u|X-E(X)?.? Cette formule montre de plus que la forme quadratiqueu?→tuKXuest dégénérée si, et seulement si, il existeu?= 0tel que?u|X-E(X)?= 0, ce qui signifie que l"on a, dansL2(P),u1?X1-E(X1)?+···+ud?Xd-E(Xd)?= 0pour desu1,...,udnon tous nuls; autrement dit, queX1-E(X1),...,Xd-E(Xd) sont linéairement indépendants dansL2(P).? Remarque.Il faut bien faire attention que si desv.a.r., non constantes, sont indépendantes, elles sontlinéairement indépendantes(sinon, l"une peut s"expri- mer comme combinaison linéaire des autres; elle ne peut donc être indépendante de celles-ci), l"inverse est bien sûr loin d"être vrai. Exemple.SiXsuit la loi uniforme sur[0,1],XetX2, qui ne sont, bien sûr, pas indépendantes, sont linéairement indépendantes, car siaX+bX2= 0, alors, d"une part, en prenant l"espérance, on a a2 +b3 = 0, puisque :

E(Xk) =?

1 0 xkdx=1k+ 1; mais on a aussi, d"autre part,aX2+bX3= 0, d"oùa3 +b4 ; donca=b= 0. Notons que, par définition, la covariance de deuxv.a.r.XetYest le produit scalaire, dansL2(P), desv.a.r.centréesX-E(X)etY-E(Y): cov(X,Y) =?X-E(X)|Y-E(Y)?. La covariance est donc nulle (on dit alors queXetYsontnon corrélées, ou décorrélées, si et seulement si lesv.a.r.centréesX-E(X)etY-E(Y)sont orthogonales. LorsqueXetYsont indépendantes, on aE(XY) =E(X)E(Y); donccov(X,Y) = 0. Ainsi : Proposition 1.9SiXetYsont deux v.a.r. indépendantes, alorscov(X,Y) =

0, etX-E(X)etY-E(Y)sont orthogonales dansL2(P).

On avait déjà vu cela dans la Remarque suivant le Corollaire 14 du Cha- pitre 1. Corollaire 1.10SiX1,...,Xd: Ω→Rsont indépendantes, la matrice de co- variance du vecteur aléatoireX= (X1,...,Xd)estdiagonale. La réciproque est évidemment en général fausse, puisque le fait que la matrice de covariance soit diagonale signifie seulement que les composantes du vecteur aléatoire sont deux-à-deux non corrélées. 5

2 Vecteurs aléatoires gaussiens

Rappelons que laloi gaussienne(ounormale)centrée réduiteest la loi

N(0,1)surRdont la densité est :f

G(x) =1⎷2πe-x2/2.

SiG≂N(0,1), saf.c.estΦ

G(t) = e-t2/2; son espérance est nulle :E(G) =

0, et sa variance estVar(G) = 1.

SiG≂N(0,1), alorsσG+m≂N(m,σ2)et, inversement, siX≂

N(m,σ2), alorsG=X-mσ

≂N(0,1). Onconviendrade dire que lesconstantessont desgaussiennes dégé- nérées(correspondant àσ= 0). On peut " visualiser unev.a.r.gaussienne centrée réduiteGainsi : prenons

Ω =?-12

,12 ?,muni de sa tribu borélienne, avec la probabilitéPqui est la mesure de Lebesgueλ.

SoitGla fonction impaire surΩqui, sur?0,12

?, est la fonction réciproque de : u?-→? u 0 e-x2/2dx⎷2πOn a bien, puisqueG-1est strictement croissante :

P(0?G?u) =λ([0,G-1(u)]) =G-1(u) =?

u 0 e-x2/2dx⎷2π· 6 Définition 2.1On dit qu"un vecteur aléatoireX: Ω→Rdest unvecteur

aléatoire gaussiensi la v.a.r.?(X): Ω→Rest gaussienne, pour touteformelinéaire?:Rd→R.En d"autres termes, siX= (X1,...,Xd), lesv.a.r.a1X1+···+adXddoivent

être gaussiennes, pourtout choixdes nombres réelsa1,...,ad. On dira souventvecteur gaussienau lieu de "vecteur aléatoire gaussien".

Il est clair que :

Proposition 2.2SiX: Ω→Rdest un vecteur gaussien et siA:Rd→Rd?est une applicationlinéaire, alorsAX: Ω→Rd?est encore un vecteur gaussien. puisqueψ◦Aest une forme linéaire surRd, pour toute forme linéaireψsurRd?. Il résulte aussi immédiatement de la définition que l"on a : Proposition 2.3SiX= (X1,...,Xd): Ω→Rdest un vecteur gaussien, alors chaque v.a.r.Xk: Ω→R, est gaussienne. puisque les applications(x1,...,xd)?→xksont des formes linéaires surRd.

L"inverse est faux, comme on le verra. Néanmoins, on a :Théorème 2.4SoitX1,...,Xd: Ω→Rdes v.a.r. gaussiennes; si elles sont

indépendantes, alors le vecteurX= (X1,...,Xd)est gaussien.Preuve.Pour tous réelsa1,...,ad?R, lesv.a.r.a1X1,...,adXdsont encore

gaussiennes et indépendantes; alors (voir Chapitre 1, Corollaire 5.10), lav.a.r. a

1X1+···+adXdest encore gaussienne.?

Théorème 2.5SiXest un vecteur gaussien, sa fonction caractéristique vaut :Φ

X(u) = exp?

itu.E(X)-12 tuKXu?,?u?Rd, oùKXest la matrice de covariance deX. On notera que lorsqueXest unev.a.r.gaussienne (d= 1), alorsu?Ret tuKXu= Var(X)u2=σ2u2,tu.E(X) =mu; cette formule étend bien le cas scalaire. Preuve.L"applicationx?→tu.x=?u|x?est une forme linéaire. Lav.a.r.tu.X est donc gaussienne. Son espérance estm=E(tu.X) =tu.E(X), et sa variance estσ2= Var(tu.X) =tuKXu; en effet : Lemme 2.6Pour tout vecteur aléatoireX, on a :tuKXu= Var(tu.X). 7 Preuve du lemme.On a vu (Lemme 1.8) quetuKXu=E?[?u|X-

E(X)?]2?; mais :

?u|X-E(X)?=tu.?X-E(X)?=tu.X-tu.E(X) =tu.X-E(tu.X); donc : tuKXu=E?[tu.X-E(tu.X)]2?= Var(tu.X).? Suite de la preuve du Théorème 2.5.Donc, pour toutv?R, on a : tu.X(v) = exp? ivm-12

σ2v2?

Comme :

tu.X(v) =E?eiv(tu.X)?=E?eiv?u|X??, on obtient, en prenantv= 1:

X(u) =E?eiv?u|X??= Φ

tu.X(1) = exp? itu.E(X)-12 tuKXu?

Comme corollaire, on obtient letrès importantrésultat suivant.Théorème 2.7SiX= (X1,...,Xd)est unvecteur gaussien, alors ses

composantes sontindépendantessi et seulement si elles sontnon corrélées: cov(Xj,Xk) = 0,?j?=k, c"est-à-dire si et seulement si samatrice de cova- rianceestdiagonale.Autrement dit, si et seulement siX1-E(X1),...,Xd-E(Xd)sont ortho- gonales dansL2(P). Preuve.Nous savons déjà que desv.a.r.indépendantes sont non corrélées. Inversement, si elles ne sont pas corrélées, lamatrice de covariancedeXest diagonale: K X=(

21······0

...0

······σ2d)

avecσ2k= Var(Xk). Si l"on notemk=E(Xk), on aE(X) = (m1,...,md). CommeXest unvecteur gaussien, on a, pouru= (u1,...,ud)?Rd:

X(u) = exp?

i?u|E(X)? -12 tuKXu? = exp i(u1m1+···+udmd)-12 (σ21u21+···σ2du2d)? = exp iu

1m1-12

σ21u21?

× ··· ×exp?

iu dmd-12

σ2du2d?

X1(u1)···ΦXd(ud),

8 ce qui prouve l"indépendance deX1,...,Xd.? Remarque.Il est indispensable de savoir au préalable que le vecteurXest gaussien. Exemple.SoitYunev.a.r.de loiN(0,1)etεunev.a.r.de Rademacher :

P(ε=-1) =P(ε= 1) =12

,indépendantedeY, et posonsZ=εY. Alors : a)Z≂N(0,1).

En effet, pour tout borélienAdeR, on a :

P(Z?A) =P(εY?A) =P(ε= 1,Y?A) +P(ε=-1,-Y?A); mais l"indépendance donne d"une part :

P(ε= 1,Y?A) =P(ε= 1)P(Y?A) =12

P(Y?A),

et, d"autre part :

P(ε=-1,-Y?A) =P(ε=-1)P(-Y?A) =12

P(-Y?A) =12

P(Y?A),

puisque(-Y)suit la même loi queY. On a doncP(Z?A) =P(Y?A), de sorte queZsuit la même loi queY. b)cov(Y,Z) =E(Y Z) =E(Y.εY) =E(εY2)??=E(ε)E(Y2) = 0×1 = 0. Pourtant, lesv.a.r.YetZne sont pas indépendantes (car sinonYserait indépendante deZ2= (εY)2=Y2, ce qui n"est pas). Il en résulte que le vecteur X= (Y,Z)n"estpas gaussien, bien que ses composantes soient desv.a.r. gaussiennes.? Nous avons vu que toute matrice de covariance est symétrique positive. In- versement, nous allons voir que toute telle matrice est la matrice de covariance d"un vecteur gaussien. C"est la généralisation de ce qui se passe pour la dimen- sion1, où la moyenne et la variance d"unev.a.r.gaussienne peuvent être données arbitrairement. Cela permet aussi d"assurer l"existence de vecteurs gaussiens en dehors du cas où les composantes sont indépendantes. Théorème 2.8 (Théorème d"existence)Pour toutm?Rdet toute matrice réelleKcarrée d"ordred, symétrique positive, il existe un vecteur gaussien de moyennemet de matrice de covarianceK.

Preuve.Il suffit de le voir pourm= 0.

Nous pouvons choisir à notre gré l"espace de probabilité sur lequel la variable aléatoire sera définie. Choisissons(Ω,A) =?Rr,Bor(Rr)?, oùrest le rang de la matriceK(on supposeKnon nulle, car siK= 0, la variable aléatoire nulle convient), et munissons-le de la probabilité gaussienneP, de densité :

γ(t) =1(

⎷2π)rexp? -12 r j=1t 2j? =1( ⎷2π)rexp? -12 ?t?22? 9

Considérons la variable aléatoire :

Y

0: Ω-→Rr

t?-→t. C"est évidemment une variable aléatoire gaussienne : sa loi estPY0=P=γ.λd, centrée, de matrice de covariance égale àIr, la matrice unité d"ordrer. CommeKest symétrique positive, il existe une matrice(d×r)Atelle que K=A.tA. AlorsY=AY0: Ω→Rdest un vecteur gaussien (Proposition 2.2), centré, et sa matrice de covariance est : E(Y.tY) =E?(AY0).t(AY0)?=E(A.Y0.tY0.tA) =A.E(Y0.tY0).tA =A.Ir.tA=A.tA=K.? La preuve que l"on vient de faire permet d"obtenir facilement le résultat suivant. Corollaire 2.9Un vecteur gaussienX: Ω→Rdpossède une densité, par rap- port à la mesure de Lebesgue surRd, si et seulement si sa matrice de covariance K

Xest inversible. Cette densité est alors :

f

X(x) =1(

⎷2π)d1?|d´etKX|exp? -12 t[x-E(X)].K-1

X.[x-E(X)]?

Preuve.On peut d"abord supposer queE(X) = 0; ensuite, comme cet énoncé ne concerne que laloide lav.a.X, on peut supposer queXest donné par l"égalitéX=AY0, comme dans la preuve du Théorème 2.8, avecA.tA=KX. LorsqueKXn"est pas inversible, son rangrest< d; alorsAest de taille (d×r), etX=AY0prend ses valeurs, presque sûrement, dans un sous-espace deRdde dimensionr < d;Xne peut donc avoir de densité (ce sous-espace est de mesure de Lebesgue nulle, alors que pourPX, il est de mesure1). SiKXest inversible, son rang estr=d, etAest inversible. CommeX=AY0, on peut utiliser la formule de changement de variable : Théorème 2.10 (formule de changement de variable)SoitOun ouvert deRdetO?un ouvert deRd?, tels qu"il existe un difféomorphisme?de classe C

1deOsurO?. Alors, pour toute fonctionf:O→Rmesurable positive ou

intégrable, on a : O f(u)du=? O ?f??-1(v)?|Jac?-1(v)|dv . viason corollaire : Corollaire 2.11Sous les hypothèses du Théorème 2.10, soitU: Ω→Rdune variable aléatoire prenant presque sûrement ses valeurs dansO. Alors, siUa une densité de probabilitéfU,V=?(U)possède aussi une densité de probabilité, donnée par : f

V(v) =fU??-1(v)?|Jac?-1(v)|.

10

Or ici?=Aest linéaire; donc :

et par conséquent, puisqueY0possède la densitéfY0=γ,Xpossède une densité, donnée par : f

X(x) =1?|d´etKX|γ(A-1x) =1(

⎷2π)d1?|d´etKX|exp? -12 ?A-1x?22? d"où le résultat, puisque : ?A-1x?22=t(A-1x).(A-1x) =tx.tA-1.A-1.x=tx.(A.tA)-1.x tx.K-1 X.x.? Preuve du Corollaire 2.11.Pour tout borélienB, on a : P

V(B) =?

R d?1IB(v)dPV(v) =E(1IB◦V) =E?1IB◦?(U)? R d(1IB◦?)(u)dPU(u) =? Rquotesdbs_dbs42.pdfusesText_42
[PDF] matrice de variance et covariance exercice corrigé

[PDF] exercice microéconomie consommateur

[PDF] exercice aire et périmètre 3eme

[PDF] exercices corrigés arithmétique 3eme

[PDF] relations interspécifiques exercices

[PDF] relations interspécifiques exemples

[PDF] exercice sur les facteurs biotiques

[PDF] démontrer que deux triangles sont isométriques

[PDF] triangles isométriques démonstrations

[PDF] triangles isométriques exercices corrigés

[PDF] figures isométriques et semblables exercices

[PDF] triangles isométriques exercices corrigés 4ème

[PDF] figures isométriques exercices

[PDF] isométrie exercices corrigés

[PDF] exercices corrigés dioptre sphérique