[PDF] [PDF] VECTEURS GAUSSIENS Les vecteurs gaussiens sont associé





Previous PDF Next PDF



Vecteurs gaussiens

Une variable aléatoire réelle Z est dite gaussienne centrée réduite si elle admet pour Donnons la fonction caractéristique d'un vecteur gaussien et les ...



VECTEURS GAUSSIENS

Les vecteurs gaussiens sont associés aux lois gaussiennes multivariées est égale à Idd. Le vecteur aléatoire AX est alors centré de matrice de.



Vecteurs gaussiens

Vecteurs gaussiens. 24 novembre 2013 - v1 non relue. 1 Variables aléatoires gaussiennes réelles. Définition. On appelle loi gaussienne centrée réduite la 



PC 5 – Calcul de lois & Vecteurs gaussiens

20 mai 2019 Donc X3 est indépendant du vecteur gaussien (X1X2). 2. On va montrer que (X1



CHAPITRE 6 : VECTEURS GAUSSIENS

m et sa matrice de covariance ?. Si m = 0 et ? = In on dit que X est un vecteur Gaussien centré réduit. 2) Caractérisation de l'indépendance.



Chapitre 2 - Vecteurs aléatoires gaussiens

On peut “ visualiser une v.a.r. gaussienne centrée réduite G ainsi : prenons Théorème 2.5 Si X est un vecteur gaussien sa fonction caractéristique vaut ...



Processus Gaussiens

Pour un vecteur gaussien centré E[X] = 0 et on montre que. ?x



Leçon 14

d'un vecteur X centré de matrice de covariance ?



T.P. I: Vecteurs gaussiens

est un vecteur gaussien centré de matrice de covariance. (1 ? ? 1. ) . Utiliser dans Scilab la fonction chol en la testant sur une matrice 2x2.



PC 5 : Calcul de lois & Vecteurs gaussiens

On en déduit par la méthode de la fonction muette



[PDF] Vecteurs gaussiens

Rappelons la définition des variables aléatoires gaussiennes réelles Définition 1 • Une variable aléatoire réelle Z est dite gaussienne centrée réduite si 



[PDF] VECTEURS GAUSSIENS

Les vecteurs gaussiens sont associés aux lois gaussiennes multivariées et de ce fait jouent un rôle important en probabilités et en statistique



[PDF] Vecteurs gaussiens

On appelle loi gaussienne centrée réduire la loi N(0Id) Une matrice de variance est nécessaire symétrique et positive Le résultat suivant établit que c'est 



[PDF] VECTEURS GAUSSIENS

VECTEURS GAUSSIENS Préparation à l'agrégation externe de Mathématiques de l'université Rennes 1 1 Année 2008/2009 1 DEFINITIONS ET PREMIERES PROPRIETES



[PDF] Vecteurs aléatoires gaussiens

2 Vecteurs aléatoires gaussiens Rappelons que la loi gaussienne (ou normale) centrée réduite est la loi J (0 1) sur R dont la densité est : fG(x) = 1



[PDF] CHAPITRE 6 : VECTEURS GAUSSIENS - mathenspsleu

Comme nous allons le constater les vecteurs Gaussiens constituent la généralisation naturelle en n dimensions des variables Gaussiennes uni-dimensionnelles La 



[PDF] Vecteurs Gaussiens

Définition 1 7 Nous dirons qu'une v a de carré intégrable X est centrée réduite si E(X)=0 ; V ar(X)=1 Proposition 1 1 Soit Y v a de carré intégrable Alors 



[PDF] VECTEURS GAUSSIENS - ENS Rennes

Souvent un moyen simple de montrer qu'un vecteur aléatoire est gaussien est d'utiliser la proposition suivante qui constitue une définition alternative 



[PDF] PC 5 – Calcul de lois & Vecteurs gaussiens

20 mai 2019 · PC 5 – Calcul de lois Vecteurs gaussiens Exercice 1 Soient X et Y deux variables aléatoires indépendantes gaussiennes centrées réduites



[PDF] Chapitres 8 - Vecteurs Gaussiens et Conditionnement - Ceremade

On dit qu'un vecteur aléatoire X à valeurs dans Rd est gaussien si pour tout ? ? Rd la variable aléatoire réelle ? · X = ?i ?iXi suit une loi gaussienne

:

VECTEURS GAUSSIENS

Préparation à l"Agrégation Bordeaux 1

Année 2013 - 2014

Jean-Jacques Ruch

Table des Matières

Chapitre I. Vecteurs aléatoires gaussiens5

1. Vecteurs aléatoires5

2. Vecteurs aléatoires gaussiens 7

3. Théorème de Cochran 9

3

CHAPITRE I

Vecteurs aléatoires gaussiens

Les vecteurs gaussiens sont associés aux lois gaussiennes multivariées, et de ce fait jouent un rôle important

en probabilités et en statistique. Ils apparaissent naturellement comme des objets limites et serviront en

particulier dans le prochain chapitre :

soit(Yn)une suite de vecteurs aléatoires à valeurs dansRk, dont les composantes sont de carré intégrable,

indépendants et de même loi avecE(Y1) =Met de matrice de covariance; alors on a pn

Y1++Ynn

M

L! Nk(0;):

1. Vecteurs aléatoires

SoitX=0

B @X 1... X d1 C A2Rdun vecteur aléatoire tel queE(X2j)<+1. Pour tout1i;jd, lacovariance entreXietXjest donnée par Cov(Xi;Xj) =E[(XiE[Xi])(XjE[Xj])] =E[XiXj]E[Xi]E[Xj]:

Avec l"hypothèse faite ci-dessus cette covariance est toujours bien définie car, par l"inégalité de Cauchy-

Schwarz,

jCov(Xi;Xj)j2Var(Xi)Var(Xj):

Il est facile de voir que l"on a Cov(Xi;Xi) =Var(Xi). De plus, si les variablesXietXjsont indépendantes

on a Cov(Xi;Xj) = 0. En général, la réciproque est fausse, sauf pour des vecteurs gaussiens, comme nous

le verrons plus loin.Définition 1.SoitXun vecteur (colonne) aléatoire deRddont les composantes sont de carré

intégrable. Levecteur moyennedeXest défini par :

E(X) =0

B @E(X1)

E(Xd)1

C A et samatrice de covariancepar :

Var(X) =E[(XE[X])(XE[X])t] =0

B

BB@Var(X1)Cov(X1;X2)Cov(X1;Xd)

Cov(X2;X1)Var(X2)Cov(X2;Xd)

Cov(Xd;X1)Cov(Xd;X2)Var(Xd)1

C

CCAOn dira queXest centré siE[X] = 0. Si les composantes deXsont indépendantes la matrice de covariance

deXest diagonale. Comme avant la réciproque est fausse en général sauf pour les vecteurs gaussiens.

Avant d"énoncer le résultat suivant rappelons quelques propriétés des matrices symétriques semi-définies

positives.

Une matrice symétrique réelleMest semi-définie positive si et seulement si elle vérifie l"une des deux

propriétés équivalentes suivantes : 5

6Chapitre I. Vecteurs aléatoires gaussiens

1.

P ourtout v ecteurcolonne Von aVtMV0

2. T outesles v aleurspropres d eMsont positives ou nulles i.e. Sp(M)[0;+1[

D"autre part, siM1etM2sont deux matrices symétriques semi-définies positives de même dimension, alors

pour touta0etb0,aM1+bM2est encore une matrice symétrique semi-définie positive. Le théorème

spectral entraîne que siMest symétrique semi-définie positive, alors il existe une matrice orthogonaleP

et une matrice diagonaleD=Diag(1;:::;d)(positive) telle queM=PDPt. On en déduit qu"il existe une matriceA(pas unique en général), telle queM=AAt; par exempleA=PDiag(p

1;:::;p

d).Théorème 2. La matrice de covariance est une matrice symétrique semi-définie positive.

Démonstration.Par construction la matrice de covariance est symétrique. Elle s"écrit comme le

produit d"un vecteur et de sa transposée (l"espérance s"applique ensuite à chaque composante et ne change

donc pas la symétrie). Pour le deuxième point il suffit de remarquer que siMest la matrice de covariance

du vecteur aléatoireXet siVest une vecteur constant deRd, alors V tMV=Var(v1X1+v2X2++vdXd)0:

Théorème 3.

SiXest un vecteur (colonne) aléatoire deRpde vecteur moyennemet de matrice de covariance. Alors siAest une matrice réelleqp, le vecteur aléatoireAXdeRqa pour

vecteur moyenneAmet pour matrice de covarianceAAt.Démonstration.C"est une simple conséquence de la linéarité de l"espérance. Pour la moyenne on

a :

E[AX] =AE[X] =Am

et pour la matrice de covariance : E[(AXAm)(AXAm)t] =E[A(Xm)(Xm)tAt] =AE[(Xm)(Xm)t]At=AAt:

Théorème 4.

Toute matrice symétrique semi-définie positivede dimensionddest la matrice de

covariance d"un vecteur aléatoire deRd.Démonstration.SoitAune racine carrée matricielle de. On noteXun vecteur aléatoire deRd

dont les composantes sont indépendantes, centrées et de variance1. L"espérance deXest donc le vecteur

nul, et la matrice de covariance est égale à Id d. Le vecteur aléatoireAXest alors centré de matrice de

covarianceAIdAt=AAt= .Définition 5.SoitXun vecteur aléatoire deRd. On définit safonction caractéristiqueX:Rd!C

par :

8u2RdX(u) =E[eiutX] =E[ei(u1X1+udXd)]

Jean-Jacques Ruch

2.Vecteurs aléatoires gaussiens7

2. Vecteurs aléatoires gaussiensDéfinition 6.Un vecteur aléatoire deRdest unvecteur aléatoire gaussiensi et seulement si toute

combinaison linéaire de ses composantes est une variable aléatoire réelle gaussienne, i.e. :

8a2Rd; atXL N(m;2)En particulier tout vecteur gaussien de dimension1est une variable aléatoire gaussienne réelle, éventuelle-

ment dégénérée. D"autre part, toutes les composantes deXsont aussi des variables aléatoires gaussiennes

réelles. Exemple : soitXun vecteur aléatoire deRddont les composantesXisont indépendantes et de loi N(mi;2i). Le vecteurXest alors un vecteur gaussien. En effet toute combinaison linéaire de ses composantes s"écrita1X1++adXd, dont la loi est par indépendance des variables

N(a1m1++admd;a2121++a2d2d):Théorème 7.

SoitXun vecteur aléatoire deRd. Les assertions suivantes sont équivalentes : 1. L eve cteurXest un vecteur gaussien de moyennemet de matrice de covariance. 2. L afonction c aractéristiquede Xest donnée par : pour toutu2Rd

X(u) =Eexp(iutX)= exp

iu tm12

utuDémonstration.Cette équivalence provient de la définition d"un vecteur aléatoire gaussien et de

celle de la fonction caractéristique d"une variable aléatoire gaussienne réelle.

La loi d"un vecteur gaussien est caractérisée par son vecteur moyennemet sa matrice de covariance.

Elle est appelée loi gaussienne surRdet est notéeN(m;). La loiN(0;Id)est appelée loi gaussienne

standard surRd. Un vecteur gaussien ayant cette loi est appelé vecteur aléatoire gaussien standard.Théorème 8.

SoitXest un vecteur gaussien de moyennemet de matrice de covariance. SoitZun vecteur gaussien standard etAune matrice racine carrée de. Alors les vecteursXet

m+AZont même loi.Démonstration.Il suffit d"utiliser le résultat précédent et de vérifier que pour les deux vecteurs on

obtient la même fonction caractéristique.Proposition 9.Toute matrice symétrique semi-définie positivede dimensionddest la matrice

de covariance d"un vecteur aléatoire gaussien deRd.Démonstration.SoitZle vecteur gaussien deRddont toutes les composantes sont indépendantes

et de loiN(0;1). C"est un vecteur aléatoire gaussien standard. D"après le théorème3et le théorème

précédent, siAest une racine carrée dealorsAZest un vecteur gaussien deRdde loiN(0;).

Jean-Jacques Ruch

8Chapitre I. Vecteurs aléatoires gaussiens

Attention, les composantes d"un vecteur gaussien sont gaussiennes mais la réciproque est fausse. En

effet, soitX= (Y;"Y)un vecteur aléatoire deR2tel queYet"sont deux variables aléatoires réelles

indépendantes avecY N(0;1)et"suit une loi de Rademacher c"est-à-direP("= 1) =P("=1) = 1=2.

Il est facile de voir queYet"Ysont deux variables aléatoires gaussiennes, mais la combinaison linéaire

Y+"Yne l"est pas carP(Y+"Y= 0) =P("=1) = 1=2. De plus, Cov(Y;"Y) =E[Y2]E["] = 0, mais

Yet"Yne sont pas indépendantes.

Le théorème suivant caractérise les lois gaussiennes de matrice de covariance inversible.Théorème 10.

La loi gaussienneN(m;)surRdadmet une densité de probabilité par rapport à la mesure de Lesbegue deRdsi et seulement siest inversible. Dans ce cas la densité defest donnée par : pour toutx2Rd f(x) =1p(2)ddet()exp 12

(xm)t1(xm)Démonstration.La loi gaussienneN(m;)peut être vue comme la loi du vecteur aléatoire gaussien

m+AZ, oùZest un vecteur gaussien deRddont toutes les composantes sont indépendantes et de loi

N(0;1). Par conséquent,Za pour densité

f

Z(z) =dY

i=11p2exp 12 z2i =1p(2)dexp 12 jjZjjj2 SiX N(m;)alors pour toute fonction continue bornéeh:Rd!R,

E[h(X)] =E[h(AZ+m)] =Z

R dh(Az+m)fZ(z)dz: La décomposition =AAtentraîne quejdet(A)j=pdet(). De plusest inversible si et seulement si

Al"est et alors1= (A1)tA1.

D"autre part, le changement de variable affinex=Az+mest un difféomorphisme deRddans lui-même si et seulement siAest inversible. Son jacobien est alors égal à det(A1). On en déduit que

E[h(X)] =1p(2)ddet()Z

R dh(x)exp 12 (xm)t1(xm) dx d"où la formule annoncée pour la densité def.

Le théorème suivant caractérise les vecteurs gaussiens à matrice de covariance diagonale.Théorème 11.

Pour tout vecteur gaussienXdeRd, les trois propriétés suivantes sont équivalentes : 1. L esc omposantesX1;:::;Xdsont mutuellement indépendantes. 2. L esc omposantesX1;:::;Xdsont deux à deux indépendantes. 3.

L amatric ede c ovariancedeXest diagonale.En particulier, un vecteur gaussien est à composantes indépendantes si et seulement si pour touti6=j,

Cov(Xi;Xj) = 0. Par exemple, un vecteur gaussien standard a toujours des composantes indépendantes

et de loiN(0;1)surR.

Jean-Jacques Ruch

3.Théorème de Cochran9

Démonstration.Les implications1:)2:)3:sont évidentes. Montrons que3:)1:. Si on a =Diag(21;:::;2n), alors pour toutu2Rd

X(u) = exp

iu tm12 ut = exp0 idX j=1u jmj12 d X j=1

2ju2j1

A dY j=1exp iu jmj12 2ju2j =dY j=1

Xj(uj)

3. Théorème de Cochran

C"est un analogue du théorème de Pythagore pour les vecteurs gaussiens.Théorème 12.

Théorème de Cochran

SoitXun vecteur aléatoire deRnde loiN(m;2In)avec2>0. SoitRn=E1E2Epquotesdbs_dbs42.pdfusesText_42
[PDF] matrice de variance et covariance exercice corrigé

[PDF] exercice microéconomie consommateur

[PDF] exercice aire et périmètre 3eme

[PDF] exercices corrigés arithmétique 3eme

[PDF] relations interspécifiques exercices

[PDF] relations interspécifiques exemples

[PDF] exercice sur les facteurs biotiques

[PDF] démontrer que deux triangles sont isométriques

[PDF] triangles isométriques démonstrations

[PDF] triangles isométriques exercices corrigés

[PDF] figures isométriques et semblables exercices

[PDF] triangles isométriques exercices corrigés 4ème

[PDF] figures isométriques exercices

[PDF] isométrie exercices corrigés

[PDF] exercices corrigés dioptre sphérique