[PDF] Vecteurs gaussiens Vecteurs gaussiens. 24 novembre 2013 -





Previous PDF Next PDF



Vecteurs gaussiens

Une variable aléatoire réelle Z est dite gaussienne centrée réduite si elle admet pour Donnons la fonction caractéristique d'un vecteur gaussien et les ...



VECTEURS GAUSSIENS

Les vecteurs gaussiens sont associés aux lois gaussiennes multivariées est égale à Idd. Le vecteur aléatoire AX est alors centré de matrice de.



Vecteurs gaussiens

Vecteurs gaussiens. 24 novembre 2013 - v1 non relue. 1 Variables aléatoires gaussiennes réelles. Définition. On appelle loi gaussienne centrée réduite la 



PC 5 – Calcul de lois & Vecteurs gaussiens

20 mai 2019 Donc X3 est indépendant du vecteur gaussien (X1X2). 2. On va montrer que (X1



CHAPITRE 6 : VECTEURS GAUSSIENS

m et sa matrice de covariance ?. Si m = 0 et ? = In on dit que X est un vecteur Gaussien centré réduit. 2) Caractérisation de l'indépendance.



Chapitre 2 - Vecteurs aléatoires gaussiens

On peut “ visualiser une v.a.r. gaussienne centrée réduite G ainsi : prenons Théorème 2.5 Si X est un vecteur gaussien sa fonction caractéristique vaut ...



Processus Gaussiens

Pour un vecteur gaussien centré E[X] = 0 et on montre que. ?x



Leçon 14

d'un vecteur X centré de matrice de covariance ?



T.P. I: Vecteurs gaussiens

est un vecteur gaussien centré de matrice de covariance. (1 ? ? 1. ) . Utiliser dans Scilab la fonction chol en la testant sur une matrice 2x2.



PC 5 : Calcul de lois & Vecteurs gaussiens

On en déduit par la méthode de la fonction muette



[PDF] Vecteurs gaussiens

Rappelons la définition des variables aléatoires gaussiennes réelles Définition 1 • Une variable aléatoire réelle Z est dite gaussienne centrée réduite si 



[PDF] VECTEURS GAUSSIENS

Les vecteurs gaussiens sont associés aux lois gaussiennes multivariées et de ce fait jouent un rôle important en probabilités et en statistique



[PDF] Vecteurs gaussiens

On appelle loi gaussienne centrée réduire la loi N(0Id) Une matrice de variance est nécessaire symétrique et positive Le résultat suivant établit que c'est 



[PDF] VECTEURS GAUSSIENS

VECTEURS GAUSSIENS Préparation à l'agrégation externe de Mathématiques de l'université Rennes 1 1 Année 2008/2009 1 DEFINITIONS ET PREMIERES PROPRIETES



[PDF] Vecteurs aléatoires gaussiens

2 Vecteurs aléatoires gaussiens Rappelons que la loi gaussienne (ou normale) centrée réduite est la loi J (0 1) sur R dont la densité est : fG(x) = 1



[PDF] CHAPITRE 6 : VECTEURS GAUSSIENS - mathenspsleu

Comme nous allons le constater les vecteurs Gaussiens constituent la généralisation naturelle en n dimensions des variables Gaussiennes uni-dimensionnelles La 



[PDF] Vecteurs Gaussiens

Définition 1 7 Nous dirons qu'une v a de carré intégrable X est centrée réduite si E(X)=0 ; V ar(X)=1 Proposition 1 1 Soit Y v a de carré intégrable Alors 



[PDF] VECTEURS GAUSSIENS - ENS Rennes

Souvent un moyen simple de montrer qu'un vecteur aléatoire est gaussien est d'utiliser la proposition suivante qui constitue une définition alternative 



[PDF] PC 5 – Calcul de lois & Vecteurs gaussiens

20 mai 2019 · PC 5 – Calcul de lois Vecteurs gaussiens Exercice 1 Soient X et Y deux variables aléatoires indépendantes gaussiennes centrées réduites



[PDF] Chapitres 8 - Vecteurs Gaussiens et Conditionnement - Ceremade

On dit qu'un vecteur aléatoire X à valeurs dans Rd est gaussien si pour tout ? ? Rd la variable aléatoire réelle ? · X = ?i ?iXi suit une loi gaussienne

:

Vecteurs gaussiens

24 novembre 2013 - v1 non relue

1 Variables aleatoires gaussiennes reelles

Denition.On appelle loi gaussienne centree reduite la loi admettant la densitefdenie par : f(x) =1p2ex22

On noteN(0;1) cette loi.

Proposition 1.1SoitGune v.a. suivant une loi gaussienne centree reduite. Alors :

1.E(G) = 0.

2.var(G) = 1.

3. Pour tout reel, on aE(eiG) = exp(2=2).

Denition.Soientm2Ret0. SoitGune v.a. suivant la loiN(0;1). On appelle loi gaussienne de parametresmet2la loi de la v.a.G+m. On noteN(m;2) cette loi. Remarque.Une v.a. suivant la loiN(m;0) est constante egale am. Proposition 1.2SoitGune v.a. suivant une loiN(m;2). Alors :

1.E(G) =m.

2.var(G) =2.

3. Pour tout reel, on aE(eiG) = exp(im22=2).

C'est une consequence immediate des resultats dans le cas centre reduit. Remarque.Soientm2Ret0. La loiN(m;2) admet une densite si et seulement si est non nul.

2 Intermede : variance d'un vecteur aleatoire

On munitRddu produit scalaire canoniqueh;iet de la norme euclidienne correspondante kk. En identiant un vecteur avec une matrice colonne, on peut ecrirehx;yi=txy. J'identie de m^eme application lineaire et matrice dans les bases canoniques. Par defaut, on considere dans cette section des vecteurs aleatoires deRd. 1

Denitions

{ SoitX= (X1;:::;Xd) un vecteur aleatoire. On dit queXest de carre integrable sikXk2 est integrable, i.e. siX21++X2dest integrable, i.e. si chacun desXiest de carre integrable. { SoitX= (X1;:::;Xd) un v.a. de carre integrable. { On appelle matrice de (co-)variance deXet on note var(X) la matrice symetriquedd dont les elements sont les covariances cov(Xi;Xj);1i;jd. { On appelle forme quadratique de variance la forme quadratiqueqX:Rd!Rdenie par q

X() =tvar(X)=X

i;j ijcov(Xi;Xj) = var(X i iXi) = var(h;Xi): La proposition suivante est une consequence simple de l'egaliteqX() = var(h;Xi). Proposition 2.1SoitXun vecteur aleatoire de carre integrable deRd.

1. La matricevar(X)est positive (autrement dit,qXest une application positive).

2. SoitAune matricepd. AlorsY=AXest un vecteur aleatoire de carre integrable de

R pet on a : var(Y) =Avar(X)tA: La proposition suivante est une formulation de la propriete classique suivante : siXetY sont deux variables aleatoires independantes, alors elles sont decorrelees. Proposition 2.2SoitXun vecteur aleatoire de carre integrable. Si les coordonnees deXsont independantes, alorsvar(X)est diagonale.

3 Vecteurs aleatoires gaussiens

Par defaut, on considere dans cette section des vecteurs aleatoires deRd. Denition.On dit qu'un vecteur aleatoireXest gaussien si, pour tout2Rd, la variable aleatoire reelleh;Xiest gaussienne.

Remarques.

{ L'image d'un vecteur gaussien par une application ane est un vecteur gaussien. { Chacune des marginales d'un vecteur gaussien est gaussienne. Par contre, le fait que les marginales d'un vecteur aleatoireXsoient gaussiennes n'entra^ne pas le caractere gaussien du vecteur aleatoireX. { Chacune des marginales d'un vecteur gaussien est gaussienne et donc de carre integrable. Par consequent un vecteur aleatoire gaussien est de carre integrable. Proposition 3.1SoitqXla forme quadratique de variance d'un vecteur gaussienX,mson vecteur esperance. La transformee de Fourier deXest donnee par :

E(eih;Xi) = exp(12

qX() +ih;mi): Cela se montre par exemple en notant queE(eih;Xi) est la transformee de Fourier en 1 de la variable aleatoire gaussienneh;Xi. 2 Remarque.En particulier, la donnee de la forme quadratique de variance (ou de la matrice de variance) et du vecteur esperance d'un vecteur gaussien sut pour decrire completement sa loi. Cela permet de poser la denition suivante. Denition.On appelle loi gaussienne surRdde vecteur esperancemet de matrice de variance Kla loi d'un vecteur gaussien de vecteur esperancemet de matrice de varianceK. On note

N(m;K) cette loi.

Denition.On appelle loi gaussienne centree reduire la loiN(0;Id). Une matrice de variance est necessaire symetrique et positive. Le resultat suivant etablit que c'est la seule restriction. Theoreme 3.1SoitKune matrice symetrique et positive de tailledd. Soitmun vecteur de R d. Alors il existe un vecteur aleatoireXgaussien de moyennemet de matrice de varianceK. Plan de la preuve.SoientX1;:::;Xddes v.a. reelles gaussiennes centrees reduites indepen- dantes. Le vecteurX= (X1;:::;Xd) est un vecteur gaussien. Cela se montre par exemplevia les transformees de Fourier. Par ailleursXest centre et de matrice de variance l'identite. Ainsi,

Xest un vecteur gaussien centre reduit.

CommeKest symetrique positive, il existe1une matriceAtel queK=AtA. On pose alors :

G=AX+m:

Ce vecteur suit la loiN(m;K).

Remarque.La preuve montre que l'on peut obtenir un vecteur gaussien de loi donnee comme image d'un vecteur gaussien centre reduit par une application ane. Remarque.SiKest inversible, alors la loiN(m;K) admet une densite de la formex7! Cexp(q(x)) ouCest une constante et ouqest une forme quadratique denie positive. Ce resultat semble tres peu utile. Theoreme 3.2{ Pour que les marginales d'un vecteur gaussien soient independantes, il faut et il sut que sa matrice de variance soit diagonale. { SoitXun vecteur aleatoire deRn. SoitYun vecteur aleatoire deRp. On suppose que (X;Y)est un vecteur gaussien deRn+p. AlorsXetYsont independants si et seulement si la matrice de variance de(X;Y)est une matrice composee de deux blocs diagonaux formes par les matrices de variances deXetY. Le sens direct est valable sans l'hypothese gaussienne (si deux variables aleatoires sont independantes alors elles sont decorrelees). Le sens reciproque peut par exemple s'etablirviales transformees de Fourier. Une consequence de l'agreable resultat precedent est que, dans le cas des vecteurs gaussiens,

le calcul des esperances conditionnelles est particulierement simple.1. CommeKest symetrique, on peut ecrireK=BDtBouBest une matrice orthogonale etDest une

matrice diagonale. CommeKest positive, tous les coecients deDsont positifs. On peut donc ecrireD=C2 ouCest une matrice diagonale. On a doncK=BC2tB=BCtCtB=AtAouA=BC. 3 Theoreme 3.3Soit(X1;:::;Xd;Y)un vecteur gaussien deRd+1. On poseX= (X1;:::;Xd). AlorsE(YjX)est la projection orthogonale2deYsur l'espace vectoriel engendre par la constante

1et les variables aleatoiresX1;:::;Xd.

Remarque.Sans l'hypothese gaussienne, mais en supposant toujours les variables aleatoires de carre integrable, on sait simplement queYest la projection orthogonale sur l'espace vectoriel des variables aleatoires de carre integrable et mesurables par rapport a la tribu engendree par X

1;:::;Xd.

Preuve.NotonsZla projection orthogonale deYsur vect(1;X1;:::;Xd). On a alors :

E(YjX) =E(ZjX) +E(YZjX):

MaisE(ZjX) =Z. Il reste a prouverE(YZjX) = 0.

On aE(YZ) =hYZ;1i= 0. Par consequent, pour tout indicek, on a cov(YZjXk) = hYZ;Xki= 0. Mais (YZ;X1;:::;Xd) est un vecteur gaussien. Par consequent,YZet Xsont independants. On en deduitE(YZjX) =E(YZ) = 0.

4 Theoreme de Cochran

Denition.La loi de Pearson addegres de liberte est la loi de la somme des carres ded variables aleatoires gaussiennes reelles centrees reduites. Theoreme 4.1. SoitXun vecteur gaussien centre reduit deRn. SoitLun sous-espace deRn de dimensiondavec1dn1. On designe parYetZles projections deXrespectivement surLetL?. AlorsYetZsont independants. De plus, les variables aleatoireskYk2etkZk2 suivent respectivement des lois de Pearson adetnddegres de liberte. Plan de la preuve.SiXest un vecteur gaussien centre reduit deRnet siAest une matrice orthogonale deRnalorsAXest un vecteur gaussien centre reduit deRn. Cela permet de se ramener au cas ouLest engendre par lesdpremiers vecteurs de la base canonique. L'espace vectorielL?est alors engendre par lesndderniers vecteurs de la base canonique. On a donc simplementY= (X1;:::;Xd;0;:::;0) etZ= (0;:::;0;Xd+1;:::;Xn). Le resultat est alors immediat.

5 Theoreme central limite

Theoreme 5.1Soit(Xn)nune suite de vecteurs aleatoires i.i.d. deRd. On suppose que lesXn sont de carre integrable. On notemle vecteur esperance etKla matrice de variance desXn. On a alors la convergence en loi, lorsquentend vers l'inni, de : X

1++Xnnmpn

vers la loiN(0;K). On peut par exemple deduire ce resultat de sa version en dimension 1viales transformees

de Fourier.2. On se place dans l'espace de Hilbert des variables aleatoires de carre integrable. Le produit scalaire de deux

variables aleatoiresX;YesthX;Yi=E(XY). 4quotesdbs_dbs42.pdfusesText_42
[PDF] matrice de variance et covariance exercice corrigé

[PDF] exercice microéconomie consommateur

[PDF] exercice aire et périmètre 3eme

[PDF] exercices corrigés arithmétique 3eme

[PDF] relations interspécifiques exercices

[PDF] relations interspécifiques exemples

[PDF] exercice sur les facteurs biotiques

[PDF] démontrer que deux triangles sont isométriques

[PDF] triangles isométriques démonstrations

[PDF] triangles isométriques exercices corrigés

[PDF] figures isométriques et semblables exercices

[PDF] triangles isométriques exercices corrigés 4ème

[PDF] figures isométriques exercices

[PDF] isométrie exercices corrigés

[PDF] exercices corrigés dioptre sphérique