[PDF] CHAPITRE 6 : VECTEURS GAUSSIENS





Previous PDF Next PDF



Vecteurs gaussiens

Une variable aléatoire réelle Z est dite gaussienne centrée réduite si elle admet pour Donnons la fonction caractéristique d'un vecteur gaussien et les ...



VECTEURS GAUSSIENS

Les vecteurs gaussiens sont associés aux lois gaussiennes multivariées est égale à Idd. Le vecteur aléatoire AX est alors centré de matrice de.



Vecteurs gaussiens

Vecteurs gaussiens. 24 novembre 2013 - v1 non relue. 1 Variables aléatoires gaussiennes réelles. Définition. On appelle loi gaussienne centrée réduite la 



PC 5 – Calcul de lois & Vecteurs gaussiens

20 mai 2019 Donc X3 est indépendant du vecteur gaussien (X1X2). 2. On va montrer que (X1



CHAPITRE 6 : VECTEURS GAUSSIENS

m et sa matrice de covariance ?. Si m = 0 et ? = In on dit que X est un vecteur Gaussien centré réduit. 2) Caractérisation de l'indépendance.



Chapitre 2 - Vecteurs aléatoires gaussiens

On peut “ visualiser une v.a.r. gaussienne centrée réduite G ainsi : prenons Théorème 2.5 Si X est un vecteur gaussien sa fonction caractéristique vaut ...



Processus Gaussiens

Pour un vecteur gaussien centré E[X] = 0 et on montre que. ?x



Leçon 14

d'un vecteur X centré de matrice de covariance ?



T.P. I: Vecteurs gaussiens

est un vecteur gaussien centré de matrice de covariance. (1 ? ? 1. ) . Utiliser dans Scilab la fonction chol en la testant sur une matrice 2x2.



PC 5 : Calcul de lois & Vecteurs gaussiens

On en déduit par la méthode de la fonction muette



[PDF] Vecteurs gaussiens

Rappelons la définition des variables aléatoires gaussiennes réelles Définition 1 • Une variable aléatoire réelle Z est dite gaussienne centrée réduite si 



[PDF] VECTEURS GAUSSIENS

Les vecteurs gaussiens sont associés aux lois gaussiennes multivariées et de ce fait jouent un rôle important en probabilités et en statistique



[PDF] Vecteurs gaussiens

On appelle loi gaussienne centrée réduire la loi N(0Id) Une matrice de variance est nécessaire symétrique et positive Le résultat suivant établit que c'est 



[PDF] VECTEURS GAUSSIENS

VECTEURS GAUSSIENS Préparation à l'agrégation externe de Mathématiques de l'université Rennes 1 1 Année 2008/2009 1 DEFINITIONS ET PREMIERES PROPRIETES



[PDF] Vecteurs aléatoires gaussiens

2 Vecteurs aléatoires gaussiens Rappelons que la loi gaussienne (ou normale) centrée réduite est la loi J (0 1) sur R dont la densité est : fG(x) = 1



[PDF] CHAPITRE 6 : VECTEURS GAUSSIENS - mathenspsleu

Comme nous allons le constater les vecteurs Gaussiens constituent la généralisation naturelle en n dimensions des variables Gaussiennes uni-dimensionnelles La 



[PDF] Vecteurs Gaussiens

Définition 1 7 Nous dirons qu'une v a de carré intégrable X est centrée réduite si E(X)=0 ; V ar(X)=1 Proposition 1 1 Soit Y v a de carré intégrable Alors 



[PDF] VECTEURS GAUSSIENS - ENS Rennes

Souvent un moyen simple de montrer qu'un vecteur aléatoire est gaussien est d'utiliser la proposition suivante qui constitue une définition alternative 



[PDF] PC 5 – Calcul de lois & Vecteurs gaussiens

20 mai 2019 · PC 5 – Calcul de lois Vecteurs gaussiens Exercice 1 Soient X et Y deux variables aléatoires indépendantes gaussiennes centrées réduites



[PDF] Chapitres 8 - Vecteurs Gaussiens et Conditionnement - Ceremade

On dit qu'un vecteur aléatoire X à valeurs dans Rd est gaussien si pour tout ? ? Rd la variable aléatoire réelle ? · X = ?i ?iXi suit une loi gaussienne

:

CHAPITRE 6 : VECTEURS GAUSSIENS

I Variables Gaussiennes r´eelles et loi duχ2

Une variable al´eatoire r´eelleXsuit la loi Gaussienne d"esp´erancemet de varianceσ2, not´eeN(m,σ2),

si elle admet la densit´e f

X:x?-→1

⎷2πσ2exp? -(x-m)22σ2?

Nous utiliserons la convention queσ= 0 correspond `aδmla masse de Dirac enm(c"est-`a-dire la loi

d"une variable al´eatoire ´egale `ampresque sˆurement). Proposition 1.(i) SiY≂ N(0,1)alorsm+σY≂ N(m,σ2), ?k?N E(Y2k+1) = 0etE(Y2k) = 2-k(2k)!/k!

(ii) SiX1≂ N(m1,σ21)etX2≂ N(m2,σ22)sont ind´ependantes, alorsX1+X2≂ N(m1+m2,σ21+σ22).

D emonstration : Rappelons aussi que, pour toute constantec?R,cX≂ N(cm,c2σ2), de telle sorte qu"on obtient :

Corollaire 2.Toute combinaison lin´eaire (et mˆeme affine) de Gaussiennesind´ependantes est une

Gaussienne.

Introduisons maintenant la loi duχ2(prononc´e"Khi-2") :

D´efinition 3.La loi duχ2`ak?N?degr´es de libert´e est la loi d"une variable al´eatoireYqui s"´ecrit

Y=X21+···+X2k, o`uX1,...,Xksont des variables al´eatoires ind´ependantes et de mˆeme loiN(0,1).

Nous la notonsχ2(k). Sa densit´e est

f k:x?-→1

2k/2Γ(k/2)x-1+k/2e-x/2

?x>0. Proposition 4.SiYsuit la loiχ2(k)alorsE(Y) =ketVar(Y) = 2k.

II Vecteurs Gaussiens

Comme nous allons le constater, les vecteurs Gaussiens constituent la g´en´eralisation naturelle enn

dimensions des variables Gaussiennes uni-dimensionnelles. La convention prise pourσ= 0 va s"av´erer

bien pratique, permettant d"´eviter d"avoir `a ´evoquer les cas particuliers. Nous commen¸cons par donner

une d´efinition assez formelle, mais nous verrons ensuite des mani`eres plus naturelles de les voir.

Avant cela, rappelons quelques d´efinitions et notations : ?SiAest une matrice de taillen×palors sa transpos´eetAest la matrice de taillep×ntelle que tA)i,j=Aj,ipour tousi? {1,...,p}etj? {1,...,n}.Dans ce chapitre, nous noterons en colonne les vecteurs deRn. 1 ?Pourn≥1, nous notons?·,·?le produit scalaire usuel surRnd´efini par i=1x iyi La norme euclidienne dex?Rnest d´efinie par?x?=? ?x,x?.

?Une matrice carr´eeMde taillenest dite sym´etrique sitM=M. Elle est dite positive si?Mx,x? ≥0

pour toutx?Rn. Elle est dite d´efinie positive si?Mx,x?>0pour toutx?Rn\{0}.

1) D´efinitions et propri´et´es

D´efinition 5.Une variable al´eatoireX=t(X1,...,Xn)dansRnest un vecteur Gaussien, si pour touta=t(a1,...,an)?Rn, la variable al´eatoire r´eelle?a,X?=a1X1+...anXnest Gaussienne.

Le corollaire pr´ec´edent montre que si l"on consid`ere desvariables al´eatoiresXi≂ N(mi,σ2i) ind´epen-

dantes, alorsX=t(X1,...,Xn) est un vecteur Gaussien.

Remarque :

D´efinition 6.SoitX=t(X1,...,Xn)un vecteur Gaussien. Son esp´erance est le vecteur m=E(X) =t(E(X1),...,E(Xn))?Rn ?(i,j)? {1,...,n}2Cov(Xi,Xj) =E([Xi-E(Xi)][Xj-E(Xj)]) =E(XiXj)-E(Xi)E(Xj)

Proposition 7.Pour toutu?Rn,?Γu,u?=Var(?u,X?). Par cons´equent la matriceΓest sym´etrique

positive. D emonstration :

Le fait que Γ soit sym´etrique positive permet de lui associer une unique racine carr´ee, c"est-`a-dire

une matriceAsym´etrique positive telle queA2= Γ. C"est un r´esultat classique qui d´ecoule de la

diagonalisation des matrices sym´etriques.

Rappelons que la transform´ee de Fourier d"un vecteur al´eatoireXdansRncaract´erise la loi deX. Il

s"agit de la fonction

X:u?-→E(ei) =E?

ei(u1X1+...+unXn)? Proposition 8.SiXest un vecteur Gaussien d"esp´erancemet de matrice de covarianceΓ, sa transform´ee de Fourier est

X:u?-→exp?

i?u,m? -1

2?Γu,u??

D emonstration : 2

Corollaire 9.Un vecteur GaussienXest caract´eris´e par son esp´erancemet sa matrice de cova-

rianceΓsym´etrique positive. D´efinition 10.Nous notonsNn(m,Γ)la loi d"un vecteur GaussienX=t(X1,...,Xn)d"esp´erance met sa matrice de covarianceΓ. Sim= 0etΓ =In, on dit queXest un vecteur Gaussien centr´e r´eduit.

2) Caract´erisation de l"ind´ependance

SiX1,...,Xnsont des variables al´eatoires r´eelles Gaussiennes ind´ependantes alorsXest Gaussien et

?i?=jCov(Xi,Xj) = 0. Ainsi Γ est une matrice diagonale. La r´eciproque est vraie : Proposition 11.SoientX1,...,Xndes variables al´eatoires r´eelles Gaussiennes. Alors lesXisont ind´ependantes si et seulement si le vecteurX=t(X1,...,Xn)est Gaussien de matrice de covariance diagonale. D emonstration :utilise la transform´ee de Fourier.

3) Existence de vecteurs Gaussiens

NotonsMp,n(R) l"ensemble des matrices de taillep×n`a coefficients r´eels. Proposition 12.SoientX≂ Nn(m,Γ)etY=AX+b, avecA? Mp,n(R)etb?Rp. Alors

Y≂ Np(Am+b,AΓtA).

D emonstration :

Th´eor`eme 13.Sim?RnetΓest une matrice sym´etrique positive alors il existe un vecteur Gaussien

Xd"esp´erancemet de matrice de covarianceΓ.

D emonstration :

4) Densit´e d"un vecteur Gaussien

Proposition 14.La loiNn(m,Γ)admet une densit´e si et seulement siΓest inversible (c"est-`a-dire

sym´etrique d´efinie positive). Dans ce cas, sa densit´e (par rapport `adx1...dxn) est (x1,...,xn)?-→1 ?(2π)ndetΓexp? -12?Γ-1(x-m),x-m?? D emonstration :Admis (utilise le changement de variable en dimension sup´erieure). 3

5) Th´eor`eme Central Limite VectorielTh´eor`eme 15.SoientX1,...,Xndes vecteurs al´eatoires ind´ependants et de mˆeme loi dansRdtels que

E(X21(j))<+∞pour toutj? {1,...,n}. Notonsml"esp´erance deX1etΓsa matrice de covariance.

Alors⎷

n?X1+...+Xnn-m?

L-→n→+∞Nd(0,Γ)

D emonstration :voir TD. III Th´eor`eme de Cochran et mod`eles Gaussiens

1) Rappel : projection orthogonale sur un sous-espace vectoriel

SoitEunR-espace vectoriel de dimension finien, muni d"un produit scalaire (on parle d"espace Eu-

clidien). On peut par exemple prendreE=Rnet le produit scalaire d´efini au d´ebut du paragraphe II.

D´efinition 16.?Deux vecteursxetydeEsont dits orthogonaux si?x,y?= 0. ?Deux partiesAetBdeEsont dites orthogonales si?x,y?= 0pour tout(x,y)?A×B. ?SiAest une partie deEalors son orthogonal est le sous-espace vectoriel A ?={x?E:?y?A?x,y?= 0} pouri?=j Notons qu"une telle base existe toujours dans un espace Euclidien. D´efinition 17.Si il existep? {2,...,n}etE1,...Epdes sous-espaces vectoriels deEdeux `a deux orthogonaux tels que pour toutx?Es"´ecrit de mani`ere unique x=x1+···+xpavec(x1,...,xp)?E1× ··· ×Ep alors on dit queEest somme directe orthogonale deE1,...Epet on noteE=E1??···??Ep. De plus,

pour touti? {1,...,p}, l"applicationΠEi:x?E?-→xiest appel´ee projection orthogonale surEi.

Notons que, dans ce cas, on peut former une BON deEen r´eunissant des BON desEiet ?i? {1,...,p}E?i=E1?? ···Ei-1??Ei+1?? ···??Ep Proposition 18.SiFest un sous-espace vectoriel deE, l"orthogonal deFest un sous-espace vectoriel de dimensionn-dimFetE=F?F?. Mentionnons aussi que(F?)?=F.

2) Th´eor`eme de Cochran

Th´eor`eme 19(Cochran).SoitX≂ Nn(0,σ2In)(c"est-`a-direX1,...,Xnest un n-´echantillon de loi

N(0,σ2)). Supposons queRnest muni de sa base canonique et que R n=E1?? ···??Ep

Alors les projectionsΠE1X,...,ΠEpXdeXsont des vecteurs Gaussiens ind´ependants de lois respec-

tivesNn(0,σ2ΠE1),...,Nn(0,σ2ΠEp). En particulier ?i? {1,...,p}1

σ2?ΠEiX?2≂χ2(dimEi)

4

D´emonstration :

3) Intervalles de confiance et tests pour les param`etres d"une loiN(m,σ2)

Introduisons la loi de Student (dont nous avons `a disposition la table de loi) :

D´efinition 20.La loi de Student `andegr´es de libert´e est la loi d"une variable al´eatoire r´eelle qui

s"´ecrit⎷ nX/⎷YavecX≂ N(0,1)etY≂χ2(n)ind´ependants. On la noteT(n). Sa densit´e est x?R?-→cn? 1 +x2 n? -(n+1)/2 o`ucnest une constante de renormalisation.

Les vecteurs Gaussiens sont souvent utilis´es dans les mod`eles statistiques multi-dimensionnels car ils

s"av`erent assez faciles `a manipuler, notamment grˆace auth´eor`eme de Cochran.

Consid´erons par exemple un n-´echantillonX1,...,Xnde loiN(m,σ2). L"estimateur du maximum de

vraisemblance de (m,σ2) est (

Xn,Vn) avec

Xn=1nn

i=1X ietVn=1nn i=1(Xi-Xn)2 Consid´erons plutˆot l"estimateur sans biais ?σ2n=1 n-1n i=1(Xi-Xn)2 Rappelons que le lemme de Slutsky entraˆıne que nXn-m??σ2nL -→n→+∞N(0,1) Cela nous a permis de construire des intervalles de confianceasymptotiques. La proposition suivante

va nous permettre de construire, dans le cas Gaussien, des intervalles de confiance (non asymptotiques)

et des tests `a partir de la loi de Student. Proposition 21.Dans le cas Gaussien que nous venons de d´ecrire,

Xnet?σ2nsont ind´ependantes et

Xn≂ N?

m,σ2n? etn-1σ2?σ2n≂χ2(n-1) D emonstration : 5quotesdbs_dbs42.pdfusesText_42
[PDF] matrice de variance et covariance exercice corrigé

[PDF] exercice microéconomie consommateur

[PDF] exercice aire et périmètre 3eme

[PDF] exercices corrigés arithmétique 3eme

[PDF] relations interspécifiques exercices

[PDF] relations interspécifiques exemples

[PDF] exercice sur les facteurs biotiques

[PDF] démontrer que deux triangles sont isométriques

[PDF] triangles isométriques démonstrations

[PDF] triangles isométriques exercices corrigés

[PDF] figures isométriques et semblables exercices

[PDF] triangles isométriques exercices corrigés 4ème

[PDF] figures isométriques exercices

[PDF] isométrie exercices corrigés

[PDF] exercices corrigés dioptre sphérique