Vecteurs gaussiens
Une variable aléatoire réelle Z est dite gaussienne centrée réduite si elle admet pour Donnons la fonction caractéristique d'un vecteur gaussien et les ...
VECTEURS GAUSSIENS
Les vecteurs gaussiens sont associés aux lois gaussiennes multivariées est égale à Idd. Le vecteur aléatoire AX est alors centré de matrice de.
Vecteurs gaussiens
Vecteurs gaussiens. 24 novembre 2013 - v1 non relue. 1 Variables aléatoires gaussiennes réelles. Définition. On appelle loi gaussienne centrée réduite la
PC 5 – Calcul de lois & Vecteurs gaussiens
20 mai 2019 Donc X3 est indépendant du vecteur gaussien (X1X2). 2. On va montrer que (X1
CHAPITRE 6 : VECTEURS GAUSSIENS
m et sa matrice de covariance ?. Si m = 0 et ? = In on dit que X est un vecteur Gaussien centré réduit. 2) Caractérisation de l'indépendance.
Chapitre 2 - Vecteurs aléatoires gaussiens
On peut “ visualiser une v.a.r. gaussienne centrée réduite G ainsi : prenons Théorème 2.5 Si X est un vecteur gaussien sa fonction caractéristique vaut ...
Processus Gaussiens
Pour un vecteur gaussien centré E[X] = 0 et on montre que. ?x
Leçon 14
d'un vecteur X centré de matrice de covariance ?
T.P. I: Vecteurs gaussiens
est un vecteur gaussien centré de matrice de covariance. (1 ? ? 1. ) . Utiliser dans Scilab la fonction chol en la testant sur une matrice 2x2.
PC 5 : Calcul de lois & Vecteurs gaussiens
On en déduit par la méthode de la fonction muette
[PDF] Vecteurs gaussiens
Rappelons la définition des variables aléatoires gaussiennes réelles Définition 1 • Une variable aléatoire réelle Z est dite gaussienne centrée réduite si
[PDF] VECTEURS GAUSSIENS
Les vecteurs gaussiens sont associés aux lois gaussiennes multivariées et de ce fait jouent un rôle important en probabilités et en statistique
[PDF] Vecteurs gaussiens
On appelle loi gaussienne centrée réduire la loi N(0Id) Une matrice de variance est nécessaire symétrique et positive Le résultat suivant établit que c'est
[PDF] VECTEURS GAUSSIENS
VECTEURS GAUSSIENS Préparation à l'agrégation externe de Mathématiques de l'université Rennes 1 1 Année 2008/2009 1 DEFINITIONS ET PREMIERES PROPRIETES
[PDF] Vecteurs aléatoires gaussiens
2 Vecteurs aléatoires gaussiens Rappelons que la loi gaussienne (ou normale) centrée réduite est la loi J (0 1) sur R dont la densité est : fG(x) = 1
[PDF] CHAPITRE 6 : VECTEURS GAUSSIENS - mathenspsleu
Comme nous allons le constater les vecteurs Gaussiens constituent la généralisation naturelle en n dimensions des variables Gaussiennes uni-dimensionnelles La
[PDF] Vecteurs Gaussiens
Définition 1 7 Nous dirons qu'une v a de carré intégrable X est centrée réduite si E(X)=0 ; V ar(X)=1 Proposition 1 1 Soit Y v a de carré intégrable Alors
[PDF] VECTEURS GAUSSIENS - ENS Rennes
Souvent un moyen simple de montrer qu'un vecteur aléatoire est gaussien est d'utiliser la proposition suivante qui constitue une définition alternative
[PDF] PC 5 – Calcul de lois & Vecteurs gaussiens
20 mai 2019 · PC 5 – Calcul de lois Vecteurs gaussiens Exercice 1 Soient X et Y deux variables aléatoires indépendantes gaussiennes centrées réduites
[PDF] Chapitres 8 - Vecteurs Gaussiens et Conditionnement - Ceremade
On dit qu'un vecteur aléatoire X à valeurs dans Rd est gaussien si pour tout ? ? Rd la variable aléatoire réelle ? · X = ?i ?iXi suit une loi gaussienne
CHAPITRE 6 : VECTEURS GAUSSIENS
I Variables Gaussiennes r´eelles et loi duχ2Une variable al´eatoire r´eelleXsuit la loi Gaussienne d"esp´erancemet de varianceσ2, not´eeN(m,σ2),
si elle admet la densit´e fX:x?-→1
⎷2πσ2exp? -(x-m)22σ2?Nous utiliserons la convention queσ= 0 correspond `aδmla masse de Dirac enm(c"est-`a-dire la loi
d"une variable al´eatoire ´egale `ampresque sˆurement). Proposition 1.(i) SiY≂ N(0,1)alorsm+σY≂ N(m,σ2), ?k?N E(Y2k+1) = 0etE(Y2k) = 2-k(2k)!/k!(ii) SiX1≂ N(m1,σ21)etX2≂ N(m2,σ22)sont ind´ependantes, alorsX1+X2≂ N(m1+m2,σ21+σ22).
D emonstration : Rappelons aussi que, pour toute constantec?R,cX≂ N(cm,c2σ2), de telle sorte qu"on obtient :Corollaire 2.Toute combinaison lin´eaire (et mˆeme affine) de Gaussiennesind´ependantes est une
Gaussienne.
Introduisons maintenant la loi duχ2(prononc´e"Khi-2") :D´efinition 3.La loi duχ2`ak?N?degr´es de libert´e est la loi d"une variable al´eatoireYqui s"´ecrit
Y=X21+···+X2k, o`uX1,...,Xksont des variables al´eatoires ind´ependantes et de mˆeme loiN(0,1).
Nous la notonsχ2(k). Sa densit´e est
f k:x?-→12k/2Γ(k/2)x-1+k/2e-x/2
?x>0. Proposition 4.SiYsuit la loiχ2(k)alorsE(Y) =ketVar(Y) = 2k.II Vecteurs Gaussiens
Comme nous allons le constater, les vecteurs Gaussiens constituent la g´en´eralisation naturelle enn
dimensions des variables Gaussiennes uni-dimensionnelles. La convention prise pourσ= 0 va s"av´erer
bien pratique, permettant d"´eviter d"avoir `a ´evoquer les cas particuliers. Nous commen¸cons par donner
une d´efinition assez formelle, mais nous verrons ensuite des mani`eres plus naturelles de les voir.
Avant cela, rappelons quelques d´efinitions et notations : ?SiAest une matrice de taillen×palors sa transpos´eetAest la matrice de taillep×ntelle que tA)i,j=Aj,ipour tousi? {1,...,p}etj? {1,...,n}.Dans ce chapitre, nous noterons en colonne les vecteurs deRn. 1 ?Pourn≥1, nous notons?·,·?le produit scalaire usuel surRnd´efini par i=1x iyi La norme euclidienne dex?Rnest d´efinie par?x?=? ?x,x?.?Une matrice carr´eeMde taillenest dite sym´etrique sitM=M. Elle est dite positive si?Mx,x? ≥0
pour toutx?Rn. Elle est dite d´efinie positive si?Mx,x?>0pour toutx?Rn\{0}.1) D´efinitions et propri´et´es
D´efinition 5.Une variable al´eatoireX=t(X1,...,Xn)dansRnest un vecteur Gaussien, si pour touta=t(a1,...,an)?Rn, la variable al´eatoire r´eelle?a,X?=a1X1+...anXnest Gaussienne.Le corollaire pr´ec´edent montre que si l"on consid`ere desvariables al´eatoiresXi≂ N(mi,σ2i) ind´epen-
dantes, alorsX=t(X1,...,Xn) est un vecteur Gaussien.Remarque :
D´efinition 6.SoitX=t(X1,...,Xn)un vecteur Gaussien. Son esp´erance est le vecteur m=E(X) =t(E(X1),...,E(Xn))?Rn ?(i,j)? {1,...,n}2Cov(Xi,Xj) =E([Xi-E(Xi)][Xj-E(Xj)]) =E(XiXj)-E(Xi)E(Xj)Proposition 7.Pour toutu?Rn,?Γu,u?=Var(?u,X?). Par cons´equent la matriceΓest sym´etrique
positive. D emonstration :Le fait que Γ soit sym´etrique positive permet de lui associer une unique racine carr´ee, c"est-`a-dire
une matriceAsym´etrique positive telle queA2= Γ. C"est un r´esultat classique qui d´ecoule de la
diagonalisation des matrices sym´etriques.Rappelons que la transform´ee de Fourier d"un vecteur al´eatoireXdansRncaract´erise la loi deX. Il
s"agit de la fonctionX:u?-→E(ei) =E?
ei(u1X1+...+unXn)? Proposition 8.SiXest un vecteur Gaussien d"esp´erancemet de matrice de covarianceΓ, sa transform´ee de Fourier estX:u?-→exp?
i?u,m? -12?Γu,u??
D emonstration : 2Corollaire 9.Un vecteur GaussienXest caract´eris´e par son esp´erancemet sa matrice de cova-
rianceΓsym´etrique positive. D´efinition 10.Nous notonsNn(m,Γ)la loi d"un vecteur GaussienX=t(X1,...,Xn)d"esp´erance met sa matrice de covarianceΓ. Sim= 0etΓ =In, on dit queXest un vecteur Gaussien centr´e r´eduit.2) Caract´erisation de l"ind´ependance
SiX1,...,Xnsont des variables al´eatoires r´eelles Gaussiennes ind´ependantes alorsXest Gaussien et
?i?=jCov(Xi,Xj) = 0. Ainsi Γ est une matrice diagonale. La r´eciproque est vraie : Proposition 11.SoientX1,...,Xndes variables al´eatoires r´eelles Gaussiennes. Alors lesXisont ind´ependantes si et seulement si le vecteurX=t(X1,...,Xn)est Gaussien de matrice de covariance diagonale. D emonstration :utilise la transform´ee de Fourier.3) Existence de vecteurs Gaussiens
NotonsMp,n(R) l"ensemble des matrices de taillep×n`a coefficients r´eels. Proposition 12.SoientX≂ Nn(m,Γ)etY=AX+b, avecA? Mp,n(R)etb?Rp. AlorsY≂ Np(Am+b,AΓtA).
D emonstration :Th´eor`eme 13.Sim?RnetΓest une matrice sym´etrique positive alors il existe un vecteur Gaussien
Xd"esp´erancemet de matrice de covarianceΓ.
D emonstration :4) Densit´e d"un vecteur Gaussien
Proposition 14.La loiNn(m,Γ)admet une densit´e si et seulement siΓest inversible (c"est-`a-dire
sym´etrique d´efinie positive). Dans ce cas, sa densit´e (par rapport `adx1...dxn) est (x1,...,xn)?-→1 ?(2π)ndetΓexp? -12?Γ-1(x-m),x-m?? D emonstration :Admis (utilise le changement de variable en dimension sup´erieure). 35) Th´eor`eme Central Limite VectorielTh´eor`eme 15.SoientX1,...,Xndes vecteurs al´eatoires ind´ependants et de mˆeme loi dansRdtels que
E(X21(j))<+∞pour toutj? {1,...,n}. Notonsml"esp´erance deX1etΓsa matrice de covariance.Alors⎷
n?X1+...+Xnn-m?L-→n→+∞Nd(0,Γ)
D emonstration :voir TD. III Th´eor`eme de Cochran et mod`eles Gaussiens1) Rappel : projection orthogonale sur un sous-espace vectoriel
SoitEunR-espace vectoriel de dimension finien, muni d"un produit scalaire (on parle d"espace Eu-clidien). On peut par exemple prendreE=Rnet le produit scalaire d´efini au d´ebut du paragraphe II.
D´efinition 16.?Deux vecteursxetydeEsont dits orthogonaux si?x,y?= 0. ?Deux partiesAetBdeEsont dites orthogonales si?x,y?= 0pour tout(x,y)?A×B. ?SiAest une partie deEalors son orthogonal est le sous-espace vectoriel A ?={x?E:?y?A?x,y?= 0} pouri?=j Notons qu"une telle base existe toujours dans un espace Euclidien. D´efinition 17.Si il existep? {2,...,n}etE1,...Epdes sous-espaces vectoriels deEdeux `a deux orthogonaux tels que pour toutx?Es"´ecrit de mani`ere unique x=x1+···+xpavec(x1,...,xp)?E1× ··· ×Ep alors on dit queEest somme directe orthogonale deE1,...Epet on noteE=E1??···??Ep. De plus,pour touti? {1,...,p}, l"applicationΠEi:x?E?-→xiest appel´ee projection orthogonale surEi.
Notons que, dans ce cas, on peut former une BON deEen r´eunissant des BON desEiet ?i? {1,...,p}E?i=E1?? ···Ei-1??Ei+1?? ···??Ep Proposition 18.SiFest un sous-espace vectoriel deE, l"orthogonal deFest un sous-espace vectoriel de dimensionn-dimFetE=F?F?. Mentionnons aussi que(F?)?=F.2) Th´eor`eme de Cochran
Th´eor`eme 19(Cochran).SoitX≂ Nn(0,σ2In)(c"est-`a-direX1,...,Xnest un n-´echantillon de loi
N(0,σ2)). Supposons queRnest muni de sa base canonique et que R n=E1?? ···??EpAlors les projectionsΠE1X,...,ΠEpXdeXsont des vecteurs Gaussiens ind´ependants de lois respec-
tivesNn(0,σ2ΠE1),...,Nn(0,σ2ΠEp). En particulier ?i? {1,...,p}1σ2?ΠEiX?2≂χ2(dimEi)
4D´emonstration :
3) Intervalles de confiance et tests pour les param`etres d"une loiN(m,σ2)
Introduisons la loi de Student (dont nous avons `a disposition la table de loi) :D´efinition 20.La loi de Student `andegr´es de libert´e est la loi d"une variable al´eatoire r´eelle qui
s"´ecrit⎷ nX/⎷YavecX≂ N(0,1)etY≂χ2(n)ind´ependants. On la noteT(n). Sa densit´e est x?R?-→cn? 1 +x2 n? -(n+1)/2 o`ucnest une constante de renormalisation.Les vecteurs Gaussiens sont souvent utilis´es dans les mod`eles statistiques multi-dimensionnels car ils
s"av`erent assez faciles `a manipuler, notamment grˆace auth´eor`eme de Cochran.Consid´erons par exemple un n-´echantillonX1,...,Xnde loiN(m,σ2). L"estimateur du maximum de
vraisemblance de (m,σ2) est (Xn,Vn) avec
Xn=1nn
i=1X ietVn=1nn i=1(Xi-Xn)2 Consid´erons plutˆot l"estimateur sans biais ?σ2n=1 n-1n i=1(Xi-Xn)2 Rappelons que le lemme de Slutsky entraˆıne que nXn-m??σ2nL -→n→+∞N(0,1) Cela nous a permis de construire des intervalles de confianceasymptotiques. La proposition suivanteva nous permettre de construire, dans le cas Gaussien, des intervalles de confiance (non asymptotiques)
et des tests `a partir de la loi de Student. Proposition 21.Dans le cas Gaussien que nous venons de d´ecrire,Xnet?σ2nsont ind´ependantes et
Xn≂ N?
m,σ2n? etn-1σ2?σ2n≂χ2(n-1) D emonstration : 5quotesdbs_dbs42.pdfusesText_42[PDF] exercice microéconomie consommateur
[PDF] exercice aire et périmètre 3eme
[PDF] exercices corrigés arithmétique 3eme
[PDF] relations interspécifiques exercices
[PDF] relations interspécifiques exemples
[PDF] exercice sur les facteurs biotiques
[PDF] démontrer que deux triangles sont isométriques
[PDF] triangles isométriques démonstrations
[PDF] triangles isométriques exercices corrigés
[PDF] figures isométriques et semblables exercices
[PDF] triangles isométriques exercices corrigés 4ème
[PDF] figures isométriques exercices
[PDF] isométrie exercices corrigés
[PDF] exercices corrigés dioptre sphérique