PC 5 – Calcul de lois & Vecteurs gaussiens
20-May-2019 Exercice 1. Soient X et Y deux variables aléatoires indépendantes gaussiennes centrées réduites. 1. Déterminer la loi de. (. X ...
Leçon 14 Exercices corrigés
L'objet de l'exercice est d'obtenir un bon encadrement de la Exercice 2. Montrer qu'il existe un vecteur gaussien centré X à valeurs.
TD no 8 : Vecteurs gaussiens
2. Montrer que (X +Y2X ?Y )t est un couple gaussien. Déterminer sa matrice de covariance. Exercice 3.
TD 2 : Vecteurs gaussiens construction du mouvement brownien
Expliquer comment simuler un vecteur gaussien centré de matrice de covariance K à partir de variables gaussiennes indépendantes. Solution de l'exercice 2 Soit d
T. D. n 3 Exercices sur les vecteurs gaussiens et les lois
Exercice 1. Densité d'un vecteur gaussien. Soit X un vecteur gaussien de matrice de covariance C et d'espérance µ. Nous.
TD1 : Variables aléatoires réelles vecteurs aléatoires
Exercice 12 (Extrait du partiel de novembre 2016) Montrer que (U X ?Y ) est un vecteur gaussien dont on précisera l'espérance et la matrice de ...
CC - Correction 1 Vecteurs gaussiens 2 Convergence de suites de
1 Vecteurs gaussiens. Exercice 1. 1. Une matrice est une matrice de covariance si et seulement si elle est sy- métrique et semi-définie positive.
Exercices sur les vecteurs gaussiens et le Théorème de Cochran
Exercice 2. Dans cet exercice X = (X1X2
TD 3 - Vecteurs Gaussiens I
TD 3 - Vecteurs Gaussiens I. 2018 - 19 lerouvillois@math.univ-lyon1.fr poudevigne@math.univ-lyon1.fr. Exercice 1. Soit (X1X2) un vecteur gaussien centré de
TD - Vecteurs Gaussiens
Montrer que (UV) est un vecteur gaussien et calculer sa covariance. . On pose. W = (X ? U) + (Y ? U) . Exercice . Densité des vecteurs gaussiens.
PC 5 { Calcul de lois & Vecteurs gaussiens - univ-toulousefr
PC 5 { Calcul de lois & Vecteurs gaussiens Exercice 1 Soient X et Y deux variables al eatoires ind ependantes gaussiennes centr ees r eduites 1 D eterminer la loi de Xp+Y 2;Xp Y 2 2 D eterminer la loi de X=Y Solution Comme Xet Y sont ind ependantes la loi de (X;Y) a une densit e 1 2? e x 2+y2 2 sur R2 Soit g: R2!R une fonction continue
Fiche 4 Vecteurs gaussiens
Fiche 4 Vecteurs gaussiens Exercice 1 Soit Xet Y deux ariablesv aléatoires i i d de loi N(0;1) 1 On pose U= X+Y 2 et V = X Y 2 Montrer que (U;V) est un vecteur gaussien et déterminer sa loi 2 On pose W= 1 2 (X U)2 + 2 (Y U)2 montrer que Uet Wsont indépendantes et déterminer la loi de W Exercice 2
VECTEURS GAUSSIENS - u-bordeauxfr
vecteur gaussien standard et Aune matrice racine carrée de Alors les vecteurs X et m+ AZontmêmeloi Démonstration Ilsu?td’utiliserlerésultatprécédentetdevéri?erquepourlesdeuxvecteurson obtientlamêmefonctioncaractéristique Proposition9 Toutematricesymétriquesemi-dé?niepositive dedimensiond destlamatrice
VECTEURS GAUSSIENS - u-bordeauxfr
8 Chapitre I Vecteurs aléatoires gaussiens Démonstration Lapremièreéquivalenceprovientdeladé?nitiond’unvecteuraléatoiregaussien etdecelledelafonctioncaractéristiqued’unevariablealéatoiregaussienneréelle Pourl’équivalenceentre 1 et3 celaprovientsimplementduthéorème 3 etdespropriétésdesmatricessymétriquessemi-dé?nies
Chapitre 14 Vecteurs gaussiens - Centrale Marseille
Chapitre 14 Vecteurs gaussiens Renaud Bourl es - Ecole Centrale Marseille Math ematiques pour la nance
T D no 3 Exercices sur les vecteurs gaussiens et les lois
Exercices sur les vecteurs gaussiens et les lois conditionnelles Exercice 1 Densit´e d’un vecteur gaussien Soit X un vecteur gaussien de matrice de covariance C et d’esp´erance µ Nous supposons que C = ADAt ou` D est diagonale et A orthogonale Nops consid´erons le vecteur al´eatoire Y = At(X ?µ) 1 Montrer que Y est un vecteur
Exercices Rappels vecteurs gaussiens
Exercices Rappels vecteurs gaussiens Exercice 1 On donne les poids à la naissance (en kg) de 10 enfants : 3:2;2:4;3:3;3:4;3:9;2:9;3:3;4:5;1:9;3:3: 1 Calculer le poids moyen puis l'écart-type du poids des enfants 2 On a demandé aux mères si elles aaienvt traaillév au cours de leur grossesse : cinq ont tra-
PROBABILITÉS Exercices Vecteurs Gaussiens 2M R h y 2M
Exercices Vecteurs Gaussiens Soit = ( 1;:::; n) 2M 1;n(R) unvecteurligneet 2M n(R) unematricesymétrique dé?niepositive(i) OnditqueY = (Y 1;:::;Y n) estunvecteur gaussien demoyennes et matricedecovariance s’iladmetladensité f Y(y 1;:::;y n) = 1 p (2?)ndet() exp h T 1 2 (y ) 1(y ) i; ouonécrity = (y 1;:::;y n) 2M 1;n
VECTEURS GAUSSIENS - univ-rennes1fr
Application : simulation de vecteurs gaussiens Il est facile de simuler un vecteur gaussien de matrice de variance diagonalecarles composantessontalorsdes v a r indépendantes deloisgaussiennes Supposonsdonc que l’onaitàsimuleruneréalisationd’unvecteurgaussien X?N n(m;) IlexisteunematriceorthogonaleP telleque = P Pt(?) où = diag( 1
TD no 8 : Vecteurs gaussiens - CNRS
TD no 8 : Vecteurs gaussiens Exercice 1 SoientXetY deuxvar iid suivantchacuneloinormaleN(0;1) OnposeU= X+Y etV = X Y 1 Montrerque(U;V)t estuncouplegaussien 2 MontrerqueUetV sontindépendantes Exercice 2 Soit(X;Y)t uncouplegaussiencentrételqueE(X2) = 4 etE(Y2) = 1etlesvar 2X+Y etX 3Y sontindépendantes 1
Searches related to exercices vecteurs gaussiens filetype:pdf
TD9 - Vecteurs Gaussiens - Correction Exercice 7 6 En utilisant la question précédente et en se rappelant que la loi géométrique G„p”est d’espérance 1 p et
Quelle est la variance d’un vecteur gaussien ?
- Esperance et Variance d’un vecteur gaussien. Rappelons qu’une variable gaussienne (normale) ;?est caracterisee par deux parametres : la moyenne et l’ecart-type ?(ou la variance ?2). De maniere analogue, un vecteur gaussien est caracterise pas le vecteur E(X) et la matrice de variance-covariance : 0 B B B B B B @ Var(X. 1) Cov(X. 1;X.
Quels sont les 3 entiers de Gauss ?
- Trois entiers de Gauss : 1 + i, 2 + i et 1 + 3i. Comme tout anneau d'entiers algébriques, les entiers de Gauss possèdent une norme. Si N est cette norme, elle est définie par :
Comment calculer la fonction caractéristique d'une gaussienne?
- Cette fonction caractéristique , qui se calcule à partir de la densité de probabilité, et caractérise la loi, est donnée par : . Cette fonction caractéristique est égale, à une constante multiplicative près, à la densité de probabilité de la loi : on dit que la fonction caractéristique d'une gaussienne est gaussienne .
Qu'est-ce que la renormalisation des vecteurs gaussiens?
- nest une constante de renormalisation. Les vecteurs Gaussiens sont souvent utilis´es dans les mod`eles statistiques multi-dimensionnels car ils s’av`erent assez faciles a manipuler, notamment graˆce au th´eor`eme de Cochran. Consid´erons par exemple un n-´echantillon X1,...,X
VECTEURS GAUSSIENS
Préparation à l"Agrégation Bordeaux 1
Année 2012 - 2013
Jean-Jacques Ruch
Table des Matières
Chapitre I. Vecteurs aléatoires gaussiens5
1. Vecteurs aléatoires5
2. Vecteurs aléatoires gaussiens 7
3. Théorème de Cochran 10
3CHAPITRE I
Vecteurs aléatoires gaussiens
Les vecteurs gaussiens sont associés aux lois gaussiennes multivariées, et de ce fait jouent un rôle important
en probabilités et en statistique. Ils apparaissent naturellement comme des objets limites et serviront en
particulier dans le prochain chapitre :soit(Yn)une suite de vecteurs aléatoires à valeurs dansRk, dont les composantes sont de carré intégrable,
indépandants et de même loi avecE(Y1) =Met de matrice de covariance; alors on a pnY1++Ynn
ML! Nk(0;):
1. Vecteurs aléatoires
SoitX=0
B @X 1... X d1 C A2Rdun vecteur aléatoire tel queE(X2j)<+1. Pour tout1i;jd, lacovariance entreXietXjest donnée par Cov(Xi;Xj) =E[(XiE[Xi])(XjE[Xj])] =E[XiXj]E[Xi]E[Xj]:Avec l"hypothèse faite ci-dessus cette covariance est toujours bien définie car, par l"inégalité de Cauchy-
Schwarz,
jCov(Xi;Xj)j2Var(Xi)Var(Xj):Il est facile de voir que l"on a Cov(Xi;Xi) =Var(Xi). De plus, si les variablesXietXjsont indépendantes
on a Cov(Xi;Xj) = 0. En général, la réciproque est fausse, sauf pour des vecteurs gaussiens, comme nous
le verrons plus loin. Définition 1.SoitXun vecteur (colonne) aléatoire deRddont les composantes sont de carré intégrable. Levecteur moyennedeXest défini par :E(X) =0
B @E(X1)E(Xd)1
C A et samatrice de covariancepar :Var(X) =E[(XE[X])(XE[X])t] =0
BBB@Var(X1)Cov(X1;X2)Cov(X1;Xd)
Cov(X2;X1)Var(X2)Cov(X2;Xd)
Cov(Xd;X1)Cov(Xd;X2)Var(Xd)1
CCCAOn dira queXest centré siE[X] = 0. Si les composantes deXsont indépendantes la matrice de covariance
deXest diagonale. Comme avant la réciproque est fausse en général sauf pour les vecteurs gaussiens.
Avant d"énoncer le résultat suivant rappelons quelques propriétés des matrices symétriques semi-définies
positives.Une matrice symétrique réelleMest semi-définie positive si et seulement si elle vérifie l"une des deux
propriétés équivalentes suivantes : 56Chapitre I. Vecteurs aléatoires gaussiens
1.P ourtout v ecteurcolonne Von aVtMV0
2. T outesles v aleurspropres d eMsont positives ou nulles i.e. Sp(M)[0;+1[D"autre part, siM1etM2sont deux matrices symétriques semi-définies positives de même dimension, alors
pour touta0etb0,aM1+bM2est encore une matrice symétrique semi-définie positive. Le théorème
spectral entraîne que siMest symétrique semi-définie positive, alors il existe une matrice orthogonaleP
et une matrice diagonaleD=Diag(1;:::;d)(positive) telle queM=PDPt. On en déduit qu"il existe une matriceA(pas unique en général), telle queM=AAt; par exempleA=PDiag(p1;:::;p
d). Théorème 2.La matrice de covariance est une matrice symétrique semi-définie positive.Démonstration.Par construction la matrice de covariance est symétrique. Elle s"écrit comme le
produit d"un vecteur et de sa transposée (l"espérance s"applique ensuite à chaque composante et ne change
donc pas la symétrie). Pour le deuxième point il suffit de remarquer que siMest la matrice de covariance
du vecteur aléatoireXet siVest une vecteur constant deRd, alors V tMV=Var(v1X1+v2X2++vdXd)0: Théorème 3.SiXest un vecteur (colonne) aléatoire deRpde vecteur moyennemet de matrice de covariance. Alors siAest une matrice réelleqp, le vecteur aléatoireAXdeRqa pourvecteur moyenneAmet pour matrice de covarianceAAt.Démonstration.C"est une simple conséquence de la linéarité de l"espérance. Pour la moyenne on
a :E[AX] =AE[X] =Am
et pour la matrice de covariance : E[(AXAm)(AXAm)t] =E[A(Xm)(Xm)tAt] =AE[(Xm)(Xm)t]At=AAt: Théorème 4.Toute matrice symétrique semi-définie positivede dimensionddest la matrice decovariance d"un vecteur aléatoire deRd.Démonstration.SoitAune racine carrée matricielle de. On noteXun vecteur aléatoire deRd
dont les composantes sont indépendantes, centrées et de variance1. L"espérance deXest donc le vecteur
nul, et la matrice de covariance est égale à Id d. Le vecteur aléatoireAXest alors centré de matrice de covarianceAIdAt=AAt= .Jean-Jacques Ruch
2.Vecteurs aléatoires gaussiens7
Définition 5.SoitXun vecteur aléatoire deRdcentré et de matrice de covariance. On considère
(X1;:::;Xn)unn-échantillon issu deX. Lamatrice de covariance empiriquenest définie par n=1nX1Xt1++XnXtnProposition 6.La matrice de covariance empirique associée à vecteur aléatoireXdeRdest une
matrice symétrique semi-définie positive. C"est un estimateur sans biais et fortement consistant de.Démonstration.La forme de la matricenmontre que c"est une matrice symétrique semi-définie
positive. De plus commeE(XiXti) = on obtient queE(n) = . Enfin la loi forte des grands nombres entraîne quenconverge presque sûrement vers. Définition 7.SoitXun vecteur aléatoire deRd. On définit safonction caractéristiqueX:Rd!C par :8u2RdX(u) =E[eiutX] =E[ei(u1X1+udXd)]2. Vecteurs aléatoires gaussiens
Définition 8.Un vecteur aléatoire deRdest unvecteur aléatoire gaussiensi et seulement si toute
combinaison linéaire de ses composantes est une variable aléatoire réelle gaussienne, i.e. :
8a2Rd; atXL N(m;2)En particulier tout vecteur gaussien de dimension1est une variable aléatoire gaussienne réelle, éventuelle-
ment dégénérée. D"autre part, toutes les composantes deXsont aussi des variables aléatoires gaussiennes
réelles. Exemple : soitXun vecteur aléatoire deRddont les composantesXisont indépendantes et de loi N(mi;2i). Le vecteurXest alors un vecteur gaussien. En effet toute combinaison linéaire de ses composantes s"écrita1X1++adXd, dont la loi est par indépendance des variablesN(a1m1++admd;a2121++a2d2d):
Théorème 9.SoitXun vecteur aléatoire deRdde moyennemet de matrice de covariance. Les assertions suivantes sont équivalentes : 1.L eve cteurXest un vecteur gaussien.
2. L afonction c aractéristiquede Xest donnée par : pour toutu2RdX(u) =Eexp(iutX)= exp
iu tm12 utu 3. L eve cteurXa même loi que le vecteurm+AZ, oùZest un vecteur aléatoire deRd à composantes indépendantes et de loiN(0;1)etAest une matrice racine carrée de.Jean-Jacques Ruch
8Chapitre I. Vecteurs aléatoires gaussiens
Démonstration.La première équivalence provient de la définition d"un vecteur aléatoire gaussien
et de celle de la fonction caractéristique d"une variable aléatoire gaussienne réelle. Pour l"équivalence entre
1et3cela provient simplement du théorème3et des propriétés des matrices symétriques semi-définies
positives.La loi d"un vecteur gaussien est caractérisée par son vecteur moyennemet sa matrice de covariance.
Elle est appelée loi gaussienne surRdet est notéeN(m;). La loiN(0;Id)est appelée loi gaussienne
standard surRd. Un vecteur gaussien ayant cette loi est appelé vecteur aléatoire gaussien standard.
Proposition 10.Toute matrice symétrique semi-définie positivede dimensionddest la matricede covariance d"un vecteur aléatoire gaussien deRd.Démonstration.SoitZle vecteur gaussien deRddont toutes les composantes sont indépendantes
et de loiN(0;1). C"est un vecteur aléatoire gaussien standard. D"après le théorème3et le3du théorème
9,AZest un vecteur gaussien deRdde loiN(0;).
Attention, les composantes d"un vecteur gaussien sont gaussiennes mais la réciproque est fausse. En
effet, soitX= (Y;"Y)un vecteur aléatoire deR2tel queYet"sont deux variables aléatoires réelles
indépendantes avecY N(0;1)et"suit une loi de Rademacher c"est-à-direP("= 1) =P("=1) = 1=2.Il est facile de voir queYet"Ysont deux variables aléatoires gaussiennes, mais la combinaison linéaire
Y+"Yne l"est pas carP(Y+"Y= 0) =P("=1) = 1=2. De plus, Cov(Y;"Y) =E[Y2]E["] = 0, maisYet"Yne sont pas indépendantes.
Le théorème suivant caractérise les lois gaussiennes de matrice de covariance inversible.Théorème 11.La loi gaussienneN(m;)surRdadmet une densité de probabilité par rapport à la mesure
de Lesbegue deRdsi et seulement siest inversible. Dans ce cas la densité defest donnée par : pour toutx2Rd f(x) =1p(2)ddet()exp 12(xm)t1(xm)Démonstration.La loi gaussienneN(m;)peut être vue comme la loi du vecteur aléatoire gaussien
m+AZ, oùZest un vecteur gaussien deRddont toutes les composantes sont indépendantes et de loiN(0;1). Par conséquent,Za pour densité
fZ(z) =dY
i=11p2exp 12 z2i =1p(2)dexp 12 jjZjjj2 SiX N(m;)alors pour toute fonction continue bornéeh:Rd!R,E[h(X)] =E[h(AZ+m)] =Z
R dh(Az+m)fZ(z)dz: La décomposition =AAtentraîne quejdet(A)j=pdet(). De plusest inversible si et seulement siAl"est et alors1= (A1)tA1.
D"autre part, le changement de variable affinex=Az+mest un difféomorphisme deRddans lui-même si et seulement siAest inversible. Son jacobien est alors égal à det(A1). On en déduit queE[h(X)] =1p(2)ddet()Z
R dh(x)exp 12 (xm)t1(xm) dx d"où la formule annoncée pour la densité def.Jean-Jacques Ruch
2.Vecteurs aléatoires gaussiens9
Le théorème suivant caractérise les vecteurs gaussiens à matrice de covariance diagonale.
Théorème 12.Pour tout vecteur gaussienXdeRd, les trois propriétés suivantes sont équivalentes :
1. L esc omposantesX1;:::;Xdsont mutuellement indépendantes. 2. L esc omposantesX1;:::;Xdsont deux à deux indépendantes. 3.L amatric ede c ovariancedeXest diagonale.En particulier, un vecteur gaussien est à composantes indépendantes si et seulement si pour touti6=j,
Cov(Xi;Xj) = 0. Par exemple, un vecteur gaussien standard a toujours des composantes indépendantes
et de loiN(0;1)surR. Démonstration.Les implications1:)2:)3:sont évidentes. Montrons que3:)1:. Si on a =Diag(21;:::;2n), alors pour toutu2RdX(u) = exp
iu tm12 ut = exp0 idX j=1u jmj12 d X j=12ju2j1
A dY j=1exp iu jmj12 2ju2j =dY j=1Xj(uj)
Le théorème suivant montre que, pour un vecteur gaussien, la loi conditionnelle d"un bloc de composantes
par rapport à un autre bloc de composantes disjoint s"obtient par un calcul d"algèbre matricielle.
Théorème 13.SoitZ= (X;Y) : (
;A;P)!Rdun vecteur gaussien deRd=RpRq. On peut décomposer la matrice de covariancedeZen quatre blocs : =Cov(X;X)Cov(X;Y)Cov(Y;X)Cov(Y;Y)
=K C C tL Siest inversible, alorsKetLle sont. De plus, on a les propriétés suivantes : 1. L esve cteursalé atoiresXetYsont des vecteurs gaussiens deRpetRq, de matrices de covariance respectivesKetL. Ils sont indépendants si et seulement siC= 0. 2.Si Kest inversible, alors
E[YjX] =E[Y] +CtK1(XE[X]):
De plus,YE[YjX]est un vecteur gaussien deRq, centré, indépendant deX, et dematrice de covarianceLCtK1C:Démonstration.La propriété1:s"établit comme le théorème12.
Pour le deuxième point on pose
V=YE[Y]CtK1(XE[X]):
On peut remarquer queX
V =E[X] 0 +1 0 CtK11 XE[X] YE[Y]Jean-Jacques Ruch
10Chapitre I. Vecteurs aléatoires gaussiens
Comme XE[X] YE[Y] est un vecteur gaussien centré,X V est un vecteur gaussien de moyenneE[X] 0 et de matrice de covariance 1 0 CtK11 K C C tL 1K1C 0 1 =K00LCtK1C
DoncVest un vecteur gaussien deRq, centré, indépendant deX, et de matrice de covarianceLCtK1C:De plus on a
E[YjX] =E[V+E[Y] +CtK1(XE[X])jX] =E[VjX] +E[Y] +CtK1(XE[X]) =E[V] +E[Y] +CtK1(XE[X]) =E[Y] +CtK1(XE[X])3. Théorème de Cochran
C"est un analogue du théorème de Pythagore pour les vecteurs gaussiens.Théorème 14.Théorème de Cochran
SoitXun vecteur aléatoire deRnde loiN(m;2In)avec2>0. SoitRn=E1E2Ep une décomposition deRnen somme directe depsous-espaces vectoriels orthogonaux de dimensions respectivesd1;:::;dp, avecd1++dp=n. SoitPkla matrice du projecteur orthogonal surEketYk=PkXla projection orthogonale deXsurEk. 1. L espr ojectionsY1;:::;Ypsont des vecteurs gaussiens indépendants etYkN(Pkm;2Pk).
2. L esvariables alé atoiresjjY1P1mjj2;:::;jjYpPpmjj2sont indépendantes et jjYkPkmjj2=22(dk):Démonstration.Par translation on se ramène au cas oum= 0. On a0 B @Y 1... Y p1 C A=0 B @P 1... P p1 C AX=AX Par conséquent la loi deYestN(0;2AAt):Or pour tout1ip, on aPi=Pti=P2i. De plus, P iPj= 0si1i6=jpcarEi?Ej. Par conséquent,AAt=Diag(P1;:::;Pp)est diagonale par blocs. On en déduits queY1;:::;Ypsont des vecteurs gaussiens indépendants avecYk N(0;2Pk)pour tout1kp. En particulier les variables aléatoiresjjY1P1mjj2;:::;jjYpPpmjj2sont indépendantes.
Il reste à déterminer leur loi. Cela se fait en prenant une base orthonorméefek;1;:::;ek;dkgde chaque
E k. Alors on aYk=yk;1ek;1++yk;dkek;dkoù lesyk;i=< X;ek;i>sont des variables aléatoires indépendantes de loiN(0;2). ON obtient alors le résultat. Ce théorème a de nombreuses des applications, dont en particulier le corollaire suivant. Corollaire 15.Soit(X1;:::;Xn)un échantillon de loiN(m;2)avec2. On définit :X n=1n n X i=1X ietS n=1n1n X i=1(XiX n)2: Alors, les variables aléatoires sont indépendantes de loiN(m;2=n)et2(n1).Jean-Jacques Ruch
quotesdbs_dbs17.pdfusesText_23[PDF] exercices word 2007 gratuit pdf
[PDF] exercices word 2010 pdf
[PDF] exercices word 2010 perfectionnement
[PDF] exercices word 2013 pdf
[PDF] exercices word gratuit télécharger
[PDF] exercices+corrigés de prise de notes
[PDF] exigences de la carrière d'un entrepreneur
[PDF] exigences des parties intéressées
[PDF] exigences essentielles dispositifs médicaux
[PDF] exigences ohsas 18001
[PDF] existance ou existence
[PDF] existe t il des formes de conscience commune selon weber
[PDF] existence anglais
[PDF] existence antonyme