Probabilités et statistiques Travaux pratiques avec Matlab
Matlab correspondantest stocké dansunfichier dont lenom se terminepar m Pour mean, il s’agit de mean m Pour ajouter de nouvelles fonctions à Matlab, il nous suffit d’écrire de nouveaux fichiers de ce type Vous aurez compris qu’un fichier m necontientqu’uneseulefonction,quialemêmenomquelefichier,au suffixe m près
Vecteursgaussiens
On déduit de ces intervalles de con ance les tests de taille fi de „ = „0 conte „ 6= „0 et de ¾2 = ¾2 0 contre¾2 < ¾2 0 Remarquonsquel'onobtientunerégiondecon ancedeniveaudecon ance1¡2fi pourl'estimation deµ = („;¾2) enconsidérantI n;¾ £Jn;¾ 6
Lois de probabilité à densité Loi normale
On contourne cette difficulté en associant à la variable X un intervalle de R et en définissant une densité de probabilité 1 2 Densité de probabilité et espérance mathématique Définition 1 : On appelle densité de probabilité d’une variable aléatoire continue X, toute fonction f continue et positive sur un intervalle I ([a;b
VECTEURS GAUSSIENS - Institut de Mathématiques de Bordeaux
2 Vecteurs aléatoires gaussiens 7 2 Vecteursaléatoiresgaussiens Définition 6 Un vecteur aléatoire de Rd est un vecteur aléatoire gaussien si et seulement si toute
Simulation de variables al´eatoires
Simulation de variables al´eatoires instrumentale est une marche al´eatoire gaussienne Partant de x t, Densité 0 0 0 2 0 4 0 6 0 8 1 0
Localisation et navigation de robots - UPJV
Densité de probabilité conjointe La pdf conjointe de deux variables aléatoires X et Y est donnée par Elle décrit la probabilité que la v a X prend la valeur et que Y prend la valeur Si les v a X et Y sont indépendantes, nous avons que: p(x,y) p(x,y)=p(x)p(y) Densité de probabilité conditionnelle
Localisation et navigation de robots - UPJV
Densité de probabilité conjointe La pdf conjointe de deux variables aléatoires X et Y est donnée par Elle décrit la probabilité que la v a X prend la valeur et que Y prend la valeur Si les v a X et Y sont indépendantes, nous avons: p(x,y) p(x,y)=p(x)p(y) Densité de probabilité conditionnelle
Cours MO102 - Utilisation de fonctions aléatoires
Dire que la variable aléatoire réelle X a une densité de probabilité signifie qu’il existe une de l’aléatoire en Matlab de taille N suivant une loi
[PDF] densité de probabilité loi normale PDF Cours,Exercices ,Examens
[PDF] densité de probabilité loi uniforme PDF Cours,Exercices ,Examens
[PDF] densité définition PDF Cours,Exercices ,Examens
[PDF] densité des matériaux PDF Cours,Exercices ,Examens
[PDF] densité des métaux PDF Cours,Exercices ,Examens
[PDF] densité du cyclohexane par rapport a l'eau PDF Cours,Exercices ,Examens
[PDF] densité du diiode PDF Cours,Exercices ,Examens
[PDF] densité eau kg/m3 PDF Cours,Exercices ,Examens
[PDF] densité et masse volumique seconde PDF Cours,Exercices ,Examens
[PDF] Densité et position 2nde Physique
[PDF] densité lithosphère océanique PDF Cours,Exercices ,Examens
[PDF] densité marginale x y PDF Cours,Exercices ,Examens
[PDF] DENSITE MASSE VOLUMIQUE 2nde Physique
[PDF] densité matérielle ses PDF Cours,Exercices ,Examens
VECTEURS GAUSSIENS
Préparation à l"Agrégation Bordeaux 1
Année 2013 - 2014
Jean-Jacques Ruch
Table des Matières
Chapitre I. Vecteurs aléatoires gaussiens5
1. Vecteurs aléatoires5
2. Vecteurs aléatoires gaussiens 7
3. Théorème de Cochran 9
3CHAPITRE I
Vecteurs aléatoires gaussiens
Les vecteurs gaussiens sont associés aux lois gaussiennes multivariées, et de ce fait jouent un rôle important
en probabilités et en statistique. Ils apparaissent naturellement comme des objets limites et serviront en
particulier dans le prochain chapitre :soit(Yn)une suite de vecteurs aléatoires à valeurs dansRk, dont les composantes sont de carré intégrable,
indépendants et de même loi avecE(Y1) =Met de matrice de covariance; alors on a pnY1++Ynn
ML! Nk(0;):
1. Vecteurs aléatoires
SoitX=0
B @X 1... X d1 C A2Rdun vecteur aléatoire tel queE(X2j)<+1. Pour tout1i;jd, lacovariance entreXietXjest donnée par Cov(Xi;Xj) =E[(XiE[Xi])(XjE[Xj])] =E[XiXj]E[Xi]E[Xj]:Avec l"hypothèse faite ci-dessus cette covariance est toujours bien définie car, par l"inégalité de Cauchy-
Schwarz,
jCov(Xi;Xj)j2Var(Xi)Var(Xj):Il est facile de voir que l"on a Cov(Xi;Xi) =Var(Xi). De plus, si les variablesXietXjsont indépendantes
on a Cov(Xi;Xj) = 0. En général, la réciproque est fausse, sauf pour des vecteurs gaussiens, comme nous
le verrons plus loin.Définition 1.SoitXun vecteur (colonne) aléatoire deRddont les composantes sont de carré
intégrable. Levecteur moyennedeXest défini par :E(X) =0
B @E(X1)E(Xd)1
C A et samatrice de covariancepar :Var(X) =E[(XE[X])(XE[X])t] =0
BBB@Var(X1)Cov(X1;X2)Cov(X1;Xd)
Cov(X2;X1)Var(X2)Cov(X2;Xd)
Cov(Xd;X1)Cov(Xd;X2)Var(Xd)1
CCCAOn dira queXest centré siE[X] = 0. Si les composantes deXsont indépendantes la matrice de covariance
deXest diagonale. Comme avant la réciproque est fausse en général sauf pour les vecteurs gaussiens.
Avant d"énoncer le résultat suivant rappelons quelques propriétés des matrices symétriques semi-définies
positives.Une matrice symétrique réelleMest semi-définie positive si et seulement si elle vérifie l"une des deux
propriétés équivalentes suivantes : 56Chapitre I. Vecteurs aléatoires gaussiens
1.P ourtout v ecteurcolonne Von aVtMV0
2. T outesles v aleurspropres d eMsont positives ou nulles i.e. Sp(M)[0;+1[D"autre part, siM1etM2sont deux matrices symétriques semi-définies positives de même dimension, alors
pour touta0etb0,aM1+bM2est encore une matrice symétrique semi-définie positive. Le théorème
spectral entraîne que siMest symétrique semi-définie positive, alors il existe une matrice orthogonaleP
et une matrice diagonaleD=Diag(1;:::;d)(positive) telle queM=PDPt. On en déduit qu"il existe une matriceA(pas unique en général), telle queM=AAt; par exempleA=PDiag(p1;:::;p
d).Théorème 2. La matrice de covariance est une matrice symétrique semi-définie positive.Démonstration.Par construction la matrice de covariance est symétrique. Elle s"écrit comme le
produit d"un vecteur et de sa transposée (l"espérance s"applique ensuite à chaque composante et ne change
donc pas la symétrie). Pour le deuxième point il suffit de remarquer que siMest la matrice de covariance
du vecteur aléatoireXet siVest une vecteur constant deRd, alors V tMV=Var(v1X1+v2X2++vdXd)0:Théorème 3.
SiXest un vecteur (colonne) aléatoire deRpde vecteur moyennemet de matrice de covariance. Alors siAest une matrice réelleqp, le vecteur aléatoireAXdeRqa pourvecteur moyenneAmet pour matrice de covarianceAAt.Démonstration.C"est une simple conséquence de la linéarité de l"espérance. Pour la moyenne on
a :E[AX] =AE[X] =Am
et pour la matrice de covariance : E[(AXAm)(AXAm)t] =E[A(Xm)(Xm)tAt] =AE[(Xm)(Xm)t]At=AAt:Théorème 4.
Toute matrice symétrique semi-définie positivede dimensionddest la matrice decovariance d"un vecteur aléatoire deRd.Démonstration.SoitAune racine carrée matricielle de. On noteXun vecteur aléatoire deRd
dont les composantes sont indépendantes, centrées et de variance1. L"espérance deXest donc le vecteur
nul, et la matrice de covariance est égale à Id d. Le vecteur aléatoireAXest alors centré de matrice decovarianceAIdAt=AAt= .Définition 5.SoitXun vecteur aléatoire deRd. On définit safonction caractéristiqueX:Rd!C
par :8u2RdX(u) =E[eiutX] =E[ei(u1X1+udXd)]
Jean-Jacques Ruch
2.Vecteurs aléatoires gaussiens7
2. Vecteurs aléatoires gaussiensDéfinition 6.Un vecteur aléatoire deRdest unvecteur aléatoire gaussiensi et seulement si toute
combinaison linéaire de ses composantes est une variable aléatoire réelle gaussienne, i.e. :
8a2Rd; atXL N(m;2)En particulier tout vecteur gaussien de dimension1est une variable aléatoire gaussienne réelle, éventuelle-
ment dégénérée. D"autre part, toutes les composantes deXsont aussi des variables aléatoires gaussiennes
réelles. Exemple : soitXun vecteur aléatoire deRddont les composantesXisont indépendantes et de loi N(mi;2i). Le vecteurXest alors un vecteur gaussien. En effet toute combinaison linéaire de ses composantes s"écrita1X1++adXd, dont la loi est par indépendance des variablesN(a1m1++admd;a2121++a2d2d):Théorème 7.
SoitXun vecteur aléatoire deRd. Les assertions suivantes sont équivalentes : 1. L eve cteurXest un vecteur gaussien de moyennemet de matrice de covariance. 2. L afonction c aractéristiquede Xest donnée par : pour toutu2RdX(u) =Eexp(iutX)= exp
iu tm12utuDémonstration.Cette équivalence provient de la définition d"un vecteur aléatoire gaussien et de
celle de la fonction caractéristique d"une variable aléatoire gaussienne réelle.La loi d"un vecteur gaussien est caractérisée par son vecteur moyennemet sa matrice de covariance.
Elle est appelée loi gaussienne surRdet est notéeN(m;). La loiN(0;Id)est appelée loi gaussienne
standard surRd. Un vecteur gaussien ayant cette loi est appelé vecteur aléatoire gaussien standard.Théorème 8.
SoitXest un vecteur gaussien de moyennemet de matrice de covariance. SoitZun vecteur gaussien standard etAune matrice racine carrée de. Alors les vecteursXetm+AZont même loi.Démonstration.Il suffit d"utiliser le résultat précédent et de vérifier que pour les deux vecteurs on
obtient la même fonction caractéristique.Proposition 9.Toute matrice symétrique semi-définie positivede dimensionddest la matrice
de covariance d"un vecteur aléatoire gaussien deRd.Démonstration.SoitZle vecteur gaussien deRddont toutes les composantes sont indépendantes
et de loiN(0;1). C"est un vecteur aléatoire gaussien standard. D"après le théorème3et le théorème
précédent, siAest une racine carrée dealorsAZest un vecteur gaussien deRdde loiN(0;).Jean-Jacques Ruch
8Chapitre I. Vecteurs aléatoires gaussiens
Attention, les composantes d"un vecteur gaussien sont gaussiennes mais la réciproque est fausse. En
effet, soitX= (Y;"Y)un vecteur aléatoire deR2tel queYet"sont deux variables aléatoires réelles
indépendantes avecY N(0;1)et"suit une loi de Rademacher c"est-à-direP("= 1) =P("=1) = 1=2.Il est facile de voir queYet"Ysont deux variables aléatoires gaussiennes, mais la combinaison linéaire
Y+"Yne l"est pas carP(Y+"Y= 0) =P("=1) = 1=2. De plus, Cov(Y;"Y) =E[Y2]E["] = 0, maisYet"Yne sont pas indépendantes.
Le théorème suivant caractérise les lois gaussiennes de matrice de covariance inversible.Théorème 10.
La loi gaussienneN(m;)surRdadmet une densité de probabilité par rapport à la mesure de Lesbegue deRdsi et seulement siest inversible. Dans ce cas la densité defest donnée par : pour toutx2Rd f(x) =1p(2)ddet()exp 12(xm)t1(xm)Démonstration.La loi gaussienneN(m;)peut être vue comme la loi du vecteur aléatoire gaussien
m+AZ, oùZest un vecteur gaussien deRddont toutes les composantes sont indépendantes et de loiN(0;1). Par conséquent,Za pour densité
fZ(z) =dY
i=11p2exp 12 z2i =1p(2)dexp 12 jjZjjj2 SiX N(m;)alors pour toute fonction continue bornéeh:Rd!R,E[h(X)] =E[h(AZ+m)] =Z
R dh(Az+m)fZ(z)dz: La décomposition =AAtentraîne quejdet(A)j=pdet(). De plusest inversible si et seulement siAl"est et alors1= (A1)tA1.
D"autre part, le changement de variable affinex=Az+mest un difféomorphisme deRddans lui-même si et seulement siAest inversible. Son jacobien est alors égal à det(A1). On en déduit queE[h(X)] =1p(2)ddet()Z
R dh(x)exp 12 (xm)t1(xm) dx d"où la formule annoncée pour la densité def.Le théorème suivant caractérise les vecteurs gaussiens à matrice de covariance diagonale.Théorème 11.
Pour tout vecteur gaussienXdeRd, les trois propriétés suivantes sont équivalentes : 1. L esc omposantesX1;:::;Xdsont mutuellement indépendantes. 2. L esc omposantesX1;:::;Xdsont deux à deux indépendantes. 3.L amatric ede c ovariancedeXest diagonale.En particulier, un vecteur gaussien est à composantes indépendantes si et seulement si pour touti6=j,
Cov(Xi;Xj) = 0. Par exemple, un vecteur gaussien standard a toujours des composantes indépendantes
et de loiN(0;1)surR.Jean-Jacques Ruch
3.Théorème de Cochran9
Démonstration.Les implications1:)2:)3:sont évidentes. Montrons que3:)1:. Si on a =Diag(21;:::;2n), alors pour toutu2RdX(u) = exp
iu tm12 ut = exp0 idX j=1u jmj12 d X j=12ju2j1
A dY j=1exp iu jmj12 2ju2j =dY j=1Xj(uj)
3. Théorème de Cochran
C"est un analogue du théorème de Pythagore pour les vecteurs gaussiens.Théorème 12.Théorème de Cochran
SoitXun vecteur aléatoire deRnde loiN(m;2In)avec2>0. SoitRn=E1E2Ep une décomposition deRnen somme directe depsous-espaces vectoriels orthogonaux de dimensions respectivesd1;:::;dp, avecd1++dp=n. SoitPkla matrice du projecteur orthogonal surEketYk=PkXla projection orthogonale deXsurEk. 1. L espr ojectionsY1;:::;Ypsont des vecteurs gaussiens indépendants etYkN(Pkm;2Pk).
2. L esvariables alé atoiresjjY1P1mjj2;:::;jjYpPpmjj2sont indépendantes et jjYkPkmjj2=22(dk):Démonstration.Par translation on se ramène au cas oum= 0. On a0 B @Y 1... Y p1 C A=0 B @P 1... P p1 C AX=AX Par conséquent la loi deYestN(0;2AAt):Or pour tout1ip, on aPi=Pti=P2i. De plus, P iPj= 0si1i6=jpcarEi?Ej. Par conséquent,AAt=Diag(P1;:::;Pp)est diagonale par blocs. On en déduits queY1;:::;Ypsont des vecteurs gaussiens indépendants avecYk N(0;2Pk)pour tout1kp. En particulier les variables aléatoiresjjY1P1mjj2;:::;jjYpPpmjj2sont indépendantes.
Il reste à déterminer leur loi. Cela se fait en prenant une base orthonorméefek;1;:::;ek;dkgde chaque
E k. Alors on aYk=yk;1ek;1++yk;dkek;dkoù lesyk;i=< X;ek;i>sont des variables aléatoires indépendantes de loiN(0;2). ON obtient alors le résultat.Ce théorème a de nombreuses des applications, dont en particulier le corollaire suivant.Corollaire 13.Soit(X1;:::;Xn)un échantillon de loiN(m;2)avec2. On définit :X
n=1n n X i=1X ietS n=1n1n X i=1(XiX n)2: Alors, les variables aléatoires sont indépendantes de loiN(m;2=n)et2(n1).