1 Matrice de covariance
On identifiera les éléments de Rd à des vecteurs colonnes. 1 Matrice de covariance. Soit X une variable aléatoire à valeurs dans Rd. On note X = t(X1.
Introduction aux matrices aléatoires
8 avr. 2013 soit M une matrice aléatoire n × n dont les coefficients sont des variables aléatoires sur C (c'est-à-dire des vecteurs aléatoires de R.
VECTEURS GAUSSIENS
indépendants et de même loi avec E(Y1) = M et de matrice de covariance ? combinaison linéaire de ses composantes est une variable aléatoire réelle ...
MODELES LINEAIRES
e est une réalisation d'une variable aléatoire E de distribution Nn(0?2In); on peut dire Remarque : L'estimation de la matrice de variance-covariance ...
Vecteurs gaussiens
Une variable aléatoire réelle Z est dite gaussienne centrée réduite si elle admet pour X = t(X1...
Résumé du Cours de Mod`eles de Régression
10 jan. 2011 Soient une matrice A de dimension I × J et un vecteur colonne u de ... La notion de variable aléatoire formalise l'association d'une valeur ...
Chapitre 2 - Vecteurs aléatoires gaussiens
C'est évidemment une variable aléatoire gaussienne : sa loi est PY0 = P = ?.?d centrée
Résumé du Cours d´Econométrie
16 déc. 2008 Le produit d'un vecteur par une matrice est la représentation ... L'espérance mathématique d'une variable aléatoire discr`ete est donné par.
Couples et vecteurs de variables aléatoires Préparation `a l
La variable aléatoire X suit donc une loi de Bernoulli de param`etre p. Si X et Y sont deux variables aléatoires de carré intégrable la matrice de ...
1 Matrice de covariance
Typiquement son espérance ou sa variance. Un estimateur de ? est une variable aléatoire ?? à valeurs dans Rd
Chapitre 2
Vecteurs aléatoires gaussiensUniversité d"ArtoisFaculté des Sciences Jean Perrin
Probabilités (Master 1 Mathématiques-Informatique)Daniel Li
1 Vecteurs aléatoires
Certaines notions que l"on a définies dans le chapitre précédent que pour les variables aléatoires réelles se transposent pour les variables aléatoires vecto- rielles.On dispose dansRddu produit scalaire usuel :
?x|y?=x1y1+···+xdyd six= (x1,...,xd)ety= (y1,...,yd)?Rd.1.1 Fonction caractéristique
SiX: Ω→Rdest une variable aléatoire, on définit safonction caracté- ristiqueΦX:Rd→Cpar :ΦX(u) =E?ei?u|X??,?u?Rd,
où ??u|X??(ω) =?u|X(ω)?,?ω?Ω. Autrement dit, siX= (X1,...,Xd)et u= (u1,...,ud):ΦX(u) =E?ei(u1X1+···+udXd)?Convention.Il est d"usage d"identifier les vecteurs deRdà desmatrices-
colonnes; ainsi on écrira le vecteur aléatoireX= (X1,...,Xd)sous la forme : X=( (X 1... X d) et alors : tX= (X1···Xd) est une matrice-ligne (noter l"absence maintenant des virgules). 1 Siu=( (u 1... u d) ), le produit scalaire s"écrira, en identifiant les éléments deR à des matrices à une ligne et une colonne, comme le produit des matrices :?u|X?=tX.u=tu.X.Comme lorsqued= 1, on a :
Théorème 1.1Deux v.a. possédant la même fonction caractéristique ont la même loi : siXetYsont deux v.a. à valeurs dansRdtelles queΦX= ΦY, alorsPX=PY. Preuve.Elle est la même que celle faite dans le casd= 1, en utilisant l"unité approchée définie parpa(y) =1a dp?ya ?,a >0, avecp(y) =p(y1,...,yd) = 1πd(1+y21)···(1+y2d)·?Corollaire 1.2SoitXk: Ω→Rdk,1?k?n, des v.a.; elles sont indépen-
dantes si et seulement si :[X1,...,Xn)(t1,...,tn) = ΦX1(t1)···ΦXn(tn),?tk?Rdk,1?k?n.Preuve.Le Théorème de Fubini donne :
X1(t1)···ΦXn(tn) =?
R d"où le résultat, puisque le membre de droite est laf.cd"unev.a.suivant la loi PX1? ··· ?PXn.?
1.2 Espérance
On dira queX= (X1,...,Xd): Ω→Rdestintégrable(resp.,de carré intégrable,resp.de puissancer`emeintégrable :X?Lr(Ω;Rd)) si chacune de ses composantesX1,...,Xd: Ω→Rl"est. On notera, pourXintégrable :E(X) =?E(X1),...,E(Xd)?, ou, matriciellement :E(X) =( (E(X1)E(Xd))
Il est facile de voir que lav.a.X?Lr(Ω;Rd)si et seulement si :E(?X?r)<+∞.
2 Proposition 1.3SoitA:Rd→Rd?une applicationlinéaire, etX: Ω→Rd un vecteur aléatoire intégrable. Alors :E(AX) =AE(X). Dans cette proposition, de la même manière que l"on a identifié les vecteurs à des matrices-colonnes, on identifiel"application linéaireAà sa matrice; donc : A=(1,1···α1,d......
d?,1···αd?,d)Preuve.Il suffit de l"écrire; on a :
AX=? d? l=1α k,lXl?1?k?d?;
chacune des composantes deAXest intégrable; doncAXest intégrable et :E(AX) =?
E?d? l=1α k,lXl??1?k?d?
d? l=1α k,lXlE(Xl)?1?k?d?=AE(X).?
En particulier, pour touta?Rd, on a :E
??a|X??=?a|E(X)?, ou, autrement écrit :E(ta.X) =ta.E(X).Définition 1.4SiM=?Xk,l?
1?k?n1?l?sest une matrice formée de variables aléa-
toires réellesXk,l: Ω→R, on dit que c"est unematrice aléatoire. On dit qu"elle estintégrablesi chacune desXk,ll"est, et l"on pose alors :E(M) =?E(Xk,l?
k,l. Proposition 1.5SoitMune matrice aléatoire etAetBdeux matrices (non aléatoires; on dit qu"elles sontdéterministes) telles que les produitsAMet MBexistent et soient intégrables. On a :E(AM) =AE(M)etE(MB) =E(M)B. Preuve.Il suffit de regarder la définition du produit des matrices.? 3 Définition 1.6SiX: Ω→Rdest un vecteur aléatoire de carré intégrable, on définit samatrice de covariance, avec les notations matricielles, par :KX=E??X-E(X)?.t?X-E(X)??.
On notera que :
X-E(X)?.t?X-E(X)?=(
(X1-E(X1)
X d-E(Xd)) X1-E(X1)···Xd-E(Xd)?
est une matrice carrée d"ordred, dont les termes sont : ?Xk-E(Xk)??Xl-E(Xl)?,1?k,l?d. LorsqueX,Y?L2(Ω)sont deuxv.a.réellesde carré intégrable, on définit leurcovariancepar : cov(X,Y) =E??X-E(X)??Y-E(Y)??=E(XY)-E(X)E(Y).LorsqueY=X, on obtient lavariancedeX.
Revenant au cas oùX= (X1,...,Xd)est un vecteur aléatoire, on voit que sa matrice de covariance est : K X=? cov(Xk,Xl)?1?k,l?d.
Proposition 1.7La matrice de covariance estsymétriqueetpositive. La forme quadratique associée est non dégénérée si et seulement si,en tant qu"élé- ments deL2(Ω,P), les vecteursX1-E(X1),...,Xd-E(Xd)sontlinéairementindépendants.Preuve.La symétrie est évidente.
Rappelons qu"une matrice symétrique est positive si la forme bilinéaire (ou la forme quadratique) associée est une forme positive. Il faut donc voir que, pour toutu=( (u 1... u d) ), on a :t uKXu?0.Mais cela résulte du lemme suivant.
Lemme 1.8Pour toutu?Rd, on a :t
uKXu=E?[?u|X-E(X)?]2?. 4 Preuve.C"est un simple calcul; grâce à la Proposition 1.3, on a : t d"où le résultat, puisque tu.[X-E(X)] =?u|X-E(X)?et quet[X-E(X)].u= ?X-E(X)|u?=?u|X-E(X)?.? Cette formule montre de plus que la forme quadratiqueu?→tuKXuest dégénérée si, et seulement si, il existeu?= 0tel que?u|X-E(X)?= 0, ce qui signifie que l"on a, dansL2(P),u1?X1-E(X1)?+···+ud?Xd-E(Xd)?= 0pour desu1,...,udnon tous nuls; autrement dit, queX1-E(X1),...,Xd-E(Xd) sont linéairement indépendants dansL2(P).? Remarque.Il faut bien faire attention que si desv.a.r., non constantes, sont indépendantes, elles sontlinéairement indépendantes(sinon, l"une peut s"expri- mer comme combinaison linéaire des autres; elle ne peut donc être indépendante de celles-ci), l"inverse est bien sûr loin d"être vrai. Exemple.SiXsuit la loi uniforme sur[0,1],XetX2, qui ne sont, bien sûr, pas indépendantes, sont linéairement indépendantes, car siaX+bX2= 0, alors, d"une part, en prenant l"espérance, on a a2 +b3 = 0, puisque :E(Xk) =?
1 0 xkdx=1k+ 1; mais on a aussi, d"autre part,aX2+bX3= 0, d"oùa3 +b4 ; donca=b= 0. Notons que, par définition, la covariance de deuxv.a.r.XetYest le produit scalaire, dansL2(P), desv.a.r.centréesX-E(X)etY-E(Y): cov(X,Y) =?X-E(X)|Y-E(Y)?. La covariance est donc nulle (on dit alors queXetYsontnon corrélées, ou décorrélées, si et seulement si lesv.a.r.centréesX-E(X)etY-E(Y)sont orthogonales. LorsqueXetYsont indépendantes, on aE(XY) =E(X)E(Y); donccov(X,Y) = 0. Ainsi : Proposition 1.9SiXetYsont deux v.a.r. indépendantes, alorscov(X,Y) =0, etX-E(X)etY-E(Y)sont orthogonales dansL2(P).
On avait déjà vu cela dans la Remarque suivant le Corollaire 14 du Cha- pitre 1. Corollaire 1.10SiX1,...,Xd: Ω→Rsont indépendantes, la matrice de co- variance du vecteur aléatoireX= (X1,...,Xd)estdiagonale. La réciproque est évidemment en général fausse, puisque le fait que la matrice de covariance soit diagonale signifie seulement que les composantes du vecteur aléatoire sont deux-à-deux non corrélées. 52 Vecteurs aléatoires gaussiens
Rappelons que laloi gaussienne(ounormale)centrée réduiteest la loiN(0,1)surRdont la densité est :f
G(x) =1⎷2πe-x2/2.
SiG≂N(0,1), saf.c.estΦ
G(t) = e-t2/2; son espérance est nulle :E(G) =
0, et sa variance estVar(G) = 1.
SiG≂N(0,1), alorsσG+m≂N(m,σ2)et, inversement, siX≂N(m,σ2), alorsG=X-mσ
≂N(0,1). Onconviendrade dire que lesconstantessont desgaussiennes dégé- nérées(correspondant àσ= 0). On peut " visualiser unev.a.r.gaussienne centrée réduiteGainsi : prenonsΩ =?-12
,12 ?,muni de sa tribu borélienne, avec la probabilitéPqui est la mesure de Lebesgueλ.SoitGla fonction impaire surΩqui, sur?0,12
?, est la fonction réciproque de :quotesdbs_dbs47.pdfusesText_47[PDF] matrice inverse de leontief definition
[PDF] matrice inversible exercice corrigé
[PDF] matrice nilpotente exercice corrigé
[PDF] Matrice probabiliste, terminale
[PDF] matrice spe maths es
[PDF] Matrice spécialité maths (ES)
[PDF] matrice terminale es exercice
[PDF] matrice trigonalisable exercice corrigé
[PDF] matrice xcas
[PDF] matrice exercice correction
[PDF] matrices diagonales commutent
[PDF] matrices et applications linéaires exercices corrigés
[PDF] matrices et études asymptotiques de processus discrets
[PDF] matrices et suites exercices