[PDF] Chapitre 2 - Vecteurs aléatoires gaussiens





Previous PDF Next PDF



1 Matrice de covariance

On identifiera les éléments de Rd à des vecteurs colonnes. 1 Matrice de covariance. Soit X une variable aléatoire à valeurs dans Rd. On note X = t(X1.



Introduction aux matrices aléatoires

8 avr. 2013 soit M une matrice aléatoire n × n dont les coefficients sont des variables aléatoires sur C (c'est-à-dire des vecteurs aléatoires de R.



VECTEURS GAUSSIENS

indépendants et de même loi avec E(Y1) = M et de matrice de covariance ? combinaison linéaire de ses composantes est une variable aléatoire réelle ...



MODELES LINEAIRES

e est une réalisation d'une variable aléatoire E de distribution Nn(0?2In); on peut dire Remarque : L'estimation de la matrice de variance-covariance ...



Vecteurs gaussiens

Une variable aléatoire réelle Z est dite gaussienne centrée réduite si elle admet pour X = t(X1...



Résumé du Cours de Mod`eles de Régression

10 jan. 2011 Soient une matrice A de dimension I × J et un vecteur colonne u de ... La notion de variable aléatoire formalise l'association d'une valeur ...



Chapitre 2 - Vecteurs aléatoires gaussiens

C'est évidemment une variable aléatoire gaussienne : sa loi est PY0 = P = ?.?d centrée



Résumé du Cours d´Econométrie

16 déc. 2008 Le produit d'un vecteur par une matrice est la représentation ... L'espérance mathématique d'une variable aléatoire discr`ete est donné par.



Couples et vecteurs de variables aléatoires Préparation `a l

La variable aléatoire X suit donc une loi de Bernoulli de param`etre p. Si X et Y sont deux variables aléatoires de carré intégrable la matrice de ...



1 Matrice de covariance

Typiquement son espérance ou sa variance. Un estimateur de ? est une variable aléatoire ?? à valeurs dans Rd

Chapitre 2

Vecteurs aléatoires gaussiensUniversité d"Artois

Faculté des Sciences Jean Perrin

Probabilités (Master 1 Mathématiques-Informatique)

Daniel Li

1 Vecteurs aléatoires

Certaines notions que l"on a définies dans le chapitre précédent que pour les variables aléatoires réelles se transposent pour les variables aléatoires vecto- rielles.

On dispose dansRddu produit scalaire usuel :

?x|y?=x1y1+···+xdyd six= (x1,...,xd)ety= (y1,...,yd)?Rd.

1.1 Fonction caractéristique

SiX: Ω→Rdest une variable aléatoire, on définit safonction caracté- ristiqueΦX:Rd→Cpar :Φ

X(u) =E?ei?u|X??,?u?Rd,

où ??u|X??(ω) =?u|X(ω)?,?ω?Ω. Autrement dit, siX= (X1,...,Xd)et u= (u1,...,ud):Φ

X(u) =E?ei(u1X1+···+udXd)?Convention.Il est d"usage d"identifier les vecteurs deRdà desmatrices-

colonnes; ainsi on écrira le vecteur aléatoireX= (X1,...,Xd)sous la forme : X=( (X 1... X d) et alors : tX= (X1···Xd) est une matrice-ligne (noter l"absence maintenant des virgules). 1 Siu=( (u 1... u d) ), le produit scalaire s"écrira, en identifiant les éléments deR à des matrices à une ligne et une colonne, comme le produit des matrices :?u|X?=tX.u=tu.X.

Comme lorsqued= 1, on a :

Théorème 1.1Deux v.a. possédant la même fonction caractéristique ont la même loi : siXetYsont deux v.a. à valeurs dansRdtelles queΦX= ΦY, alorsPX=PY. Preuve.Elle est la même que celle faite dans le casd= 1, en utilisant l"unité approchée définie parpa(y) =1a dp?ya ?,a >0, avecp(y) =p(y1,...,yd) = 1π

d(1+y21)···(1+y2d)·?Corollaire 1.2SoitXk: Ω→Rdk,1?k?n, des v.a.; elles sont indépen-

dantes si et seulement si :

[X1,...,Xn)(t1,...,tn) = ΦX1(t1)···ΦXn(tn),?tk?Rdk,1?k?n.Preuve.Le Théorème de Fubini donne :

X1(t1)···ΦXn(tn) =?

R d"où le résultat, puisque le membre de droite est laf.cd"unev.a.suivant la loi P

X1? ··· ?PXn.?

1.2 Espérance

On dira queX= (X1,...,Xd): Ω→Rdestintégrable(resp.,de carré intégrable,resp.de puissancer`emeintégrable :X?Lr(Ω;Rd)) si chacune de ses composantesX1,...,Xd: Ω→Rl"est. On notera, pourXintégrable :E(X) =?E(X1),...,E(Xd)?, ou, matriciellement :E(X) =( (E(X1)

E(Xd))

Il est facile de voir que lav.a.X?Lr(Ω;Rd)si et seulement si :

E(?X?r)<+∞.

2 Proposition 1.3SoitA:Rd→Rd?une applicationlinéaire, etX: Ω→Rd un vecteur aléatoire intégrable. Alors :E(AX) =AE(X). Dans cette proposition, de la même manière que l"on a identifié les vecteurs à des matrices-colonnes, on identifiel"application linéaireAà sa matrice; donc : A=(

1,1···α1,d......

d?,1···αd?,d)

Preuve.Il suffit de l"écrire; on a :

AX=? d? l=1α k,lXl?

1?k?d?;

chacune des composantes deAXest intégrable; doncAXest intégrable et :

E(AX) =?

E?d? l=1α k,lXl??

1?k?d?

d? l=1α k,lXlE(Xl)?

1?k?d?=AE(X).?

En particulier, pour touta?Rd, on a :E

??a|X??=?a|E(X)?, ou, autrement écrit :E(ta.X) =ta.E(X).

Définition 1.4SiM=?Xk,l?

1?k?n

1?l?sest une matrice formée de variables aléa-

toires réellesXk,l: Ω→R, on dit que c"est unematrice aléatoire. On dit qu"elle estintégrablesi chacune desXk,ll"est, et l"on pose alors :

E(M) =?E(Xk,l?

k,l. Proposition 1.5SoitMune matrice aléatoire etAetBdeux matrices (non aléatoires; on dit qu"elles sontdéterministes) telles que les produitsAMet MBexistent et soient intégrables. On a :E(AM) =AE(M)etE(MB) =E(M)B. Preuve.Il suffit de regarder la définition du produit des matrices.? 3 Définition 1.6SiX: Ω→Rdest un vecteur aléatoire de carré intégrable, on définit samatrice de covariance, avec les notations matricielles, par :K

X=E??X-E(X)?.t?X-E(X)??.

On notera que :

X-E(X)?.t?X-E(X)?=(

(X

1-E(X1)

X d-E(Xd)) X

1-E(X1)···Xd-E(Xd)?

est une matrice carrée d"ordred, dont les termes sont : ?Xk-E(Xk)??Xl-E(Xl)?,1?k,l?d. LorsqueX,Y?L2(Ω)sont deuxv.a.réellesde carré intégrable, on définit leurcovariancepar : cov(X,Y) =E??X-E(X)??Y-E(Y)??=E(XY)-E(X)E(Y).

LorsqueY=X, on obtient lavariancedeX.

Revenant au cas oùX= (X1,...,Xd)est un vecteur aléatoire, on voit que sa matrice de covariance est : K X=? cov(Xk,Xl)?

1?k,l?d.

Proposition 1.7La matrice de covariance estsymétriqueetpositive. La forme quadratique associée est non dégénérée si et seulement si,en tant qu"élé- ments deL2(Ω,P), les vecteursX1-E(X1),...,Xd-E(Xd)sontlinéairementindépendants.

Preuve.La symétrie est évidente.

Rappelons qu"une matrice symétrique est positive si la forme bilinéaire (ou la forme quadratique) associée est une forme positive. Il faut donc voir que, pour toutu=( (u 1... u d) ), on a :t uKXu?0.

Mais cela résulte du lemme suivant.

Lemme 1.8Pour toutu?Rd, on a :t

uKXu=E?[?u|X-E(X)?]2?. 4 Preuve.C"est un simple calcul; grâce à la Proposition 1.3, on a : t d"où le résultat, puisque tu.[X-E(X)] =?u|X-E(X)?et quet[X-E(X)].u= ?X-E(X)|u?=?u|X-E(X)?.? Cette formule montre de plus que la forme quadratiqueu?→tuKXuest dégénérée si, et seulement si, il existeu?= 0tel que?u|X-E(X)?= 0, ce qui signifie que l"on a, dansL2(P),u1?X1-E(X1)?+···+ud?Xd-E(Xd)?= 0pour desu1,...,udnon tous nuls; autrement dit, queX1-E(X1),...,Xd-E(Xd) sont linéairement indépendants dansL2(P).? Remarque.Il faut bien faire attention que si desv.a.r., non constantes, sont indépendantes, elles sontlinéairement indépendantes(sinon, l"une peut s"expri- mer comme combinaison linéaire des autres; elle ne peut donc être indépendante de celles-ci), l"inverse est bien sûr loin d"être vrai. Exemple.SiXsuit la loi uniforme sur[0,1],XetX2, qui ne sont, bien sûr, pas indépendantes, sont linéairement indépendantes, car siaX+bX2= 0, alors, d"une part, en prenant l"espérance, on a a2 +b3 = 0, puisque :

E(Xk) =?

1 0 xkdx=1k+ 1; mais on a aussi, d"autre part,aX2+bX3= 0, d"oùa3 +b4 ; donca=b= 0. Notons que, par définition, la covariance de deuxv.a.r.XetYest le produit scalaire, dansL2(P), desv.a.r.centréesX-E(X)etY-E(Y): cov(X,Y) =?X-E(X)|Y-E(Y)?. La covariance est donc nulle (on dit alors queXetYsontnon corrélées, ou décorrélées, si et seulement si lesv.a.r.centréesX-E(X)etY-E(Y)sont orthogonales. LorsqueXetYsont indépendantes, on aE(XY) =E(X)E(Y); donccov(X,Y) = 0. Ainsi : Proposition 1.9SiXetYsont deux v.a.r. indépendantes, alorscov(X,Y) =

0, etX-E(X)etY-E(Y)sont orthogonales dansL2(P).

On avait déjà vu cela dans la Remarque suivant le Corollaire 14 du Cha- pitre 1. Corollaire 1.10SiX1,...,Xd: Ω→Rsont indépendantes, la matrice de co- variance du vecteur aléatoireX= (X1,...,Xd)estdiagonale. La réciproque est évidemment en général fausse, puisque le fait que la matrice de covariance soit diagonale signifie seulement que les composantes du vecteur aléatoire sont deux-à-deux non corrélées. 5

2 Vecteurs aléatoires gaussiens

Rappelons que laloi gaussienne(ounormale)centrée réduiteest la loi

N(0,1)surRdont la densité est :f

G(x) =1⎷2πe-x2/2.

SiG≂N(0,1), saf.c.estΦ

G(t) = e-t2/2; son espérance est nulle :E(G) =

0, et sa variance estVar(G) = 1.

SiG≂N(0,1), alorsσG+m≂N(m,σ2)et, inversement, siX≂

N(m,σ2), alorsG=X-mσ

≂N(0,1). Onconviendrade dire que lesconstantessont desgaussiennes dégé- nérées(correspondant àσ= 0). On peut " visualiser unev.a.r.gaussienne centrée réduiteGainsi : prenons

Ω =?-12

,12 ?,muni de sa tribu borélienne, avec la probabilitéPqui est la mesure de Lebesgueλ.

SoitGla fonction impaire surΩqui, sur?0,12

?, est la fonction réciproque de :quotesdbs_dbs47.pdfusesText_47
[PDF] matrice identité d'ordre 3

[PDF] matrice inverse de leontief definition

[PDF] matrice inversible exercice corrigé

[PDF] matrice nilpotente exercice corrigé

[PDF] Matrice probabiliste, terminale

[PDF] matrice spe maths es

[PDF] Matrice spécialité maths (ES)

[PDF] matrice terminale es exercice

[PDF] matrice trigonalisable exercice corrigé

[PDF] matrice xcas

[PDF] matrice exercice correction

[PDF] matrices diagonales commutent

[PDF] matrices et applications linéaires exercices corrigés

[PDF] matrices et études asymptotiques de processus discrets

[PDF] matrices et suites exercices