1 Matrice de covariance
On identifiera les éléments de Rd à des vecteurs colonnes. 1 Matrice de covariance. Soit X une variable aléatoire à valeurs dans Rd. On note X = t(X1.
Introduction aux matrices aléatoires
8 avr. 2013 soit M une matrice aléatoire n × n dont les coefficients sont des variables aléatoires sur C (c'est-à-dire des vecteurs aléatoires de R.
VECTEURS GAUSSIENS
indépendants et de même loi avec E(Y1) = M et de matrice de covariance ? combinaison linéaire de ses composantes est une variable aléatoire réelle ...
MODELES LINEAIRES
e est une réalisation d'une variable aléatoire E de distribution Nn(0?2In); on peut dire Remarque : L'estimation de la matrice de variance-covariance ...
Vecteurs gaussiens
Une variable aléatoire réelle Z est dite gaussienne centrée réduite si elle admet pour X = t(X1...
Résumé du Cours de Mod`eles de Régression
10 jan. 2011 Soient une matrice A de dimension I × J et un vecteur colonne u de ... La notion de variable aléatoire formalise l'association d'une valeur ...
Chapitre 2 - Vecteurs aléatoires gaussiens
C'est évidemment une variable aléatoire gaussienne : sa loi est PY0 = P = ?.?d centrée
Résumé du Cours d´Econométrie
16 déc. 2008 Le produit d'un vecteur par une matrice est la représentation ... L'espérance mathématique d'une variable aléatoire discr`ete est donné par.
Couples et vecteurs de variables aléatoires Préparation `a l
La variable aléatoire X suit donc une loi de Bernoulli de param`etre p. Si X et Y sont deux variables aléatoires de carré intégrable la matrice de ...
1 Matrice de covariance
Typiquement son espérance ou sa variance. Un estimateur de ? est une variable aléatoire ?? à valeurs dans Rd
Année universitaire 2014-2015
Vecteurs gaussiensSoitdun entier1. On identifiera les éléments deRdà des vecteurs colonnes.1 Matrice de covariance
SoitXune variable aléatoire à valeurs dansRd. On noteX=tX1Xd. Les variables aléatoiresréellesX1;:::;Xdsont appelées lescomposantesdeXet leurs lois sont leslois marginalesde la loi deX.
On définit classiquement son espérance (sa moyenne) mX=E[X] =0
B @E[X1]E[Xd]1
C A et aussi, siX1;:::;Xdsont de carré intégrable, sa varianceX= Var(X) =E(XE[X])t(XE[X])
= (Cov(Xi;Xj))1i;jd =0 BBB@Var(X1) Cov(X1;X2)Cov(X1;Xd)
Cov(X2;X1) Var(X2)Cov(X2;Xd)
Cov(Xd;X1) Cov(Xd;X2)Var(Xd)1
C CCA;où on rappelle que, pour toutes variables aléatoires réellesUetVde carré intégrable,Cov(U;V) =E[(U
E[U])(VE[V])] =E[UV]E[U]E[V](covariance deUetV). La matriceXest lamatrice de covariance deX(ou, plutôt, de la loi deX).En particulier, siX1;:::;Xdsont indépendantes deux à deux, alorsXest une matrice diagonale ayant
pour coefficients diagonauxVar(X1);:::;Var(Xd). CommeCov(X;Y) = Cov(Y;X)(ou commet(AtA) =AtA), la matriceXest symétrique. Elle est de plus positive : pour tout vecteuru2Rd, t uXu=X i;ju iCov(Xi;Xj)uj=X i;jCov(uiXi;ujXj) = Var(u1X1++udXd)0:(En revenant aux définitions deCovetVar, la dernière égalité est simplement le développement du carré
d"une somme)Au passage, on voit queVar(tuX) =tuXu. Plus généralement, pour toute matrixAde taille(p;d), où
p1, le vecteurAXest une variable aléatoire à valeurs dansRp, sa moyenne estAmX(par linéarité de
l"espérance) et sa variance estAX=E(AXAm)t(AXAm)=EA(Xm)t(Xm)tA
=AE(Xm)t(Xm)tA=AXtA: En particulier (avecp=d), siX=Id(par exemple siX1;:::;Xdsont indépendants et de variance 1), alorsAX=AtA. Or toute matrice symétrique positivepeut s"écrire =AtA: par exemple, partant de la diagonalisation =PDtPen base orthonormale oùD= diag(1;:::;d)avec10,...,d0, on peut prendreA=Pdiag(p1;:::;p
d). On a alorsAX=AtA= siX=Id(Remarque : une autrematriceApossible est obtenue par la méthode de Cholesky). Ceci montre que les matrices de covariance
sont les matrices symétriques positives. Le rang de la matrice de covariance a une interprétation importante : 1 Proposition 1.Xest de rangrsi, et seulement s"il existe un sous-espace affineVde dimensionrtel queX2Vp.s.Démonstration.On a vu que, pour toutu2Rd,Var(hu;Xi) =tuXu. Et une variable aléatoire de carré
intégrable est constante p.s. (égale à sa moyenne p.s.) si, et seulement si sa variance est nulle. En particulier,
tuXu= 0si, et seulement sihu;Xi=hu;mip.s., ce qui équivaut à dire queXm?up.s.. En appliquant ceci à toute base orthogonale deRdqui commence par une base dekerX, on obtient queX2m+kerX?p.s..
(ker =fx2Rdjx= 0g=fx2Rdjtxx= 0gsiest symétrique positive) et quem+ (kerX)?est le plus petit sous-espace pour lequel c"est vérifié, d"où la proposition.2 Vecteurs gaussiensSoitZ=tZ1Zd, oùZ1;:::;Zdsont des variables aléatoires indépendantes de loiN(0;1),mun vecteur
deRd, etune matrice symétrique positive de tailled. On choisit une matrice carréeAtelle queAtA= .
Par ce qui précède,X=m+AZest un vecteur aléatoire tel que mX=metX=AZtA=AIdtA= :
Calculons la fonction caractéristique deX. Pour toutu2Rd, on a t uX=tum+tuAZ=tum+t(tAu)Z donc (en notanth;ile produit scalaire usuel deRdpour simplifier les notations)X(u) =E[eituX] =eihu;miZ(tAu):
Les composantes deZsont indépendantes et de loiN(0;1)doncZ(u) = X1(u1)Xd(ud) =e12
u21e12 u2d=e12 kuk2=e12 tuu:On en déduit
X(u) =eihu;mie12
tuAtAu=eihu;mie12 tuu:On remarque notamment que la dernière expression ne dépend pas du choix deA, donc la loi deXnon
plus.X=m+AZest appelé unvecteur gaussiende moyennemet de covarianceet sa loi est appelée loi gaussienne de moyennemet de covariance, abrégée enN(m;). La loi deZ, à savoirN(0;Id)est appeléeloi gaussienne standard deRd.La proposition suivante caractérise les vecteurs gaussiens, c"est-à-dire suivant une loiN(m;)pour certain
vecteurmet un certaine matrice symétrique positive: Proposition 2.SoitXun vecteur aléatoire deRd.Xest un vecteur gaussien si, et seulement si toute combinaison linéaire de composantes deXsuit une loi gaussienne (surR). Démonstration.Une combinaison linéaire des composantes deXs"écritha;Xi=taXoùa2Rd. Simetsont l"espérance et la variance deX(qui existent sous chacune des deux hypothèses), alorsE[ha;Xi] =ha;mi
etVar(ha;Xi) =taa(vu dans la partie 1). Ainsi,ha;Xisuit une loi gaussienne pour touta2Rdsi, et seulement si, pour touta2Rdsa fonction caractéristique est ha;Xi(u) =eiuha;mie12 (taa)u2=eihua;mie12 t(ua)(ua) etXest un vecteur gaussien si, et seulement si sa fonction caractéristique estX(a) =eiha;mie12
taa:Comme, de façon générale,ha;Xi(u) = X(ua), l"équivalence entre les deux propriétés précédentes se
déduit immédiatement, d"où la conclusion.2 Cette proposition permet de définir des vecteurs gaussiens dans un espace de dimension infinie. La définition implique que siX N(m;)et siAest une matrice de taille(p;d)etb2Rd, alors AX+b N(am+b;AtA). (La définition montre que c"est un vecteur gaussien et ses paramètres se calculent comme dans la première partie) En particulier, siZest un vecteur gaussien standard etPest une matrice orthogonale (PtP=Id), alorsPZest encore un vecteur gaussien standard. Autrement dit, la loi gaussienne standard (et plus généralement
N(0;2Id)) est invariante par les rotations de centreO(et par les symétries orthogonales d"axe passant par
l"origine). Cette propriété se voit aussi sur la densité de la loi : elle est radiale. SiZ N(0;Id), on sait queZa pour densitéz7!1p2ez211p2ez2d= (2)d=2e12 kzk2puisque les composantes sont indépendantes. Pour le vecteur gaussienX=m+AZ N(m;)(où =AtA), la proposition 1 montre que sin"est pas inversible,Xne peut pas avoir de densité. En revanche, siest inversible, un changement de variable montre queXa pour densité fX:x7!1p(2)ddete12
t(xm)1(xm): Siest diagonale, alors les composantesX1;:::;Xdd"un vecteurX N(m;)sont indépendantes. Celase voit sur la densité ci-dessus. Ou simplement parce que dans ce cas on peut prendreA= diag(1;:::;d)
d"oùXi=mi+iZi. La réciproque est toujours vraie. Ainsi, les composantes d"un vecteur gaussien sont
indépendantes si, et seulement si sa matrice de covariance est diagonale. Le théorème de Cochran généralise
cette remarque. Théorème 1 -Théorème de Cochran.SoitX N(m;2Id), etRd=E1?:::?Erune décomposition deRden sous-espaces (affines) orthogonaux. Pourk= 1;:::;r, on notedkla dimension deEk, etPklaprojection orthogonale surEk. Alors les variables aléatoiresY1=P1X1,...,Yr=PrXsont indépendantes,
et Y k N(Pkm;2Pk)et12kYkPkmk22dk:
Dans l"énoncé,2dest la loi du2(khi-deux) àddegrés de liberté, c"est-à-dire par définition la loi de la
variable aléatoireZ21++Z2roùZ1;:::;Zrsont i.i.d. de loiN(0;1).Démonstration.Il suffit de montrer l"indépendance. La suite en résulte (avec ce qui précède, et le fait que
P tP=P2=Ppour toute projection orthogonaleP). Pourk= 1;:::;r, on choisit une base orthonormale(ek;1;:::;ek;dk)deEk, de sorte que(e1;:::;ed) =(e1;1;:::;e1;d1;:::;er;1;:::;er;dr)est une base orthonormale deRd. Les variables aléatoireshX;eii,i=
1;:::;d, sont les composantes deXdans cette base. Or la loi deXest invariante par les applications
orthogonales (vu plus haut) donc en particulier par les changements de base entre bases orthonormales. Par
suite, les variables aléatoireshX;eii,i= 1;:::;d, sont i.i.d. de loiN(hm;eii;2). CommeYk=PkX=Ak+hX;ek;1iek;1++hX;ek;dkiek;dk, oùAk=Pkm, l"indépendance annoncéerésulte de la propriété d"" indépendance par paquets » :Y1,...,Yrdépendent respectivement de paquets de
variables disjoints parmi une famille de variables indépendantes, donc sont indépendantes entre elles.Remarque. On n"a donné qu"un cas particulier du théorème de Cochran, qui est le cas usuel. L"énoncé général
(dont la preuve est essentiellement identique) supposeX N(m;)oùest inversible etRd=E1? ?Erausens du produit scalaire(u;v)7! hu;vi=tuv, et conclut que les projections orthogonales (au sens de ce même
produit scalaire) deXsurE1,...,Ersont indépendantes. Les variableskYkPkmk2ne suivent cependant pas des
lois du2(ce sont des sommes de variablesN(0;1)pondérées par les valeurs propres des différents sous-espaces),
et la variance deYkestPktPk.Enfin, les lois gaussiennes surRdinterviennent dans la généralisation du théorème central limite aux va-
riables aléatoires à valeurs dansRd: Théorème 2 -Théorème central limite multidimensionnel.SoitX1;X2;:::une suite de vecteursaléatoires à valeurs dansRd, i.i.d., de carré intégrable, de moyennemet de variance. Alors
1pn (X1+X2++Xnnm)(loi)!nN(0;): 3Démonstration.Même preuve que la version réelle. En remplaçantXiparXimon se ramène àm= 0.
Soitu2Rd. On a
1pn (X1+X2++Xn)(u) = Xupn n (oùX= X1). On a le développement limitéX(t) = 112
ttt+ot!0ktk2; d"où 1pn (X1+X2++Xn)(u) =112ntuu+on
1n n !nexp 12 tuu NB : On a utilisé(1zn=n)n= exp(nLn(1zn=n))!nexp(c)où(zn)nest une suitecomplexetellequezn!ncetLnest la détermination principale du logarithme complexe. L"égalité est vraie dès que
j1zn=nj<1, donc pourngrand, et la limite vient deLn(1z) z, quandz!0,z2C. (Si on définit z7!Ln(1z) =P1 k=11k zksurD(0;1), c"est une série entière qui coïncide avecx7!ln(1x)sur]0;1[;elle vérifie doncexp(Ln(1z)) = 1zpourz2]0;1[et, par unicité du prolongement analytique, pour tout
z2D(0;1); etLn(1z) zquandz!0vu le premier terme du développement en série entière. )4 Université Paris 13, Institut Galilée Préparation à l"agrégationAnnée universitaire 2014-2015
Notions de statistiquesRappels sur les vecteurs gaussiensSoitd2N. Unvecteur gaussienest un vecteur aléatoire à valeurs dansRddont toutes les combinaisons
affines des composantes suivent des lois normales. La loi d"un tel vecteur aléatoire est caractérisée par sa
moyennemet sa matrice de covariance, on la noteN(m;).Pour toute matriceAde taille(p;d)et toutb2Rp,
siX N(m;)alorsAX+b N(Am+b;AtA): En particulier, si =AtA(Aest appelée une racine carrée de), et siX N(0;Id)alorsm+AX N(m;). Ceci permet de toujours se ramener au casN(0;Id), laloi gaussienne standard deRd, où les composantes sont indépendantes et de loiN(0;1).Autre conséquence, siX N(0;2Id)etAest une matrice orthogonale (rotation, symétrie orthogonale),
A tA=IddoncAXa même loi queX. Le théorème suivant s"en déduit. Théorème 3 -Théorème de Cochran.SoitX N(m;2Id), etRd=E1?:::?Erune décomposition deRden sous-espaces (affines) orthogonaux. Pourk= 1;:::;r, on notedkla dimension deEk, etPklaprojection orthogonale surEk. Alors les variables aléatoiresY1=P1X1,...,Yr=PrXsont indépendantes,
Y k N(Pkm;2Pk)et12kYkPkmk22dk:
(voir à la fin pour la définition de la loi2dk) Démonstration.En remplaçantXparXm, on peut supposer quem= 0.Pourk= 1;:::;r, on note(fk;1;:::;fk;dk)une base orthonormale deEk, de sorte que leur concaténation
fournit une base orthonormale(f) = (f1;:::;fd)deRd. Le vecteur 0 B @hX;f1i hX;fdi1 C A des composantes deXdans la base(f)est l"image deXpar une application orthogonale (l"application dechangement de baseAdéfinie parA(fi) =eioù(e1;:::;ed)est la base canonique deRd). Par conséquent,
ce vecteur a même loi queX, c"est-à-dire que ses composantes sont indépendantes et suivent la loiN(0;2).
Or chacune des projections
Y k=PkX=hX;fk;1ifk;1++hX;fk;dkifk;dkpourk= 1;:::;r, ne dépend que d"une sous-famille de composantes du vecteur précédent, et ces sous-
familles sont disjointes les unes des autres, doncY1;:::;Yrsont indépendantes (propriété d"indépendance
" par paquets »). De plus, on aYk=PkX N(0;2PktPk)etPktPk=P2k=Pk(projection orthogonale), et kYkk2=jhX;fk;1ij2++jhX;fk;dkij2 d"où l"on déduit la deuxième partie vu la définition de2dk.11 Principes généraux : estimation et test
L"objet des statistiques (plus exactement, des statistiquesmathématiques, ouinférentielles) est de déduire
de l"observation de données supposées aléatoires des informations sur la loi de celles-ci.On se restreint dans la suite au cas où les données observées sont des réalisations denvariables aléatoires
X1,...,Xnindépendantes et de même loisurRd. On dit que(X1;:::;Xn)est un échantillon de taillen.
On peut globalement distinguer deux types de problématiques :l"estimation d"une grandeur n umériquedép endantde (son espérance, sa variance,...) : c"est une ap-
prochequantitative. Les notions concernées sont lesestimateurset lesrégions de confiance.confirmer ou infirmer des h ypothèsessur la loi (Son espérance est-elle égale à5?est-elle une loi de
Poisson?(surRd) est-elle une loi produit?...) : c"est une approchequalitative. Notons que cela revient
à estimer des grandeurs discrètes dépendant de(autrement dit, des fonctions indicatrices). La notion
qui s"y rattache est celle detest d"hypothèse.1.1 Estimation
1.1.1 Estimateurs
quotesdbs_dbs47.pdfusesText_47[PDF] matrice inverse de leontief definition
[PDF] matrice inversible exercice corrigé
[PDF] matrice nilpotente exercice corrigé
[PDF] Matrice probabiliste, terminale
[PDF] matrice spe maths es
[PDF] Matrice spécialité maths (ES)
[PDF] matrice terminale es exercice
[PDF] matrice trigonalisable exercice corrigé
[PDF] matrice xcas
[PDF] matrice exercice correction
[PDF] matrices diagonales commutent
[PDF] matrices et applications linéaires exercices corrigés
[PDF] matrices et études asymptotiques de processus discrets
[PDF] matrices et suites exercices