[PDF] VECTEURS GAUSSIENS - univ-rennes1fr





Previous PDF Next PDF



PC 5 – Calcul de lois & Vecteurs gaussiens

20-May-2019 Exercice 1. Soient X et Y deux variables aléatoires indépendantes gaussiennes centrées réduites. 1. Déterminer la loi de. (. X ...



Leçon 14 Exercices corrigés

L'objet de l'exercice est d'obtenir un bon encadrement de la Exercice 2. Montrer qu'il existe un vecteur gaussien centré X à valeurs.



TD no 8 : Vecteurs gaussiens

2. Montrer que (X +Y2X ?Y )t est un couple gaussien. Déterminer sa matrice de covariance. Exercice 3.



TD 2 : Vecteurs gaussiens construction du mouvement brownien

Expliquer comment simuler un vecteur gaussien centré de matrice de covariance K à partir de variables gaussiennes indépendantes. Solution de l'exercice 2 Soit d 



T. D. n 3 Exercices sur les vecteurs gaussiens et les lois

Exercice 1. Densité d'un vecteur gaussien. Soit X un vecteur gaussien de matrice de covariance C et d'espérance µ. Nous.



TD1 : Variables aléatoires réelles vecteurs aléatoires

Exercice 12 (Extrait du partiel de novembre 2016) Montrer que (U X ?Y ) est un vecteur gaussien dont on précisera l'espérance et la matrice de ...



CC - Correction 1 Vecteurs gaussiens 2 Convergence de suites de

1 Vecteurs gaussiens. Exercice 1. 1. Une matrice est une matrice de covariance si et seulement si elle est sy- métrique et semi-définie positive.





TD 3 - Vecteurs Gaussiens I

TD 3 - Vecteurs Gaussiens I. 2018 - 19 lerouvillois@math.univ-lyon1.fr poudevigne@math.univ-lyon1.fr. Exercice 1. Soit (X1X2) un vecteur gaussien centré de 



TD - Vecteurs Gaussiens

Montrer que (UV) est un vecteur gaussien et calculer sa covariance. . On pose. W = (X ? U) + (Y ? U) . Exercice . Densité des vecteurs gaussiens.



PC 5 { Calcul de lois & Vecteurs gaussiens - univ-toulousefr

PC 5 { Calcul de lois & Vecteurs gaussiens Exercice 1 Soient X et Y deux variables al eatoires ind ependantes gaussiennes centr ees r eduites 1 D eterminer la loi de Xp+Y 2;Xp Y 2 2 D eterminer la loi de X=Y Solution Comme Xet Y sont ind ependantes la loi de (X;Y) a une densit e 1 2? e x 2+y2 2 sur R2 Soit g: R2!R une fonction continue



Fiche 4 Vecteurs gaussiens

Fiche 4 Vecteurs gaussiens Exercice 1 Soit Xet Y deux ariablesv aléatoires i i d de loi N(0;1) 1 On pose U= X+Y 2 et V = X Y 2 Montrer que (U;V) est un vecteur gaussien et déterminer sa loi 2 On pose W= 1 2 (X U)2 + 2 (Y U)2 montrer que Uet Wsont indépendantes et déterminer la loi de W Exercice 2



VECTEURS GAUSSIENS - u-bordeauxfr

vecteur gaussien standard et Aune matrice racine carrée de Alors les vecteurs X et m+ AZontmêmeloi Démonstration Ilsu?td’utiliserlerésultatprécédentetdevéri?erquepourlesdeuxvecteurson obtientlamêmefonctioncaractéristique Proposition9 Toutematricesymétriquesemi-dé?niepositive dedimensiond destlamatrice



VECTEURS GAUSSIENS - u-bordeauxfr

8 Chapitre I Vecteurs aléatoires gaussiens Démonstration Lapremièreéquivalenceprovientdeladé?nitiond’unvecteuraléatoiregaussien etdecelledelafonctioncaractéristiqued’unevariablealéatoiregaussienneréelle Pourl’équivalenceentre 1 et3 celaprovientsimplementduthéorème 3 etdespropriétésdesmatricessymétriquessemi-dé?nies





Chapitre 14 Vecteurs gaussiens - Centrale Marseille

Chapitre 14 Vecteurs gaussiens Renaud Bourl es - Ecole Centrale Marseille Math ematiques pour la nance



T D no 3 Exercices sur les vecteurs gaussiens et les lois

Exercices sur les vecteurs gaussiens et les lois conditionnelles Exercice 1 Densit´e d’un vecteur gaussien Soit X un vecteur gaussien de matrice de covariance C et d’esp´erance µ Nous supposons que C = ADAt ou` D est diagonale et A orthogonale Nops consid´erons le vecteur al´eatoire Y = At(X ?µ) 1 Montrer que Y est un vecteur



Exercices Rappels vecteurs gaussiens

Exercices Rappels vecteurs gaussiens Exercice 1 On donne les poids à la naissance (en kg) de 10 enfants : 3:2;2:4;3:3;3:4;3:9;2:9;3:3;4:5;1:9;3:3: 1 Calculer le poids moyen puis l'écart-type du poids des enfants 2 On a demandé aux mères si elles aaienvt traaillév au cours de leur grossesse : cinq ont tra-



PROBABILITÉS Exercices Vecteurs Gaussiens 2M R h y 2M

Exercices Vecteurs Gaussiens Soit = ( 1;:::; n) 2M 1;n(R) unvecteurligneet 2M n(R) unematricesymétrique dé?niepositive(i) OnditqueY = (Y 1;:::;Y n) estunvecteur gaussien demoyennes et matricedecovariance s’iladmetladensité f Y(y 1;:::;y n) = 1 p (2?)ndet() exp h T 1 2 (y ) 1(y ) i; ouonécrity = (y 1;:::;y n) 2M 1;n



VECTEURS GAUSSIENS - univ-rennes1fr

Application : simulation de vecteurs gaussiens Il est facile de simuler un vecteur gaussien de matrice de variance diagonalecarles composantessontalorsdes v a r indépendantes deloisgaussiennes Supposonsdonc que l’onaitàsimuleruneréalisationd’unvecteurgaussien X?N n(m;) IlexisteunematriceorthogonaleP telleque = P Pt(?) où = diag( 1



TD no 8 : Vecteurs gaussiens - CNRS

TD no 8 : Vecteurs gaussiens Exercice 1 SoientXetY deuxvar iid suivantchacuneloinormaleN(0;1) OnposeU= X+Y etV = X Y 1 Montrerque(U;V)t estuncouplegaussien 2 MontrerqueUetV sontindépendantes Exercice 2 Soit(X;Y)t uncouplegaussiencentrételqueE(X2) = 4 etE(Y2) = 1etlesvar 2X+Y etX 3Y sontindépendantes 1



Searches related to exercices vecteurs gaussiens filetype:pdf

TD9 - Vecteurs Gaussiens - Correction Exercice 7 6 En utilisant la question précédente et en se rappelant que la loi géométrique G„p”est d’espérance 1 p et

Quelle est la variance d’un vecteur gaussien ?

  • Esperance et Variance d’un vecteur gaussien. Rappelons qu’une variable gaussienne (normale) ;?est caracterisee par deux parametres : la moyenne et l’ecart-type ?(ou la variance ?2). De maniere analogue, un vecteur gaussien est caracterise pas le vecteur E(X) et la matrice de variance-covariance : 0 B B B B B B @ Var(X. 1) Cov(X. 1;X.

Quels sont les 3 entiers de Gauss ?

  • Trois entiers de Gauss : 1 + i, 2 + i et 1 + 3i. Comme tout anneau d'entiers algébriques, les entiers de Gauss possèdent une norme. Si N est cette norme, elle est définie par :

Comment calculer la fonction caractéristique d'une gaussienne?

  • Cette fonction caractéristique , qui se calcule à partir de la densité de probabilité, et caractérise la loi, est donnée par : . Cette fonction caractéristique est égale, à une constante multiplicative près, à la densité de probabilité de la loi : on dit que la fonction caractéristique d'une gaussienne est gaussienne .

Qu'est-ce que la renormalisation des vecteurs gaussiens?

  • nest une constante de renormalisation. Les vecteurs Gaussiens sont souvent utilis´es dans les mod`eles statistiques multi-dimensionnels car ils s’av`erent assez faciles a manipuler, notamment graˆce au th´eor`eme de Cochran. Consid´erons par exemple un n-´echantillon X1,...,X

VECTEURS GAUSSIENS

Préparation à l"agrégation externe de Mathématiques de l"université Rennes 1 1

Année 2008/2009

1. DEFINITIONS ET PREMIERES PROPRIETES

[Réf. : toutes]

DéfinitionOn dit queXest un vecteur gaussien deIRnsi il existem2IRnet2 Mn(IR)symétrique positive tels

que la fonction caractéristique'XdeXs"écrit :

X(u) :=IE

exp(i < u;X >) = exp i < u;m >12 utu ;8u2IRn:

Dans ce cas, on noteXNn(m;).

Remarques

(a)Cette définition inclut notamment le cas oùXsuit une loi de Dirac enm(cas = 0); (b)SiXNn(m;), alorsIE(X) =metVV(X) = . En particulier, un vecteur gaussien admet un moment d"ordre 2 et, de manière plus générale, des moments de tous ordres.

(c)Tout sous-vecteur d"un vecteur gaussien est gaussien, et en particulier, les composantes d"un vecteur gaussien

sont des v.a.r. gaussiennes. Par contre, il se peut queX1;;Xnsoient des v.a. réelles gaussiennes sans pour

autant que le vecteur(X1;;Xn)tsoit gaussien : en effet, soientX1N1(0;1)etX2="X1, où"??X1, et

de loi définie parIP("=1) = 1=2. Alors,X2N1(0;1)mais la fonction caractéristique du vecteur(X1;X2)t

n"est pas une fonction caractéristique gaussienne.

Souvent, un moyen simple de montrer qu"un vecteur aléatoire est gaussien est d"utiliser la proposition suivante, qui

peut constituer une définition alternative d"un vecteur gaussien :

Proposition 1.1Un vecteur aléatoire est gaussien si, et seulement si, toute combinaison linéaire de ses composantes

est une v.a. réelle gaussienne.

SiXest un vecteur aléatoire de carré intégrable, alorsXIE(X)2Im(VV(X))p.s. Par suite,Xne possède pas

de densité sidet(VV(X)) = 0. Dans le cas oùXest un vecteur gaussien, la condition d"inversibilité de sa matrice de

variance suffit à établir l"existence d"une densité, comme le montre le résultat ci-dessous.

Théorème 1.1SoitXNn(m;)avecdet6= 0. Alors,Xadmet une densité qui est

1(2)n=2pdet

exp 12 (xm)t1(xm) ; x2IRn:

D"après la proposition 1.1, les lois gaussiennes sont stables par transformation affine. La forme très particulière de la

loi image, décrite dans le résultat suivant sur lequel on pourrait être tenté -à tort- de jeter un coup d"oeil distrait, est

d"utilité constante dans la manipulation des vecteurs gaussiens. Proposition 1.2SiA2 Mk;n(IR),b2IRketXNn(m;), on a :

AX+bNk(Am+b;AAt):

Lorsqueest réelle, symétrique et positive, on peut construire à l"aide du théorème de Schur une matrice1=2vérifiant

1=21=2= . Cette matrice est inversible, d"inverse1=2, lorsqueest strictement positive.

Proposition 1.3Soientm2IRnet2 Mn(IR)symétrique positive. (i) Sidet(VV(X))6= 0etXNn(m;), alors1=2(Xm)Nn(0;Id); (ii) SiXNn(0;Id), alorsm+ 1=2XNn(m;).1

Benoît Cadre - ENS Cachan Bretagne

1

Lorsque 2 v.a.r. sont indépendantes, leur covariance est nulle. En revanche, la réciproque est fausse, sauf dans le cas

des vecteurs gaussiens :

Théorème 1.2SoitXun vecteur gaussien. Les composantes deXsont des v.a.r. indépendantes si, et seulement si

la matrice de variance deXest diagonale.

RemarqueLe fait que les composantes du vecteur aléatoireXsoient des v.a.r. gaussiennnes n"est pas suffisant pour

établir cette équivalence (reprendre l"exemple du (c) de la remarque ci-dessus).

Application : simulation de vecteurs gaussiens.Il est facile de simuler un vecteur gaussien de matrice de

variance diagonale, car les composantes sont alors des v.a.r. indépendantes de lois gaussiennes. Supposons donc que

l"on ait à simuler une réalisation d"un vecteur gaussienXNn(m;). Il existe une matrice orthogonalePtelle que

=PPt(?), où = diag(1;;n). SiZ=Pt(Xm), alorsZNn(0;). Il suffit donc de simuler lesn v.a.r. indépendantesZ1;;Znde loisN1(0;1);;N1(0;n)constituant le vecteur gaussienZpour obtenir une réalisation deX, carX=m+PZ. L"algorithme de simulation deXest :

1. Calculer la décomposition(?)pour. NB : en pratique, Scilab fournit la fonctionsvd(Singular Value Decompo-

sition) qui, utilisée comme suit :[A;;B] =svd(), rend la matrice diagonaledont les éléments sont rangés

par ordre décroissant, etA,Bsont des matrices unitaires telles que =ABt, c"est-à-dire que dans notre cas,

A=B=P.

2. Générer une réalisationzdeZen simulant des gaussiennesN1(0;i)pour les indicesitels quei>0, et

compléter les autres composantes dezpar des 0.

3. Calculer la réalisation correspondantex=m+PzdeX=m+PZ.

Le conditionnement dans un vecteur gaussien possède des propriétés très particulières, comme en témoigne le résultat

ci-dessous :

Théorème 1.3Soit(Y;X1;;Xn)tun vecteur gaussien deIRn+1tel queX= (X1;;Xn)tpossède une matrice de

variance inversible. Si(a1;;an)t=VV(X)1(cov(Y;X1);;cov(Y;Xn))t, on a :

IE(YjX1;;Xn) =nX

i=1a i(XiIE(Xi)) +IE(Y): PreuveOn suppose que(Y;X1;;Xn)est centré, et on note^Y=Pn i=1aiXi. On vérifie facilement que pour tout i= 1;;n: cov(Y^Y ;Xi) =IE(Y^Y)Xi= 0: Puisque le vecteur(X1;;Xn;Y^Y)est gaussien,Y^Y??(X1;;Xn). En conséquence,

IE(YjX1;;Xn) =IE(Y^YjX1;;Xn) +^Y=IE(Y^Y) +^Y=^Y :

2. PROJECTION DE VECTEURS GAUSSIENS

[Réf. : Dacunha-Castelle et Duflo, Ouvrard, Toulouse]

Le théorème ci-dessous est essentiel dans toute la théorie des modèles gaussiens. Il intervient dans la plupart des

problèmes d"estimation de paramètres issus d"une loi gaussienne : estimation et tests pour un échantillon gaussien,

modèles linéaires gaussiens, filtrage linéaire gaussien (en particulier le filtre de Kalman-Bucy),...

Théorème 2.1[Cochran]SoitXNn(0;2Id)avec >0etL1Lpune décomposition deIRnen sous-espaces orthogonaux de dimensionsr1;;rp. Les projections orthogonalesP1;;PpdeXsurL1;;Lpsont des vecteurs aléatoires gaussiens indépendants, et pour chaquei= 1;;p: 1

2kPik22r

i:

PreuveSoit(eij)i;june base orthonormée deIRntelle que pour chaquei= 1;;p,(eij)j=1;;riest une base orthonor-

mée deLi. Pour chaquei= 1;;p:Pi=Pri j=1< X;eij> eij:Les vecteurs(eij)i;jétant orthogonaux, on trouve pour

touti6=k:cov(Pi;Pk) = 0. Comme(P1;;Pp)test un vecteur gaussien (car toute combinaison linéaire des v.a.r.

2

(< X;eij>)i;jest gaussienne),P1;;Ppsont des vecteurs gaussiens indépendants. Enfin, pour touti= 1;;ri, les

v.a.r.< X;ei1>;;< X;eir i>sont indépendantes et de même loiN1(0;2). Par suite, 1

2kPik2=r

iX j=1 < X;eij> 2 2r i:

Le théorème de Cochran permet d"obtenir facilement des informations sur les estimateurs de la moyenne ou de la

variance dans un échantillon gaussien. Pour un échantillonX1;;Xnde v.a.r.i.i.d., on noteXnetS2nla moyenne et

la variance empirique de l"échantillonX1;;Xn: Xn=1n n X i=1X ietS2n=1n1n X i=1(XiXn)2:

L"estimateur naturel(1=n)Pn

i=1(XiXn)2devar(X1)-qui est l"estimateur du maximum de vraisemblance d"un

n-échantillon i.i.d. de la loiN1(m;2)-, estbiaisé. En revanche,S2nà le mérite d"estimersans biaisla variancevar(X1).

On rappelle que laloi de Studentàndegrés de liberté, notéeTn, est la loi du quotientpnX= pY, oùX??Y,

XN1(0;1)etY2n.

Théorème 2.2[Fisher]SoitX= (X1;;Xn)tNn(me;2Id), avec >0ete= (1;;1)t. Alors,Xn??Sn. De plus,pn(Xnm)=N1(0;1),(n1)S2n=22n1etpn(Xnm)=SnTn1.

RemarqueD"après la loi forte des grands nombres,Sn!p.s. La dernière assertion du théorème de Fisher, le

théorème de la limite centrale unidimensionnel et le lemme de Slutsky montrent que pour les grandes valeurs den,Tn

est proche de la loiN1(0;1). PreuveCasm= 0et2= 1. SoitLle s.e.v. deIRnengendré pare= (1;;1)t. Le projecteur orthogonalPsur Lest la matricennne contenant que des1=n. On a alorsPX=Xneet(IdP)X= (X1Xn;;XnXn)t.

Comme(IdP)Xest la projection orthogonale deXsur l"orthogonal deL, on déduit du théorème de Cochran que

PX??(IdP)X, et en particulier queXn??S2n. Enfin,(n1)S2n=k(IdP)Xk22n1d"après le théorème de

Cochran.

3. STATISTIQUE DES ECHANTILLONS GAUSSIENS

[Réf. : Dacunha-Castelle et Duflo, Ouvrard]

3.1 Le modèle

On dispose d"observationsréellesx1;;xn. En terme de modélisation, la première étape consiste à considérer que

ces réels sont desréalisationsdenv.a.r.i.i.d. notéesX1;;Xn, c"est-à-dire que pour une certaine éventualité!,

x

i=Xi(!). Ces observations sont supposées être issues d"une loi gaussienne. On peut donc considérer dans la suite

queX1N1(m;2), avecmet >0inconnus. L"enjeu est maintenant de donner des valeurs pour les paramètresm

et2(cadre paramétrique). On notexnets2nla moyenne et la variance des observationsx1;;xn: xn=1n n X i=1x iets2n=1n1n X i=1(xixn)2: Le modèle statistique estfPm;;m2IR; >0g, oùPm;=N1(m;2) n, et(X1;;Xn)désigne un échantillon de

l"une de ces lois. Les intervalles de confiance et les tests sont construits à l"aide du théorème de Fisher, qui a l"avantage

de fournir des lois ànfixé (tests et intervalles de confiance non asymptotiques).

On note2]0;1[leniveaudu test, c"est-à-dire le maximum de l"erreur de 1ère espècelorsque le paramètre (mou)

parcours l"ensemble défini par l"hypothèse nulleH0(rappelons que l"erreur de 1ère espèce est la probabilité de rejeter

H

0à tort). On choisit souvent= 1%;5% ou 10%, de manière à considérer en priorité des tests de niveau faible (c"est

leprincipe de Neyman). On ne considère que les cas les plus courants en pratique, i.e.(resp.m) est inconnu lorsque

l"on veut testerm(resp.). Sinon, il suffit d"utiliser l"égalitépn(Xnm)=N1(0;1)sousPm;. 3

3.2 Le test de Student (out-test)

On fixem0, et on veut tester par exempleH0:mm0contreH1:m > m0au niveau. La statistique de testpn(Xnm)=SnTn1sousPm;. La région de rejet est du type]a;1[carH0est rejetée à tort dès queXnprend

des valeurs anormalement grandes. Notonstn1;le quantile d"ordre1de la loiTn1. Alors, sousH0: P m; Xn2 m

0+tn1;Snpn

;1 Pm; Xn2 m+tn1;Snpn ;1

Pour ce test, unerégion de rejetau niveauest doncR:=]m0+tn1;sn=pn;1[. Autrement dit, la procédure de

décision est définie ainsi : on rejetteH0au niveausixn2R.

3.3 Le test de Fisher

On fixe0, et on veut tester par exempleH0:0contreH1: > 0au niveau. La statistique de test (n1)S2n=22n1sousPm;. Soit2n1;le quantile d"ordre1de la loi2n1. On montre comme dans le cas

précédent que pour ce test, la région de rejet au niveauestR:=]2n1;20=(n1);1[. Autrement dit, on rejette

H

0au niveausis2n2R.

4. LE THEOREME DE LA LIMITE CENTRALE SURIRd

[Réf. : toutes]

SoientX1;X2;des vecteurs aléatoires surIRd, supposés indépendants et de même loi intégrable. La moyenne

empirique desnpremiers vecteurs aléatoires estXn= (1=n)Pn

k=1Xk. D"après laloi forte des grands nombres,Xn!IE(X1)p.s. lorsquen! 1. Lethéorème de la limite centraleest un principe d"invariance qui précise la vitesse

de convergence dans la loi forte des grands nombres.

Théorème 4.1[TLC]SoientX1;X2;des vecteurs aléatoires surIRd, supposés indépendants et de même loi de

carré intégrable. Alors, lorsquen! 1, on a : pn

XnIE(X1)L!Nd(0;VV(X1)):

La preuve est directe à partir de la version unidimensionnelle du TLC et l"astuce de Cramèr-Wold.

Le TLC et la théorie des probabilités.La position "centrale" de ce théorème réside dans le fait suivant : dès lors

que les vecteurs aléatoiresX1;;Xnsont indépendants et de même loi de carré intégrable, la loi deXnest proche

deNd(IE(X1);VV(X1)=n)lorsquenest grand (avec toutes les précautions d"usage!!). En termes de modélisation,

l"impact de ce résultat est considérable : il signifie que l"on peut raisonnablement considérer que la somme de petites

perturbations indépendantes est la réalisation d"une loi qui est proche d"une loi gaussienne.

La vitesse de convergence dans le TLC.Lorsque l"on utilise le TLC, que ce soit pour calculer des intervalles

de confiance asymptotiques, faire des tests asymptotiques, ou bien pour justifier le fait qu"une erreur puisse être

raisonnablement considérée comme étant issue d"une loi normale, on est toujours amené à dire : pour les grandes

valeurs den,pn(Xnm)suit à peu près une loi normale. Que signifie ici "pour les grandes valeurs den"? Autrement

dit, comment peut-on contrôler l"erreur commise en remplacantpn(Xnm)par la loi normale correspondante? Un

élément de réponse est donné par l"inégalité de Berry-Esséen: sous réserve queX1admette un moment d"ordre 3, et

sous les conditions du TLC : sup x2IRd IPpn

XnIE(X1)x

IPGxCn1=2;

avecGNd(0;VV(X1))etCune constante indépendante den, dépendant des 3 premiers moments dekX1k. Pour les

applications, il est important de disposer d"une valeur deCqui soit la plus petite possible, ce qui fut l"objet d"une

longue quête...

REFERENCES

Dacunha-Castelle D. et Duflo M.Probabilités et statistiques, 1. Problèmes à temps mobile. Masson, 1993.

Foata D. et Fuchs A.Calcul des probabilités, 2ème édition. Dunod, 1998. Ouvrard J.-Y.Probabilités 2 - Maîtrise Agrégation. Cassini, 2000. Toulouse P.S.Thèmes de probabilités et statistique. Dunod, 1999. 4quotesdbs_dbs17.pdfusesText_23
[PDF] exercices vocabulaire policier

[PDF] exercices word 2007 gratuit pdf

[PDF] exercices word 2010 pdf

[PDF] exercices word 2010 perfectionnement

[PDF] exercices word 2013 pdf

[PDF] exercices word gratuit télécharger

[PDF] exercices+corrigés de prise de notes

[PDF] exigences de la carrière d'un entrepreneur

[PDF] exigences des parties intéressées

[PDF] exigences essentielles dispositifs médicaux

[PDF] exigences ohsas 18001

[PDF] existance ou existence

[PDF] existe t il des formes de conscience commune selon weber

[PDF] existence anglais

[PDF] existence antonyme