[PDF] Vecteursgaussiens



Previous PDF Next PDF







Vecteurs - Exercices 1 Translation et vecteurs associés

Donner un vecteur directeur de chaque droite dont une équation est donnée 1 y = 2x+2 2 y = x 5 3 x = 3 4 y = 2 5 2x = 3 Exercice 26 Dans chaque cas, déterminer en justi ant si l'équation proposée est l'équation d'une droite Dans le cas échéant, identi er les coe cients a, b et c d'une équation cartésienne ax + by + c = 0 de la



Vecteursgaussiens

Donnons la fonction caractéristique d'un vecteur gaussien et les conséquences importantes qui en dé-coulent



Chapitre 14 : Espaces vectoriels - wwwnormalesuporg

le triangle comme une moitié de carré ou, mieux, d’un parallélogramme : ils auraient été immédiatement conduits au vecteur, c’est-à-dire à la structure de l’espace comme espace vectoriel



Première S - Propriétés de calcul du produit scalaire

Pour tout vecteur du plan, le carré scalaire du vecteur est le produit scalaire du vecteur par lui-même On utilise une notation analogue à celle des nombres réels: = ² Remarques: • Pour tout vecteur non nul on a : = En effet, = Or D’où : =



Exercices corrigés - AlloSchool

Le produit scalaire d’un vecteur ⃗⃗ par un vecteur ⃗ est le nombre réel noté ⃗⃗ ⃗ défini par : ⃗⃗ ⃗ ‖⃗⃗‖ ‖ ⃗‖ ‖ ⃗ ⃗⃗‖ Tout d’abord, analysons l’énoncé est un parallélogramme donc les égalités vectorielles suivantes sont vérifiées :



Valeurs propres, vecteurs propres

la matrice de la rotation de l’espace d’angle et d’axe (Oz) Soit X3 = • 0 0 1 − Alors A X3 = X3 Donc X3 est un vecteur propre de A et la valeur propre associée est 1 Exemple 4 Soit A= 0 1 1 1 Le complexe j = 1 2 +i p 3 2 = e i 2ˇ 3 est une valeur propre de A En effet : A 1 j = j 1 j 1 4 Cas d’une matrice diagonale Le cas



Chapitre 3 Calcul matriciel - Free

• Un vecteur colonne est une matrice avec une seule colonne • Un vecteur ligne est une matrice à une seule ligne • Deux matrices sont égales si elles ont la même dimension et les coefficients situés à la même place sont égaux c Transposée d'une matrice Définition La transposée d'une matrice est obtenu en échangant les lignes



coordonnées : (x,y,z) - Unisciel

remarque : ∆U(M) est un SCALAIRE qui a la dimension de U divisée par le carré d'une longueur 5) Laplacien d'un champ vectoriel a(M): définition: si a(M)=ax ux +ay uy +a uz z alors : ∆a =∆ax ux +∆ay uy +∆az uz remarque : ∆a(M) est un VECTEUR qui a la dimension de a divisée par le carré d'une longueur 6) Relations utiles :



AVecteurs et valeurs propres d’un endomorphisme

A Vecteurs et valeurs propres d’un endomorphisme Soit f un endomorphisme d’un espace vectoriel E sur K 1) Définitions On dit qu’un vecteur x de E est un vecteur propre de f si : a) x est non nul b) il existe un scalaire tel que f x x Ce scalaire , nécessairement unique, est appelé valeur propre de f associée au vecteur propre x



SCILAB : Création de fonctions et d’algorithmes

3 Créer une fonction de variable d’entrée un entier n qui calcule le terme d’ordre n de la suite (u n) n2N définie par 8n2N, u n = ( n1) n2+1 4 Créer une fonction (sans boucle for) qui calcule pour un entier n donné la somme partielle d’ordre n de la série de terme général u n tel que défini ci-dessus 5

[PDF] multiplication de deux vecteurs colonnes

[PDF] produit scalaire vecteur 3d

[PDF] le resultat d'une multiplication s'appelle

[PDF] division vocabulaire

[PDF] vocabulaire multiplication

[PDF] loi géométrique probabilité exercices

[PDF] la santé définition

[PDF] approximation loi hypergéométrique loi binomiale

[PDF] fonction de répartition loi discrète

[PDF] les termes de la division

[PDF] difference entre loi binomiale et hypergeometrique

[PDF] fonction de répartition loi de bernoulli

[PDF] résultat d'une multiplication

[PDF] loi hypergéométrique calculatrice

[PDF] loi de bernoulli exemple

Vecteurs gaussiens

24 novembre 2013 - v1 non relue

1 Variables aleatoires gaussiennes reelles

Denition.On appelle loi gaussienne centree reduite la loi admettant la densitefdenie par : f(x) =1p2ex22

On noteN(0;1) cette loi.

Proposition 1.1SoitGune v.a. suivant une loi gaussienne centree reduite. Alors :

1.E(G) = 0.

2.var(G) = 1.

3. Pour tout reel, on aE(eiG) = exp(2=2).

Denition.Soientm2Ret0. SoitGune v.a. suivant la loiN(0;1). On appelle loi gaussienne de parametresmet2la loi de la v.a.G+m. On noteN(m;2) cette loi. Remarque.Une v.a. suivant la loiN(m;0) est constante egale am. Proposition 1.2SoitGune v.a. suivant une loiN(m;2). Alors :

1.E(G) =m.

2.var(G) =2.

3. Pour tout reel, on aE(eiG) = exp(im22=2).

C'est une consequence immediate des resultats dans le cas centre reduit. Remarque.Soientm2Ret0. La loiN(m;2) admet une densite si et seulement si est non nul.

2 Intermede : variance d'un vecteur aleatoire

On munitRddu produit scalaire canoniqueh;iet de la norme euclidienne correspondante kk. En identiant un vecteur avec une matrice colonne, on peut ecrirehx;yi=txy. J'identie de m^eme application lineaire et matrice dans les bases canoniques. Par defaut, on considere dans cette section des vecteurs aleatoires deRd. 1

Denitions

{ SoitX= (X1;:::;Xd) un vecteur aleatoire. On dit queXest de carre integrable sikXk2 est integrable, i.e. siX21++X2dest integrable, i.e. si chacun desXiest de carre integrable. { SoitX= (X1;:::;Xd) un v.a. de carre integrable. { On appelle matrice de (co-)variance deXet on note var(X) la matrice symetriquedd dont les elements sont les covariances cov(Xi;Xj);1i;jd. { On appelle forme quadratique de variance la forme quadratiqueqX:Rd!Rdenie par q

X() =tvar(X)=X

i;j ijcov(Xi;Xj) = var(X i iXi) = var(h;Xi): La proposition suivante est une consequence simple de l'egaliteqX() = var(h;Xi). Proposition 2.1SoitXun vecteur aleatoire de carre integrable deRd.

1. La matricevar(X)est positive (autrement dit,qXest une application positive).

2. SoitAune matricepd. AlorsY=AXest un vecteur aleatoire de carre integrable de

R pet on a : var(Y) =Avar(X)tA: La proposition suivante est une formulation de la propriete classique suivante : siXetY sont deux variables aleatoires independantes, alors elles sont decorrelees. Proposition 2.2SoitXun vecteur aleatoire de carre integrable. Si les coordonnees deXsont independantes, alorsvar(X)est diagonale.

3 Vecteurs aleatoires gaussiens

Par defaut, on considere dans cette section des vecteurs aleatoires deRd. Denition.On dit qu'un vecteur aleatoireXest gaussien si, pour tout2Rd, la variable aleatoire reelleh;Xiest gaussienne.

Remarques.

{ L'image d'un vecteur gaussien par une application ane est un vecteur gaussien. { Chacune des marginales d'un vecteur gaussien est gaussienne. Par contre, le fait que les marginales d'un vecteur aleatoireXsoient gaussiennes n'entra^ne pas le caractere gaussien du vecteur aleatoireX. { Chacune des marginales d'un vecteur gaussien est gaussienne et donc de carre integrable. Par consequent un vecteur aleatoire gaussien est de carre integrable. Proposition 3.1SoitqXla forme quadratique de variance d'un vecteur gaussienX,mson vecteur esperance. La transformee de Fourier deXest donnee par :

E(eih;Xi) = exp(12

qX() +ih;mi): Cela se montre par exemple en notant queE(eih;Xi) est la transformee de Fourier en 1 de la variable aleatoire gaussienneh;Xi. 2 Remarque.En particulier, la donnee de la forme quadratique de variance (ou de la matrice de variance) et du vecteur esperance d'un vecteur gaussien sut pour decrire completement sa loi. Cela permet de poser la denition suivante. Denition.On appelle loi gaussienne surRdde vecteur esperancemet de matrice de variance Kla loi d'un vecteur gaussien de vecteur esperancemet de matrice de varianceK. On note

N(m;K) cette loi.

Denition.On appelle loi gaussienne centree reduire la loiN(0;Id). Une matrice de variance est necessaire symetrique et positive. Le resultat suivant etablit que c'est la seule restriction. Theoreme 3.1SoitKune matrice symetrique et positive de tailledd. Soitmun vecteur de R d. Alors il existe un vecteur aleatoireXgaussien de moyennemet de matrice de varianceK. Plan de la preuve.SoientX1;:::;Xddes v.a. reelles gaussiennes centrees reduites indepen- dantes. Le vecteurX= (X1;:::;Xd) est un vecteur gaussien. Cela se montre par exemplevia les transformees de Fourier. Par ailleursXest centre et de matrice de variance l'identite. Ainsi,

Xest un vecteur gaussien centre reduit.

CommeKest symetrique positive, il existe1une matriceAtel queK=AtA. On pose alors :

G=AX+m:

Ce vecteur suit la loiN(m;K).

Remarque.La preuve montre que l'on peut obtenir un vecteur gaussien de loi donnee comme image d'un vecteur gaussien centre reduit par une application ane. Remarque.SiKest inversible, alors la loiN(m;K) admet une densite de la formex7! Cexp(q(x)) ouCest une constante et ouqest une forme quadratique denie positive. Ce resultat semble tres peu utile. Theoreme 3.2{ Pour que les marginales d'un vecteur gaussien soient independantes, il faut et il sut que sa matrice de variance soit diagonale. { SoitXun vecteur aleatoire deRn. SoitYun vecteur aleatoire deRp. On suppose que (X;Y)est un vecteur gaussien deRn+p. AlorsXetYsont independants si et seulement si la matrice de variance de(X;Y)est une matrice composee de deux blocs diagonaux formes par les matrices de variances deXetY. Le sens direct est valable sans l'hypothese gaussienne (si deux variables aleatoires sont independantes alors elles sont decorrelees). Le sens reciproque peut par exemple s'etablirviales transformees de Fourier. Une consequence de l'agreable resultat precedent est que, dans le cas des vecteurs gaussiens,

le calcul des esperances conditionnelles est particulierement simple.1. CommeKest symetrique, on peut ecrireK=BDtBouBest une matrice orthogonale etDest une

matrice diagonale. CommeKest positive, tous les coecients deDsont positifs. On peut donc ecrireD=C2 ouCest une matrice diagonale. On a doncK=BC2tB=BCtCtB=AtAouA=BC. 3 Theoreme 3.3Soit(X1;:::;Xd;Y)un vecteur gaussien deRd+1. On poseX= (X1;:::;Xd). AlorsE(YjX)est la projection orthogonale2deYsur l'espace vectoriel engendre par la constante

1et les variables aleatoiresX1;:::;Xd.

Remarque.Sans l'hypothese gaussienne, mais en supposant toujours les variables aleatoires de carre integrable, on sait simplement queYest la projection orthogonale sur l'espace vectoriel des variables aleatoires de carre integrable et mesurables par rapport a la tribu engendree par X

1;:::;Xd.

Preuve.NotonsZla projection orthogonale deYsur vect(1;X1;:::;Xd). On a alors :

E(YjX) =E(ZjX) +E(YZjX):

MaisE(ZjX) =Z. Il reste a prouverE(YZjX) = 0.

On aE(YZ) =hYZ;1i= 0. Par consequent, pour tout indicek, on a cov(YZjXk) = hYZ;Xki= 0. Mais (YZ;X1;:::;Xd) est un vecteur gaussien. Par consequent,YZet Xsont independants. On en deduitE(YZjX) =E(YZ) = 0.

4 Theoreme de Cochran

Denition.La loi de Pearson addegres de liberte est la loi de la somme des carres ded variables aleatoires gaussiennes reelles centrees reduites. Theoreme 4.1. SoitXun vecteur gaussien centre reduit deRn. SoitLun sous-espace deRn de dimensiondavec1dn1. On designe parYetZles projections deXrespectivement surLetL?. AlorsYetZsont independants. De plus, les variables aleatoireskYk2etkZk2 suivent respectivement des lois de Pearson adetnddegres de liberte. Plan de la preuve.SiXest un vecteur gaussien centre reduit deRnet siAest une matrice orthogonale deRnalorsAXest un vecteur gaussien centre reduit deRn. Cela permet de se ramener au cas ouLest engendre par lesdpremiers vecteurs de la base canonique. L'espace vectorielL?est alors engendre par lesndderniers vecteurs de la base canonique. On a donc simplementY= (X1;:::;Xd;0;:::;0) etZ= (0;:::;0;Xd+1;:::;Xn). Le resultat est alors immediat.

5 Theoreme central limite

Theoreme 5.1Soit(Xn)nune suite de vecteurs aleatoires i.i.d. deRd. On suppose que lesXn sont de carre integrable. On notemle vecteur esperance etKla matrice de variance desXn. On a alors la convergence en loi, lorsquentend vers l'inni, de : X

1++Xnnmpn

vers la loiN(0;K). On peut par exemple deduire ce resultat de sa version en dimension 1viales transformees

de Fourier.2. On se place dans l'espace de Hilbert des variables aleatoires de carre integrable. Le produit scalaire de deux

variables aleatoiresX;YesthX;Yi=E(XY). 4quotesdbs_dbs35.pdfusesText_40