[PDF] Vecteurs gaussiens Par conséquent un vecteur





Previous PDF Next PDF



PRODUIT SCALAIRE

Définition : Soit un vecteur u Attention : Le produit scalaire de deux vecteurs est un nombre réel. Ecrire par ... Soit un carré ABCD de côté c.



Vecteurs gaussiens

Par conséquent un vecteur aléatoire gaussien est de carré intégrable. Proposition 3.1 Soit qX la forme quadratique de variance d'un vecteur gaussien X m son.



Propriétés de moindres carrés de la matrice de covariance dun

Soit X un vecteur aléatoire à valeurs dans de matrice de covariance Ex supposée non singulière. La minimisation de la trace du produit où M désigne une matrice 



Étude comparative de différentes mesures de liaison entre deux

tive près) des composantes du vecteur expliqué Y. Le i* élément de cette diagonale est noté SS^y i=l2 p



MATLAB : prise en main

Une matrice avec une seule ligne ou une seule colonne est un vecteur et une construit un vecteur d'entiers de 1 à 10 et prend la racine carrée de ...



Calcul vectoriel – Produit scalaire

Deux vecteurs non nuls u et v sont colinéaires si et seulement si il Le vecteur nul est colinéaire à tout autre vecteur. ... est le carré scalaire.



1 Matrice de covariance

et aussi si X1



Étude comparative de différentes mesures de liaison entre deux

tive près) des composantes du vecteur expliqué Y. Le i* élément de cette diagonale est noté SS^y i=l2 p



MODELES LINEAIRES

On appelle modèle linéaire gaussien la donnée d'un vecteur y de IRn tel que : Le critère des moindres carrés peut s'écrire aussi de la façon suivante :.



MATLAB : COMMANDES DE BASE Note : lorsquapplicable l

sqrt : racine carrée. x = [m :h : M] donne un vecteur ligne formé des nombres m m+h



[PDF] PRODUIT SCALAIRE - maths et tiques

Définition : Soit un vecteur u Attention : Le produit scalaire de deux vecteurs est un nombre réel Ecrire par Soit un carré ABCD de côté c



[PDF] VECTEURS ET REPÉRAGE - maths et tiques

TP info : Lectures de coordonnées : http://www maths-et-tiques fr/telech/Lecture_coord pdf Partie 2 : Coordonnées d'un vecteur Exemple :



[PDF] Leçon n°17 : Produit scalaire

5 mar 2018 · Définition: On appelle produit scalaire des vecteurs et appartenant à E le nombre réel noté est appelé le carré scalaire de



[PDF] Chapitre 1 Rappel sur les vecteurs - Cours

Définition 2 4 1 Une matrice carrée A est inversible s'il existe une matrice B telle que AB = BA = I Corollaire 2 4 1 Si B et C sont inverses de A alors B 



[PDF] Chapitre 1 Géométrie vectorielle euclidienne du plan et de lespace

Une matrice M carrée d × d est orthogonale si et seulement si l'une des conditions suivantes est vérifiée 1 La famille des vecteurs colonnes de M forme 



[PDF] Propriétés de calcul du produit scalaire - Projeté orthogonal

Pour tout vecteur du plan le carré scalaire du vecteur est le produit scalaire du vecteur par lui-même On utilise une notation



[PDF] Chapitre 22 – Le produit scalaire - Physique

Le produit scalaire est une autre opération algébrique entre deux vecteurs dont le résultat est un scalaire On utilise l'opérateur « ? » pour désigner le 



[PDF] Produit scalaire : Résumé de cours et méthodes 1 Introduction 2

??u2 et est appelé carré scalaire de ??u •??u2 = ??u 2 (carré de la longueur du vecteur ??u) • (??u+??v)2 = ??u2 +2??u·??v+??v2 



[PDF] Le produit scalaire - Plus de bonnes notes

26 avr 2022 · Définitions : Un vecteur est caractérisé par deux vecteurs ont la même direction le même est un carré de côté et est un point



[PDF] Fiche n°2 sur la projection de vecteurs

La norme d'un vecteur est la racine de son carré scalaire : A AA = I 3 Application : formule d'Al-Kashi Soient deux vecteurs A et B :

  • Comment calculer le carré d'un vecteur ?

    Le produit scalaire du vecteur u par lui-même, noté u 2 ou ?u ?2, est un réel appelé carré scalaire de u . Pour tout vecteur AB on a AB 2=AB2.
  • Quelle est la formule du vecteur ?

    Dans un repère orthonormé, le produit scalaire de deux vecteurs est égal à la somme des produits de leurs composantes correspondantes. ?u??v=uxvx+uyvy.
  • Comme on vient de le mentionner, le produit scalaire s'écrit à l'aide du symbole ? . Par exemple, ?u??v u ? ? v ? . Par contre, si on utilise une croix (× ) pour signifier le produit de deux vecteurs, on qualifiera cette opération de produit vectoriel (notion habituellement étudiée au niveau collégial).

Vecteurs gaussiens

24 novembre 2013 - v1 non relue

1 Variables aleatoires gaussiennes reelles

Denition.On appelle loi gaussienne centree reduite la loi admettant la densitefdenie par : f(x) =1p2ex22

On noteN(0;1) cette loi.

Proposition 1.1SoitGune v.a. suivant une loi gaussienne centree reduite. Alors :

1.E(G) = 0.

2.var(G) = 1.

3. Pour tout reel, on aE(eiG) = exp(2=2).

Denition.Soientm2Ret0. SoitGune v.a. suivant la loiN(0;1). On appelle loi gaussienne de parametresmet2la loi de la v.a.G+m. On noteN(m;2) cette loi. Remarque.Une v.a. suivant la loiN(m;0) est constante egale am. Proposition 1.2SoitGune v.a. suivant une loiN(m;2). Alors :

1.E(G) =m.

2.var(G) =2.

3. Pour tout reel, on aE(eiG) = exp(im22=2).

C'est une consequence immediate des resultats dans le cas centre reduit. Remarque.Soientm2Ret0. La loiN(m;2) admet une densite si et seulement si est non nul.

2 Intermede : variance d'un vecteur aleatoire

On munitRddu produit scalaire canoniqueh;iet de la norme euclidienne correspondante kk. En identiant un vecteur avec une matrice colonne, on peut ecrirehx;yi=txy. J'identie de m^eme application lineaire et matrice dans les bases canoniques. Par defaut, on considere dans cette section des vecteurs aleatoires deRd. 1

Denitions

{ SoitX= (X1;:::;Xd) un vecteur aleatoire. On dit queXest de carre integrable sikXk2 est integrable, i.e. siX21++X2dest integrable, i.e. si chacun desXiest de carre integrable. { SoitX= (X1;:::;Xd) un v.a. de carre integrable. { On appelle matrice de (co-)variance deXet on note var(X) la matrice symetriquedd dont les elements sont les covariances cov(Xi;Xj);1i;jd. { On appelle forme quadratique de variance la forme quadratiqueqX:Rd!Rdenie par q

X() =tvar(X)=X

i;j ijcov(Xi;Xj) = var(X i iXi) = var(h;Xi): La proposition suivante est une consequence simple de l'egaliteqX() = var(h;Xi). Proposition 2.1SoitXun vecteur aleatoire de carre integrable deRd.

1. La matricevar(X)est positive (autrement dit,qXest une application positive).

2. SoitAune matricepd. AlorsY=AXest un vecteur aleatoire de carre integrable de

R pet on a : var(Y) =Avar(X)tA: La proposition suivante est une formulation de la propriete classique suivante : siXetY sont deux variables aleatoires independantes, alors elles sont decorrelees. Proposition 2.2SoitXun vecteur aleatoire de carre integrable. Si les coordonnees deXsont independantes, alorsvar(X)est diagonale.

3 Vecteurs aleatoires gaussiens

Par defaut, on considere dans cette section des vecteurs aleatoires deRd. Denition.On dit qu'un vecteur aleatoireXest gaussien si, pour tout2Rd, la variable aleatoire reelleh;Xiest gaussienne.

Remarques.

{ L'image d'un vecteur gaussien par une application ane est un vecteur gaussien. { Chacune des marginales d'un vecteur gaussien est gaussienne. Par contre, le fait que les marginales d'un vecteur aleatoireXsoient gaussiennes n'entra^ne pas le caractere gaussien du vecteur aleatoireX. { Chacune des marginales d'un vecteur gaussien est gaussienne et donc de carre integrable. Par consequent un vecteur aleatoire gaussien est de carre integrable. Proposition 3.1SoitqXla forme quadratique de variance d'un vecteur gaussienX,mson vecteur esperance. La transformee de Fourier deXest donnee par :

E(eih;Xi) = exp(12

qX() +ih;mi): Cela se montre par exemple en notant queE(eih;Xi) est la transformee de Fourier en 1 de la variable aleatoire gaussienneh;Xi. 2 Remarque.En particulier, la donnee de la forme quadratique de variance (ou de la matrice de variance) et du vecteur esperance d'un vecteur gaussien sut pour decrire completement sa loi. Cela permet de poser la denition suivante. Denition.On appelle loi gaussienne surRdde vecteur esperancemet de matrice de variance Kla loi d'un vecteur gaussien de vecteur esperancemet de matrice de varianceK. On note

N(m;K) cette loi.

Denition.On appelle loi gaussienne centree reduire la loiN(0;Id). Une matrice de variance est necessaire symetrique et positive. Le resultat suivant etablit que c'est la seule restriction. Theoreme 3.1SoitKune matrice symetrique et positive de tailledd. Soitmun vecteur de R d. Alors il existe un vecteur aleatoireXgaussien de moyennemet de matrice de varianceK. Plan de la preuve.SoientX1;:::;Xddes v.a. reelles gaussiennes centrees reduites indepen- dantes. Le vecteurX= (X1;:::;Xd) est un vecteur gaussien. Cela se montre par exemplevia les transformees de Fourier. Par ailleursXest centre et de matrice de variance l'identite. Ainsi,

Xest un vecteur gaussien centre reduit.

CommeKest symetrique positive, il existe1une matriceAtel queK=AtA. On pose alors :

G=AX+m:

Ce vecteur suit la loiN(m;K).

Remarque.La preuve montre que l'on peut obtenir un vecteur gaussien de loi donnee comme image d'un vecteur gaussien centre reduit par une application ane. Remarque.SiKest inversible, alors la loiN(m;K) admet une densite de la formex7! Cexp(q(x)) ouCest une constante et ouqest une forme quadratique denie positive. Ce resultat semble tres peu utile. Theoreme 3.2{ Pour que les marginales d'un vecteur gaussien soient independantes, il faut et il sut que sa matrice de variance soit diagonale. { SoitXun vecteur aleatoire deRn. SoitYun vecteur aleatoire deRp. On suppose que (X;Y)est un vecteur gaussien deRn+p. AlorsXetYsont independants si et seulement si la matrice de variance de(X;Y)est une matrice composee de deux blocs diagonaux formes par les matrices de variances deXetY. Le sens direct est valable sans l'hypothese gaussienne (si deux variables aleatoires sont independantes alors elles sont decorrelees). Le sens reciproque peut par exemple s'etablirviales transformees de Fourier. Une consequence de l'agreable resultat precedent est que, dans le cas des vecteurs gaussiens,

le calcul des esperances conditionnelles est particulierement simple.1. CommeKest symetrique, on peut ecrireK=BDtBouBest une matrice orthogonale etDest une

matrice diagonale. CommeKest positive, tous les coecients deDsont positifs. On peut donc ecrireD=C2 ouCest une matrice diagonale. On a doncK=BC2tB=BCtCtB=AtAouA=BC. 3 Theoreme 3.3Soit(X1;:::;Xd;Y)un vecteur gaussien deRd+1. On poseX= (X1;:::;Xd). AlorsE(YjX)est la projection orthogonale2deYsur l'espace vectoriel engendre par la constante

1et les variables aleatoiresX1;:::;Xd.

Remarque.Sans l'hypothese gaussienne, mais en supposant toujours les variables aleatoires de carre integrable, on sait simplement queYest la projection orthogonale sur l'espace vectoriel des variables aleatoires de carre integrable et mesurables par rapport a la tribu engendree par X

1;:::;Xd.

Preuve.NotonsZla projection orthogonale deYsur vect(1;X1;:::;Xd). On a alors :

E(YjX) =E(ZjX) +E(YZjX):

MaisE(ZjX) =Z. Il reste a prouverE(YZjX) = 0.

On aE(YZ) =hYZ;1i= 0. Par consequent, pour tout indicek, on a cov(YZjXk) = hYZ;Xki= 0. Mais (YZ;X1;:::;Xd) est un vecteur gaussien. Par consequent,YZet Xsont independants. On en deduitE(YZjX) =E(YZ) = 0.

4 Theoreme de Cochran

Denition.La loi de Pearson addegres de liberte est la loi de la somme des carres ded variables aleatoires gaussiennes reelles centrees reduites. Theoreme 4.1. SoitXun vecteur gaussien centre reduit deRn. SoitLun sous-espace deRn de dimensiondavec1dn1. On designe parYetZles projections deXrespectivement surLetL?. AlorsYetZsont independants. De plus, les variables aleatoireskYk2etkZk2 suivent respectivement des lois de Pearson adetnddegres de liberte. Plan de la preuve.SiXest un vecteur gaussien centre reduit deRnet siAest une matrice orthogonale deRnalorsAXest un vecteur gaussien centre reduit deRn. Cela permet de se ramener au cas ouLest engendre par lesdpremiers vecteurs de la base canonique. L'espace vectorielL?est alors engendre par lesndderniers vecteurs de la base canonique. On a donc simplementY= (X1;:::;Xd;0;:::;0) etZ= (0;:::;0;Xd+1;:::;Xn). Le resultat est alors immediat.

5 Theoreme central limite

Theoreme 5.1Soit(Xn)nune suite de vecteurs aleatoires i.i.d. deRd. On suppose que lesXn sont de carre integrable. On notemle vecteur esperance etKla matrice de variance desXn. On a alors la convergence en loi, lorsquentend vers l'inni, de : X

1++Xnnmpn

vers la loiN(0;K). On peut par exemple deduire ce resultat de sa version en dimension 1viales transformees

de Fourier.2. On se place dans l'espace de Hilbert des variables aleatoires de carre integrable. Le produit scalaire de deux

variables aleatoiresX;YesthX;Yi=E(XY). 4quotesdbs_dbs35.pdfusesText_40
[PDF] multiplication de deux vecteurs colonnes

[PDF] produit scalaire vecteur 3d

[PDF] le resultat d'une multiplication s'appelle

[PDF] division vocabulaire

[PDF] vocabulaire multiplication

[PDF] loi géométrique probabilité exercices

[PDF] la santé définition

[PDF] fonction de répartition loi discrète

[PDF] les termes de la division

[PDF] difference entre loi binomiale et hypergeometrique

[PDF] fonction de répartition loi de bernoulli

[PDF] résultat d'une multiplication

[PDF] loi hypergéométrique calculatrice

[PDF] loi de bernoulli exemple

[PDF] nom resultat addition