PRODUIT SCALAIRE
Définition : Soit un vecteur u Attention : Le produit scalaire de deux vecteurs est un nombre réel. Ecrire par ... Soit un carré ABCD de côté c.
Vecteurs gaussiens
Par conséquent un vecteur aléatoire gaussien est de carré intégrable. Proposition 3.1 Soit qX la forme quadratique de variance d'un vecteur gaussien X m son.
Propriétés de moindres carrés de la matrice de covariance dun
Soit X un vecteur aléatoire à valeurs dans de matrice de covariance Ex supposée non singulière. La minimisation de la trace du produit où M désigne une matrice
Étude comparative de différentes mesures de liaison entre deux
tive près) des composantes du vecteur expliqué Y. Le i* élément de cette diagonale est noté SS^y i=l2 p
MATLAB : prise en main
Une matrice avec une seule ligne ou une seule colonne est un vecteur et une construit un vecteur d'entiers de 1 à 10 et prend la racine carrée de ...
Calcul vectoriel – Produit scalaire
Deux vecteurs non nuls u et v sont colinéaires si et seulement si il Le vecteur nul est colinéaire à tout autre vecteur. ... est le carré scalaire.
1 Matrice de covariance
et aussi si X1
Étude comparative de différentes mesures de liaison entre deux
tive près) des composantes du vecteur expliqué Y. Le i* élément de cette diagonale est noté SS^y i=l2 p
MODELES LINEAIRES
On appelle modèle linéaire gaussien la donnée d'un vecteur y de IRn tel que : Le critère des moindres carrés peut s'écrire aussi de la façon suivante :.
MATLAB : COMMANDES DE BASE Note : lorsquapplicable l
sqrt : racine carrée. x = [m :h : M] donne un vecteur ligne formé des nombres m m+h
[PDF] PRODUIT SCALAIRE - maths et tiques
Définition : Soit un vecteur u Attention : Le produit scalaire de deux vecteurs est un nombre réel Ecrire par Soit un carré ABCD de côté c
[PDF] VECTEURS ET REPÉRAGE - maths et tiques
TP info : Lectures de coordonnées : http://www maths-et-tiques fr/telech/Lecture_coord pdf Partie 2 : Coordonnées d'un vecteur Exemple :
[PDF] Leçon n°17 : Produit scalaire
5 mar 2018 · Définition: On appelle produit scalaire des vecteurs et appartenant à E le nombre réel noté est appelé le carré scalaire de
[PDF] Chapitre 1 Rappel sur les vecteurs - Cours
Définition 2 4 1 Une matrice carrée A est inversible s'il existe une matrice B telle que AB = BA = I Corollaire 2 4 1 Si B et C sont inverses de A alors B
[PDF] Chapitre 1 Géométrie vectorielle euclidienne du plan et de lespace
Une matrice M carrée d × d est orthogonale si et seulement si l'une des conditions suivantes est vérifiée 1 La famille des vecteurs colonnes de M forme
[PDF] Propriétés de calcul du produit scalaire - Projeté orthogonal
Pour tout vecteur du plan le carré scalaire du vecteur est le produit scalaire du vecteur par lui-même On utilise une notation
[PDF] Chapitre 22 – Le produit scalaire - Physique
Le produit scalaire est une autre opération algébrique entre deux vecteurs dont le résultat est un scalaire On utilise l'opérateur « ? » pour désigner le
[PDF] Produit scalaire : Résumé de cours et méthodes 1 Introduction 2
??u2 et est appelé carré scalaire de ??u •??u2 = ??u 2 (carré de la longueur du vecteur ??u) • (??u+??v)2 = ??u2 +2??u·??v+??v2
[PDF] Le produit scalaire - Plus de bonnes notes
26 avr 2022 · Définitions : Un vecteur est caractérisé par deux vecteurs ont la même direction le même est un carré de côté et est un point
[PDF] Fiche n°2 sur la projection de vecteurs
La norme d'un vecteur est la racine de son carré scalaire : A AA = I 3 Application : formule d'Al-Kashi Soient deux vecteurs A et B :
Comment calculer le carré d'un vecteur ?
Le produit scalaire du vecteur u par lui-même, noté u 2 ou ?u ?2, est un réel appelé carré scalaire de u . Pour tout vecteur AB on a AB 2=AB2.Quelle est la formule du vecteur ?
Dans un repère orthonormé, le produit scalaire de deux vecteurs est égal à la somme des produits de leurs composantes correspondantes. ?u??v=uxvx+uyvy.- Comme on vient de le mentionner, le produit scalaire s'écrit à l'aide du symbole ? . Par exemple, ?u??v u ? ? v ? . Par contre, si on utilise une croix (× ) pour signifier le produit de deux vecteurs, on qualifiera cette opération de produit vectoriel (notion habituellement étudiée au niveau collégial).
Année universitaire 2012-2013
Vecteurs gaussiensSoitdun entier1. On identifiera les éléments deRdà des vecteurs colonnes.1 Matrice de covariance
SoitXune variable aléatoire à valeurs dansRd. On noteX=tX1Xd. Les variables aléatoires réelles
X1;:::;Xdsont appelées lescomposantesdeXet leurs lois sont leslois marginalesde la loi deX. On définit
classiquement son espérance (sa moyenne) mX=E[X] =0
B @E[X1]E[Xd]1
C A et aussi, siX1;:::;Xdsont de carré intégrable, sa varianceX= Var(X) =E(XE[X])t(XE[X])
= (Cov(Xi;Xj))1i;jd =0 BBB@Var(X1) Cov(X1;X2)Cov(X1;Xd)
Cov(X2;X1) Var(X2)Cov(X2;Xd)
Cov(Xd;X1) Cov(Xd;X2)Var(Xd)1
C CCA;où on rappelle que, pour toutes variables aléatoires réellesUetVde carré intégrable,Cov(U;V) =E[(U
E[U])(VE[V])] =E[UV]E[U]E[V](covariance deUetV). La matriceXest lamatrice de covariancedeX(ou, plutôt, de la loi deX).
En particulier, siX1;:::;Xdsont indépendantes deux à deux, alorsXest une matrice diagonale ayant pour
coefficients diagonauxVar(X1);:::;Var(Xd). CommeCov(X;Y) = Cov(Y;X)(ou commet(AtA) =AtA), la matriceXest symétrique. Elle est de plus positive : pour tout vecteuru2Rd, t uXu=X i;ju iCov(Xi;Xj)uj=X i;jCov(uiXi;ujXj) = Var(u1X1++udXd)0:(En revenant aux définitions deCovetVar, la dernière égalité est simplement le développement du carré d"une
somme)Au passage, on voit queVar(tuX) =tuXu. Plus généralement, pour toute matrixAde taille(p;d), oùp1,
le vecteurAXest une variable aléatoire à valeurs dansRp, sa moyenne estAmX(par linéarité de l"espérance)
et sa variance estAX=E(AXAm)t(AXAm)=EA(Xm)t(Xm)tA
=AE(Xm)t(Xm)tA=AXtA: En particulier (avecp=d), siX=Id(par exemple siX1;:::;Xdsont indépendants et de variance 1), alorsAX=AtA. Or toute matrice symétrique positivepeut s"écrire =AtA: par exemple, partant de la diagonalisation =PDtPen base orthonormale oùD= diag(1;:::;d)avec10,...,d0, on peut prendreA=Pdiag(p1;:::;p
d). On a alorsAX=AtA= siX=Id(Remarque : une autre matriceApossible est obtenue par la méthode de Cholesky). Ceci montre que les matrices de covariance sont les matrices
symétriques positives. Le rang de la matrice de covariance a une interprétation importante : Proposition 1.Xest de rangrsi, et seulement s"il existe un sous-espace affineVde dimensionrtel queX2Vp.s.
1Démonstration.On a vu que, pour toutu2Rd,Var(hu;Xi) =tuXu. Et une variable aléatoire de carré
intégrable est constante p.s. (égale à sa moyenne p.s.) si, et seulement si sa variance est nulle. En particulier,
tuXu= 0si, et seulement sihu;Xi=hu;mip.s., ce qui équivaut à dire queXm?up.s.. En appliquant ceci à toute base orthogonale deRdqui commence par une base dekerX, on obtient queX2m+kerX
?p.s.. (ker =fx2Rdjx= 0g=fx2Rdjtxx= 0gsiest symétrique positive) et quem+ (kerX)?est le plus petit sous-espace pour lequel c"est vérifié, d"où la proposition.2 Vecteurs gaussiensSoitZ=tZ1Zd, oùZ1;:::;Zdsont des variables aléatoires indépendantes de loiN(0;1),mun vecteur de
Rd, etune matrice symétrique positive de tailled. On choisit une matrice carréeAtelle queAtA= . Par ce
qui précède,X=m+AZest un vecteur aléatoire tel que mX=metX=AZtA=AIdtA= :
Calculons la fonction caractéristique deX. Pour toutu2Rd, on a t uX=tum+tuAZ=tum+t(tAu)Z donc (en notanth;ile produit scalaire usuel deRdpour simplifier les notations)X(u) =E[eituX] =eihu;miZ(tAu):
Les composantes deZsont indépendantes et de loiN(0;1)doncZ(u) = X1(u1)Xd(ud) =e12
u2 1e12u2 d=e12 kuk2=e12 tuu:
On en déduit
X(u) =eihu;mie12
tuAtAu=eihu;mie12 tuu:On remarque notamment que la dernière expression ne dépend pas du choix deA, donc la loi deXnon plus.
X=m+AZest appelé unvecteur gaussiende moyennemet de covarianceet sa loi est appeléeloi gaussienne
de moyennemet de covariance, abrégée enN(m;). La loi deZ, à savoirN(0;Id)est appeléeloi gaussienne
standard deRd.La proposition suivante caractérise les vecteurs gaussiens, c"est-à-dire suivant une loiN(m;)pour certain
vecteurmet un certaine matrice symétrique positive: Proposition 2.SoitXun vecteur aléatoire deRd.Xest un vecteur gaussien si, et seulement si toute combinaison linéaire de composantes deXsuit une loi gaussienne (surR).Démonstration.Une combinaison linéaire des composantes deXs"écritha;Xi=taXoùa2Rd. Simetsont
l"espérance et la variance deX(qui existent sous chacune des deux hypothèses), alorsE[ha;Xi] =ha;miet
Var(ha;Xi) =taa(vu dans la partie 1).
Ainsi,ha;Xisuit une loi gaussienne pour touta2Rdsi, et seulement si, pour touta2Rdsa fonction caractéristique est ha;Xi(u) =eiuha;mie12 (taa)u2=eihua;mie12 t(ua)(ua) etXest un vecteur gaussien si, et seulement si sa fonction caractéristique estX(a) =eiha;mie12
taa:Comme, de façon générale,ha;Xi(u) = X(ua), l"équivalence entre les deux propriétés précédentes se déduit
immédiatement, d"où la conclusion.Cette proposition permet de définir des vecteurs gaussiens dans un espace de dimension infinie.
La définition implique que siX N(m;)et siAest une matrice de taille(p;d)etb2Rd, alorsAX+bN(am+b;AtA). (La définition montre que c"est un vecteur gaussien et ses paramètres se calculent comme
dans la première partie) En particulier, siZest un vecteur gaussien standard etPest une matrice orthogonale (PtP=Id), alorsPZest encore un vecteur gaussien standard. Autrement dit, la loi gaussienne standard (et plus généralement
2N(0;2Id)) est invariante par les rotations de centreO(et par les symétries orthogonales d"axe passant par
l"origine). Cette propriété se voit aussi sur la densité de la loi : elle est radiale. SiZ N(0;Id), on sait queZa pour densitéz7!1p2ez211p2ez2
d= (2)d=2e12 kzk2puisque les compo- santes sont indépendantes. Pour le vecteur gaussienX=m+AZ N(m;)(où =AtA), la proposition 1montre que sin"est pas inversible,Xne peut pas avoir de densité. En revanche, siest inversible, un
changement de variable montre queXa pour densité fX:x7!1p(2)ddete12
t(xm)1(xm): Siest diagonale, alors les composantesX1;:::;Xdd"un vecteurX N(m;)sont indépendantes. Celase voit sur la densité ci-dessus. Ou simplement parce que dans ce cas on peut prendreA= diag(1;:::;d)
d"oùXi=mi+iZi. La réciproque est toujours vraie. Ainsi, les composantes d"un vecteur gaussien sont
indépendantes si, et seulement si sa matrice de covariance est diagonale. Le théorème de Cochran généralise
cette remarque. Théorème 1 -Théorème de Cochran.SoitX N(m;2Id), etRd=E1?:::?Erune décomposition de Rden sous-espaces (affines) orthogonaux. Pourk= 1;:::;r, on notedkla dimension deEk, etPkla projection
orthogonale surEk. Alors les variables aléatoiresY1=P1X1,...,Yr=PrXsont indépendantes, et Y k N(Pkm;2Pk)et12kYkPkmk22d
k:Dans l"énoncé,2dest la loi du2(khi-deux) àddegrés de liberté, c"est-à-dire par définition la loi de la variable
aléatoireZ21++Z2roùZ1;:::;Zrsont i.i.d. de loiN(0;1).Démonstration.Il suffit de montrer l"indépendance. La suite en résulte (avec ce qui précède, et le fait que
P tP=P2=Ppour toute projection orthogonaleP). Pourk= 1;:::;r, on choisit une base orthonormale(ek;1;:::;ek;dk)deEk, de sorte que(e1;:::;ed) =(e1;1;:::;e1;d1;:::;er;1;:::;er;dr)est une base orthonormale deRd. Les variables aléatoireshX;eii,i= 1;:::;d,
sont les composantes deXdans cette base. Or la loi deXest invariante par les applications orthogonales (vu
plus haut) donc en particulier par les changements de base entre bases orthonormales. Par suite, les variables
aléatoireshX;eii,i= 1;:::;d, sont i.i.d. de loiN(hm;eii;2). CommeYk=PkX=Ak+hX;ek;1iek;1++hX;ek;dkiek;dk, oùAk=Pk0, l"indépendance annoncée résultede la propriété d"" indépendance par paquets » :Y1,...,Yrdépendent respectivement de paquets de variables
disjoints parmi une famille de variables indépendantes, donc sont indépendantes entre elles.Remarque. On n"a donné qu"un cas particulier du théorème de Cochran, qui est le cas usuel. L"énoncé général
(dont la preuve est essentiellement identique) supposeX N(m;)oùest inversible etRd=E1? ?Erausens du produit scalaire(u;v)7! hu;vi=tuv, et conclut que les projections orthogonales (au sens de ce même
produit scalaire) deXsurE1,...,Ersont indépendantes. Les variableskYkPkmk2ne suivent cependant pas des
lois du2(ce sont des sommes de variablesN(0;1)pondérées par les valeurs propres des différents sous-espaces), et
la variance deYkestPktPk.Enfin, les lois gaussiennes surRdinterviennent dans la généralisation du théorème central limite aux variables
aléatoires à valeurs dansRd:Théorème 2 -Théorème central limite multidimensionnel.SoitX1;X2;:::une suite de vecteurs aléa-
toires à valeurs dansRd, i.i.d., de carré intégrable, de moyennemet de variance. Alors 1pn (X1+X2++Xnnm)(loi)!nN(0;):Démonstration.Même preuve que la version réelle. En remplaçantXiparXimon se ramène àm= 0. Soit
u2Rd. On a 1pn (X1+X2++Xn)(u) = Xupn n (oùX= X1). On a le développement limitéX(t) = 112
ttt+ot!0ktk2; 3 d"où 1pn (X1+X2++Xn)(u) =112ntuu+on
1n n !nexp 12 tuu NB : On a utilisé(1zn=n)n= exp(nLn(1zn=n))!nexp(c)où(zn)nest une suitecomplexetelle que zn!ncetLnest la détermination principale du logarithme complexe. L"égalité est vraie dès quej1zn=nj<1,
donc pourngrand, et la limite vient deLn(1z) z, quandz!0,z2C. (Si on définitz7!Ln(1z) = P1 k=11kzksurD(0;1), c"est une série entière qui coïncide avecx7!ln(1x)sur]0;1[; elle vérifie donc
exp(Ln(1z)) = 1zpourz2]0;1[et, par unicité du prolongement analytique, pour toutz2D(0;1); et Ln(1z) zquandz!0vu le premier terme du développement en série entière. )4 Université Paris 13, Institut Galilée Préparation à l"agrégationAnnée universitaire 2012-2013
Notions de statistiquesRappels sur les vecteurs gaussiensSoitd2N. Unvecteur gaussienest un vecteur aléatoire à valeurs dansRddont toutes les combinaisons
affines des composantes suivent des lois normales. La loi d"un tel vecteur aléatoire est caractérisée par sa moyenne
met sa matrice de covariance, on la noteN(m;).Pour toute matriceAde taille(p;d)et toutb2Rp,
siX N(m;)alorsAX+b N(Am+b;AtA): En particulier, si =AtA(Aest appelée une racine carrée de), et siX N(0;Id)alorsm+AX N(m;).Ceci permet de toujours se ramener au casN(0;Id), laloi gaussienne standard deRd, où les composantes sont
indépendantes et de loiN(0;1).Autre conséquence, siX N(0;2Id)etAest une matrice orthogonale (rotation, symétrie orthogonale),
A tA=IddoncAXa même loi queX. Le théorème suivant s"en déduit. Théorème 3 -Théorème de Cochran.SoitX N(m;2Id), etRd=E1?:::?Erune décomposition de Rden sous-espaces (affines) orthogonaux. Pourk= 1;:::;r, on notedkla dimension deEk, etPkla projection
orthogonale surEk. Alors les variables aléatoiresY1=P1X1,...,Yr=PrXsont indépendantes, Y k N(Pkm;2Pk)et12kYkPkmk22d
k: (voir à la fin pour la définition de la loi2d k) Démonstration.En remplaçantXparXm, on peut supposer quem= 0.Pourk= 1;:::;r, on note(fk;1;:::;fk;dk)une base orthonormale deEk, de sorte que leur concaténation fournit
une base orthonormale(f) = (f1;:::;fd)deRd. Le vecteur 0 B @hX;f1i hX;fdi1 C A des composantes deXdans la base(f)est l"image deXpar une application orthogonale (l"application dechangement de baseAdéfinie parA(fi) =eioù(e1;:::;ed)est la base canonique deRd). Par conséquent, ce
vecteur a même loi queX, c"est-à-dire que ses composantes sont indépendantes et suivent la loiN(0;2). Or
chacune des projections Y k=PkX=hX;fk;1ifk;1++hX;fk;dkifk;dkpourk= 1;:::;r, ne dépend que d"une sous-famille de composantes du vecteur précédent, et ces sous-familles
sont disjointes les unes des autres, doncY1;:::;Yrsont indépendantes (propriété d"indépendance " par pa-
quets »). De plus, on aYk=PkX N(0;2PktPk)etPktPk=P2k=Pk(projection orthogonale), et kYkk2=jhX;fk;1ij2++jhX;fk;dkij2 d"où l"on déduit la deuxième partie vu la définition de2d k.1 Principes généraux : estimation et testL"objet des statistiques (plus exactement, des statistiquesmathématiques, ouinférentielles) est de déduire de
l"observation de données supposées aléatoires des informations sur la loi de celles-ci.On se restreint dans la suite au cas où les données observées sont des réalisations denvariables aléatoires
X1,...,Xnindépendantes et de même loisurRd. On dit que(X1;:::;Xn)est un échantillon de taillen.
On peut globalement distinguer deux types de problématiques : 1- l"estimation d"une grandeur numérique dépendant de(son espérance, sa variance,...) : c"est une approche
quantitative. Les notions concernées sont lesestimateurset lesrégions de confiance.- confirmer ou infirmer des hypothèses sur la loi(Son espérance est-elle égale à5?est-elle une loi de
Poisson?(surRd) est-elle une loi produit?...) : c"est une approchequalitative. Notons que cela revient à
estimer des grandeurs discrètes dépendant de(autrement dit, des fonctions indicatrices). La notion qui s"y
rattache est celle detest d"hypothèse.1.1 Estimation
1.1.1 Estimateurs
Supposons que l"on souhaite estimer la valeur d"une quantité2Rddépendant de. Typiquement, son espérance
ou sa variance. Unestimateurdeest une variable aléatoirebà valeurs dansRd, qui dépend deX1,...,Xn. Il
estconsistant(resp.fortement consistant) sib!quandn! 1en probabilité (resp. presque sûrement).quotesdbs_dbs35.pdfusesText_40[PDF] produit scalaire vecteur 3d
[PDF] le resultat d'une multiplication s'appelle
[PDF] division vocabulaire
[PDF] vocabulaire multiplication
[PDF] loi géométrique probabilité exercices
[PDF] la santé définition
[PDF] fonction de répartition loi discrète
[PDF] les termes de la division
[PDF] difference entre loi binomiale et hypergeometrique
[PDF] fonction de répartition loi de bernoulli
[PDF] résultat d'une multiplication
[PDF] loi hypergéométrique calculatrice
[PDF] loi de bernoulli exemple
[PDF] nom resultat addition