7 Efficience de l'estimateur MCO sous l'homoscédasticité 54 sans biais, il faut en principe inclure toutes les variables qui pourraient aider `a prédire Yi et qui
Previous PDF | Next PDF |
[PDF] ECONOMETRIE LINEAIRE - CREST
2 2 1 Quand l'estimateur des mco est-il sans biais? On s'intéresse d'abord aux conditions sous lesquelles l'espérance de l'estimateur des mco coïncide avec la
[PDF] Econométrie - Lyon 2
Les estimateurs des MCO de la régression sont sans biais et convergents On propose comme estimateur sans biais de la variance de l'erreur : ˆσ2 ε = ∑ i ˆε2
[PDF] Le modèle de regression simple - Université du Maine
Theorem (L'estimateur des MCO est sans biais ) Sous les hypothèses SLR1- SLR4 : E(ˆp1 ) = p1 et E(
[PDF] Chapitre 3 Analyse de la regression multiple : estimation
qui lie la variable dépendante aux variables explicatives ▻ L'hypothèse (7) implique que les MCO sont sans biais ▻ Des erreurs de mesure sur les variables
[PDF] Le modèle linéaire général simple à deux variables - FOAD - MOOC
Les estimateurs des MCO sont des estimateurs linéaires, sans biais et de variance minimale Ils sont dits estimateurs BLUE (Best Linear Unbiased Estimator) 3 4
[PDF] ECO 4272 : Introduction `a léconométrie Notes sur la - Steve Ambler
7 Efficience de l'estimateur MCO sous l'homoscédasticité 54 sans biais, il faut en principe inclure toutes les variables qui pourraient aider `a prédire Yi et qui
[PDF] Régression linéaire - Laboratoire de Probabilités, Statistique et
Théorème 3 (Gauss-Markov) Parmi les estimateurs sans biais linéaires en y, les estimateurs ˆ βj sont de variances minimales Preuve L'estimateur des MCO s'
[PDF] Econométrie I - ORBi
2 3 Ecriture matricielle du modèle et de l'estimateur MCO 21 2 3 1 Vecteurs 3 2 2 Le meilleur estimateur linéaire sans biais de β 37 3 3 La distribution
[PDF] estimation charges projet informatique
[PDF] estimation comptable definition
[PDF] estimation d'une proportion par intervalle de confiance
[PDF] estimation de la moyenne d'une population
[PDF] estimation des coûts de construction
[PDF] estimation des domaines marge de négociation
[PDF] estimation des effets des changement des prix du pétrole sur la croissance économique
[PDF] estimation domaines bien immobilier
[PDF] estimation immobilière
[PDF] estimation maison notaire
[PDF] estimation moindre carré matlab
[PDF] estimation non paramétrique de la densité avec r
[PDF] estimation par noyau
[PDF] estimation par noyau d'une fonction densité
ECO 4272 : Introduction
`a l"´econom´etrieNotes sur la R
´egression Multiple
Steve Ambler
D´epartement des sciences´economiques
´Ecole des sciences de la gestion
Universit
´e du Qu´ebec`a Montr´eal
c2018 : Steve Ambler
Hiver 2018
Ces notes sont en cours de d´eveloppement. J"ai besoin de vos commentaires et de vos suggestions pour
les am ´eliorer. Vous pouvez me faire part de vos commentaires en personne ou en envoyant un message`a ambler.steven@uqam.ca. 1Table des mati
`eres1 Introduction
42 Biais d
ˆu`a une variable omise4
2.1 Exemple
6 3 Mod `ele de r´egression multiple103.1 Sp
´ecification. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103.2 Sp
´ecification matricielle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113.3 Hypoth
`eses de base du mod`ele. . . . . . . . . . . . . . . . . . . . . . . . . . . . 123.4 Estimateur MCO
143.4.1 Diff
´erentiation matricielle. . . . . . . . . . . . . . . . . . . . . . . . . . 163.4.2 Quelques exemples simples des r
`egles de diff´erentiation. . . . . . . . . . 183.5 Approche non matricielle au probl
`eme de minimisation. . . . . . . . . . . . . . . 204 Propri
´et´es alg´ebriques de l"estimateur MCO234.1 Orthogonalit
´e. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234.2 Somme des r
´esidus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254.3 Valeurs pr
´edites. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254.4´Ecart type de la r´egression. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.5 Mesures d"ajustement statistique
274.5.1 LeR2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .27
4.5.2 LeR2ajust´e. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5 Propri
´et´es statistiques de l"estimateur MCO37
5.1 Propri
´et´es statistiques : absence de biais. . . . . . . . . . . . . . . . . . . . . . . 375.2 Petite note : th
´eor`eme de Slutsky. . . . . . . . . . . . . . . . . . . . . . . . . . . 385.3 Propri
´et´es statistiques : convergence. . . . . . . . . . . . . . . . . . . . . . . . . 395.4 Petite note sur les covariances en notation matricielle
455.5 Propri
´et´es statistiques : distribution en grand´echantillon. . . . . . . . . . . . . . 465.5.1 Cas homosc
´edastique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 496 Variance
´echantillonnale de^49
6.1 Cas homosc
´edastique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 526.2 Homosc
´edasticit´e versus H´et´erosc´edasticit´e. . . . . . . . . . . . . . . . . . . . . 53
7 Efficience de l"estimateur MCO sous l"homosc
´edasticit´e54
7.1 Preuve du th
´eor`eme Gauss-Markov. . . . . . . . . . . . . . . . . . . . . . . . . . 558 Biais d
ˆu`a des variables omises (bis)57
9 Tests d"hypoth
`eses et ensembles de confiance659.1 Tests d"hypoth
`eses simples par rapport`a un seul coefficient. . . . . . . . . . . . . 659.2 Tests d"hypoth
`eses simples par rapport`a une combinaison lin´eaire de coefficients. 679.2.1 M
´ethode indirecte. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 29.2.2 M
´ethode directe. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 699.3 Pourquoi les tests s
´equentiels ne sont pas valides. . . . . . . . . . . . . . . . . . 709.4 Tests d"hypoth
`eses jointes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 719.5 Que faire lorsque^^n"est pas disponible?. . . . . . . . . . . . . . . . . . . . . . 74
9.6 Une seule restriction comme un cas sp
´ecial. . . . . . . . . . . . . . . . . . . . . 759.7 Significativit
´e de la r´egression. . . . . . . . . . . . . . . . . . . . . . . . . . . . 799.8 Tests d"hypoth
`ese en pr´esence d"homosc´edasticit´e. . . . . . . . . . . . . . . . . . 809.9 Test de significativit
´e de la r´egression dans le cas homosc´edastique. . . . . . . . . 889.10 Tests exacts
899.11 Ensembles de confiance
9010 Multicollin
´earit´e91
10.1 Multicollin
´earit´e parfaite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9110.2 Multicollin
´earit´e imparfaite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9310.3 Trucs pratiques
9611 Un Exemple
9712 Un Autre Exemple
10213 Concepts
`a retenir119 14 R´ef´erences121
31 Introduction
Dans ce chapitre sur le mod
`ele de r´egression multiple, il n"y a presque rien de fondamentalement nouveau par rapport au mod `ele de r´egression simple. Une lecture de la table des mati`eres de ces notes servira `a vous convaincre que ce sont les mˆemes sujets qui reviennent. C"est comme si on allait r ´eapprendre la mati`ere sur le mod`ele de r´egression simple mais en notation matricielle.C"est donc une bonne occasion de faire de la r
´evision, surtout en ce qui concerne les propri´et´es de l"estimateur MCO. `A peu pr`es le seul aspect novateur (`a part la notation matricielle elle-mˆeme) sera l"id´ee de tester des hypoth`eses jointes (et une notion qui y est tr`es reli´ee, celle des ensembles
de confiance). 1 Une fois la notation matricielle apprise, toutes les d´erivations alg´ebriques concernant les
propri´et´es alg´ebriques de l"estimateur MCO et les propri´et´es statistiques de l"estimateur MCO
sontplus simplesen notation matricielle qu"en notation de sommations. J"esp`ere vous convaincre de ce principe avant de terminer notre ´etude sur le mod`ele de r´egression multiple.2 Biais d
ˆu`a une variable omise
On peut motiver le mod
`ele de r´egression multiple en montrant que, si nous voulons analyser l"impact d"une variable explicative sur une variable d´ependante et si nous omettons une ou des
variables qui ont un impact sur la variable d ´ependante, notre estim´e de cet impact sera en g´en´eral biais´e, dans la mesure o`u la corr´elation entre cette variable omise ou ces variables omises et la
variable explicative du mod `ele est non nulle.Cela veut dire que, m
ˆeme si nous ne nous int´eressons pas particuli`erement`a l"impact de ces variables omises, il faut n ´eanmoins en tenir compte dans notre mod`ele de r´egression afin d"obtenir un estim ´e non biais´e de l"impact de notre variable d"int´erˆet (pour utiliser l"exempleempirique du manuel, l"impact de la taille moyenne des classes sur le rendement scolaire).1. Le concept de tester une hypoth
`ese simple qui porte sur unecombinaisonde coefficients est nouveau aussi, mais nous allons montrer comment transformer le mod `ele de r´egression multiple pour traiter ce cas comme un test d"une hypoth `ese nulle qui porte sur un seul coefficient. Voir la sous-section9.2 . 4On sait
`a partir de notre´etude du mod`ele de r´egression simple, que l"estimateur du coefficient de pente1est´egal`a :1=1+1n
P n i=1XiXui1 n P n i=1XiX2:Maintenant, on modifie nos hypoth
`eses statistiques par rapport au mod`ele de r´egression simpleetudi´e dans le dernier chapitre. On n"impose plus que l"esp´erance (conditionnelle`a la valeur
observ ´eeXi) soit´egale`a z´ero. Maintenant, on a : 1n n X i=1XiXuip!Cov(u ; X) =Corr(u ; X)uX;
et 1n n X i=1XiX2p!2X:
Donc, par le th
´eor`eme de Slutsky (voir la section5.2 ci-dessous), ce qui nous permet d" ´etudier s´epar´ement les propri´et´es en grand´echantillon du num´erateur et du d´enominateur du deuxi`eme
terme dans l"expression pour la valeur de notre estimateur ^1, on a :1p!1+Corr(u ; X)uX
2X=1+Corr(u ; X)u
X: L"estimateur n"est plus convergent. Il y a un biais, mˆeme asymptotiquement (lorsque le nombre
d"observations tend vers l"infini). Le signe du biais d´epend du signe de la corr´elation entre la
variable explicativeXiet le terme d"erreurui.Notez que, dans ce cas, les hypoth
`eses de base du mod`ele ne sont pas respect´ees. La variable omise, qui est incluse dans le terme d"erreur du mod `ele, est corr´el´ee avec la variable explicative du mod `eleX. Autrement dit, l"hypoth`eseE(uijX=Xi) = 0
ne tient plus. Dans le cadre d"une ´etude empirique, il faut´evaluer la plausibilit´e de cette 5 hypoth `ese avec les donn´ees qu"on a. S"il y a une variable dans la banque de donn´ees qui en principe pourrait affecter la variable d ´ependante de l"´etude et qui risque d"ˆetre corr´el´ee avec une variable qui est incluse comme variable explicative dans le mod `ele, il y a probablement un probl `eme de variable omise.2 Une solution possible est d"inclure les variables omises explicitement comme variables explicatives additionnelles dans le mod `ele de r´egression. Le mod`ele de r´egression simple devient un mod `ele de r´egression multiple. Nous verrons dans la section suivante la sp´ecification du mod `ele de r´egression multiple et les hypoth`eses standard qui permettront, comme dans le mod`ele de r´egression simple, de d´emontrer certaines propri´et´es souhaitables de l"estimateur MCO des
coefficients.2.1 Exemple
Nous pouvons
ˆetre encore plus explicites. Supposons que le vrai mod`ele est donn´e par Y i=0+1X1i+2X2i+ui tandis que le mod `ele estim´e est Y i=0+1X1i+ ~ui o `u ~ui2X2i+ui:Le terme d"erreur du mod
`ele estim´e incorpore la variable omiseX2iavec le vrai terme d"erreur u i. Nous avons 1=1n P n i=1X1iX1YiY1 n P n i=1X1iX122. Dans des cours plus avanc
´es, vous allez apprendre des fac¸ons formelles de tester l"absence de corr´elation entre les variables explicatives du mod `ele et le terme d"erreur. Voir par exemple McFadden (2002). Sans ces m´ethodologies avanc ´ees, il faut se fier`a la logique et`a son intuition. 6 1n P n i=1X1iX10+1X1i+2X2i+ui01X12X2u1 n P n i=1X1iX1 2 =11n P n i=1X1iX1 21n P n i=1X1iX1 2+21n P n i=1X1iX1X2iX21 n P n i=1X1iX1 2 1n P n i=1X1iX1(uiu)1 n P n i=1X1iX1 2 =1+21n P n i=1X1iX1X2iX21 n P n i=1X1iX1 2+1n P n i=1X1iX1(uiu)1 n P n i=1X1iX1 2: