[PDF] [PDF] ECO 4272 : Introduction `a léconométrie Notes sur la - Steve Ambler

7 Efficience de l'estimateur MCO sous l'homoscédasticité 54 sans biais, il faut en principe inclure toutes les variables qui pourraient aider `a prédire Yi et qui



Previous PDF Next PDF





[PDF] ECONOMETRIE LINEAIRE - CREST

2 2 1 Quand l'estimateur des mco est-il sans biais? On s'intéresse d'abord aux conditions sous lesquelles l'espérance de l'estimateur des mco coïncide avec la  



[PDF] Econométrie - Lyon 2

Les estimateurs des MCO de la régression sont sans biais et convergents On propose comme estimateur sans biais de la variance de l'erreur : ˆσ2 ε = ∑ i ˆε2



[PDF] Le modèle de regression simple - Université du Maine

Theorem (L'estimateur des MCO est sans biais ) Sous les hypothèses SLR1- SLR4 : E(ˆp1 ) = p1 et E( 



[PDF] Chapitre 3 Analyse de la regression multiple : estimation

qui lie la variable dépendante aux variables explicatives ▻ L'hypothèse (7) implique que les MCO sont sans biais ▻ Des erreurs de mesure sur les variables 



[PDF] Le modèle linéaire général simple à deux variables - FOAD - MOOC

Les estimateurs des MCO sont des estimateurs linéaires, sans biais et de variance minimale Ils sont dits estimateurs BLUE (Best Linear Unbiased Estimator) 3 4 



[PDF] ECO 4272 : Introduction `a léconométrie Notes sur la - Steve Ambler

7 Efficience de l'estimateur MCO sous l'homoscédasticité 54 sans biais, il faut en principe inclure toutes les variables qui pourraient aider `a prédire Yi et qui



[PDF] Régression linéaire - Laboratoire de Probabilités, Statistique et

Théorème 3 (Gauss-Markov) Parmi les estimateurs sans biais linéaires en y, les estimateurs ˆ βj sont de variances minimales Preuve L'estimateur des MCO s' 



[PDF] Econométrie I - ORBi

2 3 Ecriture matricielle du modèle et de l'estimateur MCO 21 2 3 1 Vecteurs 3 2 2 Le meilleur estimateur linéaire sans biais de β 37 3 3 La distribution 

[PDF] estimation bien immobilier notaire

[PDF] estimation charges projet informatique

[PDF] estimation comptable definition

[PDF] estimation d'une proportion par intervalle de confiance

[PDF] estimation de la moyenne d'une population

[PDF] estimation des coûts de construction

[PDF] estimation des domaines marge de négociation

[PDF] estimation des effets des changement des prix du pétrole sur la croissance économique

[PDF] estimation domaines bien immobilier

[PDF] estimation immobilière

[PDF] estimation maison notaire

[PDF] estimation moindre carré matlab

[PDF] estimation non paramétrique de la densité avec r

[PDF] estimation par noyau

[PDF] estimation par noyau d'une fonction densité

ECO 4272 : Introduction

`a l"´econom´etrie

Notes sur la R

´egression Multiple

Steve Ambler

D

´epartement des sciences´economiques

´Ecole des sciences de la gestion

Universit

´e du Qu´ebec`a Montr´eal

c

2018 : Steve Ambler

Hiver 2018

Ces notes sont en cours de d´eveloppement. J"ai besoin de vos commentaires et de vos suggestions pour

les am ´eliorer. Vous pouvez me faire part de vos commentaires en personne ou en envoyant un message`a ambler.steven@uqam.ca. 1

Table des mati

`eres

1 Introduction

4

2 Biais d

ˆu`a une variable omise4

2.1 Exemple

6 3 Mod `ele de r´egression multiple10

3.1 Sp

´ecification. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

3.2 Sp

´ecification matricielle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

3.3 Hypoth

`eses de base du mod`ele. . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

3.4 Estimateur MCO

14

3.4.1 Diff

´erentiation matricielle. . . . . . . . . . . . . . . . . . . . . . . . . . 16

3.4.2 Quelques exemples simples des r

`egles de diff´erentiation. . . . . . . . . . 18

3.5 Approche non matricielle au probl

`eme de minimisation. . . . . . . . . . . . . . . 20

4 Propri

´et´es alg´ebriques de l"estimateur MCO23

4.1 Orthogonalit

´e. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

4.2 Somme des r

´esidus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

4.3 Valeurs pr

´edites. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

4.4´Ecart type de la r´egression. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

4.5 Mesures d"ajustement statistique

27

4.5.1 LeR2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .27

4.5.2 LeR2ajust´e. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

5 Propri

´et´es statistiques de l"estimateur MCO37

5.1 Propri

´et´es statistiques : absence de biais. . . . . . . . . . . . . . . . . . . . . . . 37

5.2 Petite note : th

´eor`eme de Slutsky. . . . . . . . . . . . . . . . . . . . . . . . . . . 38

5.3 Propri

´et´es statistiques : convergence. . . . . . . . . . . . . . . . . . . . . . . . . 39

5.4 Petite note sur les covariances en notation matricielle

45

5.5 Propri

´et´es statistiques : distribution en grand´echantillon. . . . . . . . . . . . . . 46

5.5.1 Cas homosc

´edastique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

6 Variance

´echantillonnale de^49

6.1 Cas homosc

´edastique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

6.2 Homosc

´edasticit´e versus H´et´erosc´edasticit´e. . . . . . . . . . . . . . . . . . . . . 53

7 Efficience de l"estimateur MCO sous l"homosc

´edasticit´e54

7.1 Preuve du th

´eor`eme Gauss-Markov. . . . . . . . . . . . . . . . . . . . . . . . . . 55

8 Biais d

ˆu`a des variables omises (bis)57

9 Tests d"hypoth

`eses et ensembles de confiance65

9.1 Tests d"hypoth

`eses simples par rapport`a un seul coefficient. . . . . . . . . . . . . 65

9.2 Tests d"hypoth

`eses simples par rapport`a une combinaison lin´eaire de coefficients. 67

9.2.1 M

´ethode indirecte. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 2

9.2.2 M

´ethode directe. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

9.3 Pourquoi les tests s

´equentiels ne sont pas valides. . . . . . . . . . . . . . . . . . 70

9.4 Tests d"hypoth

`eses jointes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

9.5 Que faire lorsque^^n"est pas disponible?. . . . . . . . . . . . . . . . . . . . . . 74

9.6 Une seule restriction comme un cas sp

´ecial. . . . . . . . . . . . . . . . . . . . . 75

9.7 Significativit

´e de la r´egression. . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

9.8 Tests d"hypoth

`ese en pr´esence d"homosc´edasticit´e. . . . . . . . . . . . . . . . . . 80

9.9 Test de significativit

´e de la r´egression dans le cas homosc´edastique. . . . . . . . . 88

9.10 Tests exacts

89

9.11 Ensembles de confiance

90

10 Multicollin

´earit´e91

10.1 Multicollin

´earit´e parfaite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

10.2 Multicollin

´earit´e imparfaite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

10.3 Trucs pratiques

96

11 Un Exemple

97

12 Un Autre Exemple

102

13 Concepts

`a retenir119 14 R

´ef´erences121

3

1 Introduction

Dans ce chapitre sur le mod

`ele de r´egression multiple, il n"y a presque rien de fondamentalement nouveau par rapport au mod `ele de r´egression simple. Une lecture de la table des mati`eres de ces notes servira `a vous convaincre que ce sont les mˆemes sujets qui reviennent. C"est comme si on allait r ´eapprendre la mati`ere sur le mod`ele de r´egression simple mais en notation matricielle.

C"est donc une bonne occasion de faire de la r

´evision, surtout en ce qui concerne les propri´et´es de l"estimateur MCO. `A peu pr`es le seul aspect novateur (`a part la notation matricielle elle-mˆeme) sera l"id

´ee de tester des hypoth`eses jointes (et une notion qui y est tr`es reli´ee, celle des ensembles

de confiance). 1 Une fois la notation matricielle apprise, toutes les d

´erivations alg´ebriques concernant les

propri

´et´es alg´ebriques de l"estimateur MCO et les propri´et´es statistiques de l"estimateur MCO

sontplus simplesen notation matricielle qu"en notation de sommations. J"esp`ere vous convaincre de ce principe avant de terminer notre ´etude sur le mod`ele de r´egression multiple.

2 Biais d

ˆu`a une variable omise

On peut motiver le mod

`ele de r´egression multiple en montrant que, si nous voulons analyser l"impact d"une variable explicative sur une variable d

´ependante et si nous omettons une ou des

variables qui ont un impact sur la variable d ´ependante, notre estim´e de cet impact sera en g´en´eral biais

´e, dans la mesure o`u la corr´elation entre cette variable omise ou ces variables omises et la

variable explicative du mod `ele est non nulle.

Cela veut dire que, m

ˆeme si nous ne nous int´eressons pas particuli`erement`a l"impact de ces variables omises, il faut n ´eanmoins en tenir compte dans notre mod`ele de r´egression afin d"obtenir un estim ´e non biais´e de l"impact de notre variable d"int´erˆet (pour utiliser l"exemple

empirique du manuel, l"impact de la taille moyenne des classes sur le rendement scolaire).1. Le concept de tester une hypoth

`ese simple qui porte sur unecombinaisonde coefficients est nouveau aussi, mais nous allons montrer comment transformer le mod `ele de r´egression multiple pour traiter ce cas comme un test d"une hypoth `ese nulle qui porte sur un seul coefficient. Voir la sous-section9.2 . 4

On sait

`a partir de notre´etude du mod`ele de r´egression simple, que l"estimateur du coefficient de pente1est´egal`a :

1=1+1n

P n i=1XiXui1 n P n i=1XiX2:

Maintenant, on modifie nos hypoth

`eses statistiques par rapport au mod`ele de r´egression simple

etudi´e dans le dernier chapitre. On n"impose plus que l"esp´erance (conditionnelle`a la valeur

observ ´eeXi) soit´egale`a z´ero. Maintenant, on a : 1n n X i=1

XiXuip!Cov(u ; X) =Corr(u ; X)uX;

et 1n n X i=1

XiX2p!2X:

Donc, par le th

´eor`eme de Slutsky (voir la section5.2 ci-dessous), ce qui nous permet d" ´etudier s

´epar´ement les propri´et´es en grand´echantillon du num´erateur et du d´enominateur du deuxi`eme

terme dans l"expression pour la valeur de notre estimateur ^1, on a :

1p!1+Corr(u ; X)uX

2X=1+Corr(u ; X)u

X: L"estimateur n"est plus convergent. Il y a un biais, m

ˆeme asymptotiquement (lorsque le nombre

d"observations tend vers l"infini). Le signe du biais d

´epend du signe de la corr´elation entre la

variable explicativeXiet le terme d"erreurui.

Notez que, dans ce cas, les hypoth

`eses de base du mod`ele ne sont pas respect´ees. La variable omise, qui est incluse dans le terme d"erreur du mod `ele, est corr´el´ee avec la variable explicative du mod `eleX. Autrement dit, l"hypoth`ese

E(uijX=Xi) = 0

ne tient plus. Dans le cadre d"une ´etude empirique, il faut´evaluer la plausibilit´e de cette 5 hypoth `ese avec les donn´ees qu"on a. S"il y a une variable dans la banque de donn´ees qui en principe pourrait affecter la variable d ´ependante de l"´etude et qui risque d"ˆetre corr´el´ee avec une variable qui est incluse comme variable explicative dans le mod `ele, il y a probablement un probl `eme de variable omise.2 Une solution possible est d"inclure les variables omises explicitement comme variables explicatives additionnelles dans le mod `ele de r´egression. Le mod`ele de r´egression simple devient un mod `ele de r´egression multiple. Nous verrons dans la section suivante la sp´ecification du mod `ele de r´egression multiple et les hypoth`eses standard qui permettront, comme dans le mod`ele de r

´egression simple, de d´emontrer certaines propri´et´es souhaitables de l"estimateur MCO des

coefficients.

2.1 Exemple

Nous pouvons

ˆetre encore plus explicites. Supposons que le vrai mod`ele est donn´e par Y i=0+1X1i+2X2i+ui tandis que le mod `ele estim´e est Y i=0+1X1i+ ~ui o `u ~ui2X2i+ui:

Le terme d"erreur du mod

`ele estim´e incorpore la variable omiseX2iavec le vrai terme d"erreur u i. Nous avons 1=1n P n i=1X1iX1YiY1 n P n i=1X1iX1

22. Dans des cours plus avanc

´es, vous allez apprendre des fac¸ons formelles de tester l"absence de corr´elation entre les variables explicatives du mod `ele et le terme d"erreur. Voir par exemple McFadden (2002). Sans ces m´ethodologies avanc ´ees, il faut se fier`a la logique et`a son intuition. 6 1n P n i=1X1iX10+1X1i+2X2i+ui01X12X2u1 n P n i=1X1iX1 2 =11n P n i=1X1iX1 21
n P n i=1X1iX1 2+21n P n i=1X1iX1X2iX21 n P n i=1X1iX1 2 1n P n i=1X1iX1(uiu)1 n P n i=1X1iX1 2 =1+21n P n i=1X1iX1X2iX21 n P n i=1X1iX1 2+1n P n i=1X1iX1(uiu)1 n P n i=1X1iX1 2:

Calculant l"esp

´erance de^1, nous obtenons

E ^1 =1+2E 1n P n i=1X1iX1X2iX21 n P n i=1X1iX1 2! +E +1n P n i=1X1iX1E((uiu)jX11;X12;:::;X1n)1 n P n i=1X1iX1 2! =1+2E 1n P n i=1X1iX1X2iX21 n P n i=1X1iX1 2! par la loi des esp

´erances it´er´ees. En g´en´eral,

E 1n P n i=1X1iX1X2iX21 n P n i=1X1iX1 2! 6= 0:

L"estimateur est biais

´e, le biais´etant donn´e par la valeur de l"esp´erance dans l"´equation pr

´ec´edente.

Nous pouvons dire plus que cela, au moins asymptotiquement (lorsque la taille de l"

´echantillonn

tend vers l"infini). L"expression 1n n X i=1

X1iX1X2iX2

est tout simplement la covariance ´echantillonnale entreX1etX2. (C"est diff´erent par un facteur 7 den=(n1)qui est presqu"´egal`a un sinest grand.) L"expression 1n n X i=1 X1iX1 2 est tout simplement (ou presque) la variance ´echantillonnale deX1. Si les deux expressions sont des estimateurs convergents de leurs

´equivalents dans la population, nous avons :

1n n X i=1

X1iX1X2iX2

p!Cov(X1; X2) etquotesdbs_dbs6.pdfusesText_11