[PDF] [PDF] Chapitre 3 Analyse de la regression multiple : estimation

qui lie la variable dépendante aux variables explicatives ▻ L'hypothèse (7) implique que les MCO sont sans biais ▻ Des erreurs de mesure sur les variables 



Previous PDF Next PDF





[PDF] ECONOMETRIE LINEAIRE - CREST

2 2 1 Quand l'estimateur des mco est-il sans biais? On s'intéresse d'abord aux conditions sous lesquelles l'espérance de l'estimateur des mco coïncide avec la  



[PDF] Econométrie - Lyon 2

Les estimateurs des MCO de la régression sont sans biais et convergents On propose comme estimateur sans biais de la variance de l'erreur : ˆσ2 ε = ∑ i ˆε2



[PDF] Le modèle de regression simple - Université du Maine

Theorem (L'estimateur des MCO est sans biais ) Sous les hypothèses SLR1- SLR4 : E(ˆp1 ) = p1 et E( 



[PDF] Chapitre 3 Analyse de la regression multiple : estimation

qui lie la variable dépendante aux variables explicatives ▻ L'hypothèse (7) implique que les MCO sont sans biais ▻ Des erreurs de mesure sur les variables 



[PDF] Le modèle linéaire général simple à deux variables - FOAD - MOOC

Les estimateurs des MCO sont des estimateurs linéaires, sans biais et de variance minimale Ils sont dits estimateurs BLUE (Best Linear Unbiased Estimator) 3 4 



[PDF] ECO 4272 : Introduction `a léconométrie Notes sur la - Steve Ambler

7 Efficience de l'estimateur MCO sous l'homoscédasticité 54 sans biais, il faut en principe inclure toutes les variables qui pourraient aider `a prédire Yi et qui



[PDF] Régression linéaire - Laboratoire de Probabilités, Statistique et

Théorème 3 (Gauss-Markov) Parmi les estimateurs sans biais linéaires en y, les estimateurs ˆ βj sont de variances minimales Preuve L'estimateur des MCO s' 



[PDF] Econométrie I - ORBi

2 3 Ecriture matricielle du modèle et de l'estimateur MCO 21 2 3 1 Vecteurs 3 2 2 Le meilleur estimateur linéaire sans biais de β 37 3 3 La distribution 

[PDF] estimation bien immobilier notaire

[PDF] estimation charges projet informatique

[PDF] estimation comptable definition

[PDF] estimation d'une proportion par intervalle de confiance

[PDF] estimation de la moyenne d'une population

[PDF] estimation des coûts de construction

[PDF] estimation des domaines marge de négociation

[PDF] estimation des effets des changement des prix du pétrole sur la croissance économique

[PDF] estimation domaines bien immobilier

[PDF] estimation immobilière

[PDF] estimation maison notaire

[PDF] estimation moindre carré matlab

[PDF] estimation non paramétrique de la densité avec r

[PDF] estimation par noyau

[PDF] estimation par noyau d'une fonction densité

Chapitre 3 Analyse de la regression multiple : estimation

Chapitre 3

Analyse de la regression multiple : estimation

Econométrie Approfondie

Ahmed Tritah, Université du Maine

Septembre 2017

Chapitre 3 Analyse de la regression multiple : estimation

Introduction

I Di¢ cile dans le cadre de la regression simple d"évaluer l"impact dexsurytoutes choses égales par ailleursI La regression linéaire multiple (RLM) en contrôlant pour plusieurs facteurs, potentiellement corrélés, est plus à même

On peut expliquer une plus grande variation deyI

On peut faire le choix de formes de fonctionnelles plus ‡exibles Chapitre 3 Analyse de la regression multiple : estimation

Motivation

Le modèle avec deux variables indépendantes

I souhaite mesurer toutes choses égales par ailleurs salaire=b0+b1educ+b2exper+u(1)experest le nombre d"années d"expérience. Nécessaire de faire des hypothèses suru. Ce modèle extrait l"experience du terme d"erreuru.I individus qui ont le même niveau d"expérience.I Dans le modèle RLS l"expérience est contenue dansu)pour mesurerb1sans biais on doit faire l"hypothèse que l"expérience et l"éducation ne sont pas corrélées : Qu"en pensez-vous? Chapitre 3 Analyse de la regression multiple : estimation

Motivation

I Exemple 2: impact des dépenses par élève (expend) sur les résultats aux évaluations (avgscore)

On postule le modèle suivant:

avgscore=b0+b1expend+b2avginc+u(2) avgincdénote le revenu moyen de la famille,ules autres facteurs non observables.I En incluant le revenu moyen de la famille on contrôle pour son impact sur les performances scolaires.I

Pour quelles raisons cela est important?I

Dans le modèle RLS,avgincest dans le terme d"erreur.I Pour quelles raisons à votre avis cela peut biaiser l"estimation deb1? Chapitre 3 Analyse de la regression multiple : estimation

Motivation

I Le modèle RLM avec deux variables explicatives: y=b0+b1x1+b2x2+u(3)I ...xeI

Choix de formes fonctionnelles plus ‡exibles :

Ex. : consommation (cons) fonction quadratique du revenu (inc) cons=b0+b1inc+b2inc2+u(4)I Attention: ici la consommation dépend d"un seul facteur I Chapitre 3 Analyse de la regression multiple : estimation

Motivation

I

L"hpothèse centrale du modèle est:

E(ujx1,x2) =0 (5)I

Quelle que soit la valeur dex1etx2dans la population, la moyenne des non-observables est nulle.I Interprétation de (5) similaire à celle de l"hypothèse RLS4I Intéprétation de (5) dans les exemples précédentsI

Eq. (1) :E(ujeduc,exper) =0

Quel rôle jouent les aptitudes dans ce cas?I

Eq.(2) :E(ujexpend,avginc) =0 (discuttez cette hypothèse)I

Un cas particulier :E(ujinc,inc2) =E(ujinc) =0

Chapitre 3 Analyse de la regression multiple : estimation

Motivation

Le modèle avec k variables indépendantes

I

Le modèle RLM sur la population s"écrit

y=b0+b1x1+b2x2+b3x3+...+bkxk+u(6) uterme d"erreur (perturbations, non-observables) : facteurs La linéarité fait référence aux paramètresI Exemple : salaire des dirigants (salaire)en fonction des ventes (ventes) et de leur ancienneté (ceoten) ln(salaire) =b0+b1log(ventes) +b2ceoten+b3ceoten2+uI

Interprétez les coe¢ cients (exo).

Chapitre 3 Analyse de la regression multiple : estimation

Motivation

I

L"hypothèse centrale est:

E(ujx1,x2,...,xk) =0 (7)

uterme d"erreur (perturbations, non-observables) : facteurs Tous les facteurs contenus dans le terme d"erreur sont non-corrélés avec les explicatives du modèleI Mais aussi : spéci...cation correcte de la forme fonctionnelle qui lie la variable dépendante aux variables explicatives.I L"hypothèse (7) implique que les MCO sont sans biais.I Des erreurs de mesure sur les variables indépendantes (xj) peuvent invalider l"hypothèse (7). Chapitre 3 Analyse de la regression multiple : estimation

La mécanique et l"interprétation des MCO

Dérivation de l"estimateur des MCO

I Dans le cas général, aveckvariables explicatives, l"équation des MCO, appellé fonction de regression empirique ou droite des MCO, est :

ˆy=ˆb0+ˆb1x1+ˆb2x2+...+ˆbkxk, (8)I

Etant donné un échantillonf(xi1,xi2,...,xik,yi):i=1,...,ng, les MCO consistent à choisir les estimateursbjqui minimisent la somme des carrés des résidus : nå Restrictions sur les moments empiriques)un système de k+1 équations àk+1 inconnues : Chapitre 3 Analyse de la regression multiple : estimation

La mécanique et l"interprétation des MCO

n i=1(yiˆb0ˆb1xi1ˆb2xi2...ˆbkxik) =0(10) nå i=1x i1(yiˆb0ˆb1xi1ˆb2xi2...ˆbkxik) =0 nå i=1x i2(yiˆb0ˆb1xi1ˆb2xi2...ˆbkxik) =0 nå i=1x ik(yiˆb0ˆb1xi1ˆb2xi2...ˆbkxik) =0 I

Ce sont les conditions du premier ordre des MCOI

On suppose que la solutionfˆbj,j=1,...,kgdu système est unique. Chapitre 3 Analyse de la regression multiple : estimation

La mécanique et l"interprétation des MCO

Interprétation de l"équation des MCO

I

La droite de regression est :

ˆy=ˆb0+ˆb1x1+ˆb2x2+...+ˆbkxk, (11)I Les estimateursfˆbj,j=1,...,kgs"interprétent comme des Exemple: si toutes les variables, autres quex1,sont ...xes on a

Dˆy=ˆb1Dx1,(13)I

évalué "toutes choses égales par ailleurs". On mesure donc fxj,j=2,...,kg. Chapitre 3 Analyse de la regression multiple : estimation

La mécanique et l"interprétation des MCO

Exemple 3: résulats au BAC et réussite à l"université I Déterminants des résultats universitaires (colGPA), en fonction des résultats aux lycées (hsGPA) et des tests d"évaluation à l"entrée à l"université (ACT) colGPA=1,29+0,453hsGPA+0.094ACT,n=140 (14)I ...xe, une augmentation dehsGPAd"un point augmente les résultats moyens'1/2 point.I s3):...I

Modèle de régression simple :

colGPA=1,29+0,0271ACT Chapitre 3 Analyse de la regression multiple : estimation

La mécanique et l"interprétation des MCO

Exemple 4: Equation de salaire

I Salaire en fonction de l"éducation (educ) de l"expérience (exper) et l"ancienneté(tenure): log(salaire) =0,824+0,092educ+0.0041exper(15) +0,022tenure, n=526I

Interprétation : ...

Chapitre 3 Analyse de la regression multiple : estimation

La mécanique et l"interprétation des MCO

I Signi...cation de "toutes choses égales par ailleurs" dans la regression multiple : ...I On peut évaluer l"impact de plusieurs variables : exemple avec

équation de salaire...I

Question : dans l"exemple déjà présenté Eq. (14), si dans l"échantillonhsGPA=3,4;ACT=24,2;quelle est la valeurcolGAP? Chapitre 3 Analyse de la regression multiple : estimation

La mécanique et l"interprétation des MCO

Prédiction des MCO et résidus

I Pour chaque observationila valeur prédite est : ˆyi=ˆb0+ˆb1xi1+ˆb2xi2+...+ˆbkxik, (16)I

Le résidu estimé pour l"observationiest :

ˆui=yiˆyi(17)I

Les valeurs prédites et les résidus ont les propriétés suivantes :1.ˆui=0)¯y=ˆyi(découle de 10, 1èrecondition)2.cova rianceempirique nulle entre chaqu eva riableindép endante

et les résidus)covariance empirique nulle entre les résidus et les prédictions (découle de 10, conditions

åni=1xijˆui=0)3.Le p ointde co ordonnémo yen(¯x1,¯x1,...,¯x1,¯y)est toujours sur

la droite de regression :¯y=¯b0+¯b1¯x1+¯b2¯x2+...+¯bk¯xk(découle de la propriété 1)

Chapitre 3 Analyse de la regression multiple : estimation

La mécanique et l"interprétation des MCO

Interprétation de la regression multiple à l"aide de la regression partielleI Pour le cas de deux variables explicatives,b1peut s"exprimer : b1= nå i=1ˆri1yi! /nå i=1ˆr2i1(18)I ˆri1:résidu des MCO de la regression simple dex1surx2,I ˆri1: variation dex1non expliquée (i.e. non corrélée avec) par

ˆb1est donc obtenu en regressantysurˆri1I

variation dex2.I Dans la cas généralˆri1provient de la regression dex1sur fx2,...,xj,j=1,...,kgI variables explicatives Chapitre 3 Analyse de la regression multiple : estimation

La mécanique et l"interprétation des MCO

Comparaison de la régression simple et multiple I

Soit les deux modèles suivants:

˜y=˜b0+˜b1x1, et (SLR)

ˆy=ˆb0+ˆb1x1+ˆb2x2(MLR)I

Il existe une relation simple entre (MLR) et (SLR) : b1=ˆb1+ˆb2˜d1(19)I ˜d1: pente de la régression simple dex2surx1.I pente dex2surx16=0I Aveckvariables indépendantes,˜b1'ˆb1si(1)les coe¢ cients des MCO defx2,...,xkgsont tous égaux à zéro et/ou(2)x1 n"est corrélé avec aucune des variablesfx2,...,xkg. Chapitre 3 Analyse de la regression multiple : estimation

La mécanique et l"interprétation des MCO

Exemple 5: Participation des salariés à un plan

épargne-retraiteI

Soitmratela contribution de l"entreprise, par exemple, si mrate=0,75 l"employeur contribue à 75 cent pour chaque $ épargné par son salarié. Soitagel"age du compte épargne.I Sur un échantillon de 1534 entreprises on a :prate=87,36;mrate=0,732 etage=13,2.I

La régression sur cet échantillon donne

prate=80,12+5,52mrate+0.243age.I La régression simple donne :[prate=83,08+5,86mrate.I Commentez ce résultat sachant que la corrélation empirique entremrateetageest de 0,12. Chapitre 3 Analyse de la regression multiple : estimation

La mécanique et l"interprétation des MCO

Qualité de l"ajustement

I

Le R2 est dé...nie comme précédement :

R

2SSE/SST=1SSR/SST(20)I

LeR2est aussi égal au carré de la corrélation entreyietˆyi: R 2= nå i=1(yi¯y)(ˆyiˆy) 2 nå i=1(yi¯y)2nå i=1(ˆyiˆy)2 ,(21)I leR2ne diminue jamais lorsqu"une variable est ajoutée au modèleI LeR2permet aussi d"évaluer l"importance simultanée d"un groupe de variables pour expliquery. Chapitre 3 Analyse de la regression multiple : estimation

La mécanique et l"interprétation des MCO

Exemple 6: déterminants des résultats universitaire I

On reprend l"exemple 3, Eq.(14)

colGPA=1,29+0,453hsGPA+0.0094ACT,(22) n=140,R2=0,176I hsGPAtetACTexplique 17,6% de la variation de GPA dans cette échantillonI

Cela vous parait-il important?

Chapitre 3 Analyse de la regression multiple : estimation

La mécanique et l"interprétation des MCO

Exemple 7: Expliquer le taux de récidive

I On observe en 1986 un échantillon de 2725 hommes nés en

1960-61. Chacun a été arrété au moins une fois avant 1986;

narr86 mesure le nombre d"arrestation en 1986;narr86=0 pour 72,29%de l"échantillon, varie entre 0 et 12 et 20,51% ont été arrétés au moins une fois. Soit les variables suivantes :I pcnv: proportion d"arrestation avec comdamnation avant 1986I avgsen: durée moyenne des condamnations (0 pour la plupart)I ptime86 : nombre de mois passés en prison en 1986I qemp86 : nombre de trimestres en emploi en 1986.I On postule un modèle linéaire pour expliquer les arrestations : Justi...ez l"inclusion de pcvn,avgsen,ptime86,qemp86 Chapitre 3 Analyse de la regression multiple : estimation

La mécanique et l"interprétation des MCO

I L"estimation de ce modèle sans la variableavgsenfourni : n=2725,R2=0,0413I

Interprétez ces résultatsI

Supposez queptime86 passe de 0 à 12. Quelle sera la variation du nombre d"arrestations?I Le rajout de la variableavgsendonne l"équation estimée : ,103qemp86 n=2725,R2=0,0422I

Interprétez ces résultats

Chapitre 3 Analyse de la regression multiple : estimation

La mécanique et l"interprétation des MCO

La régression par l"origine

I La théorie peut suggérer queb0=0.Dans ce cas on estime ˜b1,˜b2,...,˜bkdénote les estimateurs des MCO de la regression deysurx1,x2,...,xkpar l"origine.I L"estimateur des MCO de (23) minimise le carré des résidusI Attention : En l"absence de constante, les propriétés des MCO déjà dérivés ne sont plus valables.I Les résidus n"ont plus une moyenne nulle)ˆy6=¯yI R

2=1SSR/SSTpeut être négatif :¯yexplique davantage

de variation deyique les variables explicatives.I Pour cela on préfère calculéR2en utilisant (21)I

Sib06=0, alorsf˜b1,˜b2,...,˜bkgsont biaisés.ISib0=0 on réduit la précision defˆb1,ˆb2,...,ˆbkg

Chapitre 3 Analyse de la regression multiple : estimation

L"éspérance des estimateurs des MCO

Propriété statistiques des MCO sur la population I Propriétés statistiques de la population obtenu par

échantillonages répétésI

Ces propriétés garantissent des estimateurs sans biaisI Hypothèse RLM1 (linéarité dans les paramètres)

Le modèle de population peut s"écrire :

y=b0+b1x1+b2x2+b3x3+...+bkxk+u,(MLR1) oùb0,b1,...,bksont les paramètres inconnus est constant à estimer etuest un terme d"erreur (perturbation) non observé aléatoire.I

Hypothèse RLM2 (Echantillonage aléatoire)

On dispose d"un échantillon aléatoire denobservations f(xi1,xi2,...,xik,yi):i=1,...,kg, générés par le modèle (MLR1). Chapitre 3 Analyse de la regression multiple : estimation

L"éspérance des estimateurs des MCO

I Pour le tirage aléatoire d"une observation on écrira : y i=b0+b1xi1+b2xi2+...+bkxik+ui.(24) le termeuicontient les éléments non observables de fˆb0,ˆb1,ˆb2,...,ˆbkgsont les estimateurs des MC0 de fb0,b1,b2,...,bkg, obtenus pour unéchantillon donnéde sorte que la moyenne des résidus est égale à zéro et la corrélation empirique (d"échantillonage) de chacune des variables indépendantes avec ces résidus est égale à zéro.I Hypothèse RLM3 (Absence de collinéarité parfaite) Dans l"échantillon (et donc dans la population), aucune des variables indépendantes n"est constante, et il n"existe pas de relationslinéaires exactesentre les variables. En présence de collinéarité parfaite le modèle ne peut pas être estimé par les MCO. Chapitre 3 Analyse de la regression multiple : estimation

L"éspérance des estimateurs des MCO

Iquotesdbs_dbs6.pdfusesText_11