qui lie la variable dépendante aux variables explicatives ▻ L'hypothèse (7) implique que les MCO sont sans biais ▻ Des erreurs de mesure sur les variables
Previous PDF | Next PDF |
[PDF] ECONOMETRIE LINEAIRE - CREST
2 2 1 Quand l'estimateur des mco est-il sans biais? On s'intéresse d'abord aux conditions sous lesquelles l'espérance de l'estimateur des mco coïncide avec la
[PDF] Econométrie - Lyon 2
Les estimateurs des MCO de la régression sont sans biais et convergents On propose comme estimateur sans biais de la variance de l'erreur : ˆσ2 ε = ∑ i ˆε2
[PDF] Le modèle de regression simple - Université du Maine
Theorem (L'estimateur des MCO est sans biais ) Sous les hypothèses SLR1- SLR4 : E(ˆp1 ) = p1 et E(
[PDF] Chapitre 3 Analyse de la regression multiple : estimation
qui lie la variable dépendante aux variables explicatives ▻ L'hypothèse (7) implique que les MCO sont sans biais ▻ Des erreurs de mesure sur les variables
[PDF] Le modèle linéaire général simple à deux variables - FOAD - MOOC
Les estimateurs des MCO sont des estimateurs linéaires, sans biais et de variance minimale Ils sont dits estimateurs BLUE (Best Linear Unbiased Estimator) 3 4
[PDF] ECO 4272 : Introduction `a léconométrie Notes sur la - Steve Ambler
7 Efficience de l'estimateur MCO sous l'homoscédasticité 54 sans biais, il faut en principe inclure toutes les variables qui pourraient aider `a prédire Yi et qui
[PDF] Régression linéaire - Laboratoire de Probabilités, Statistique et
Théorème 3 (Gauss-Markov) Parmi les estimateurs sans biais linéaires en y, les estimateurs ˆ βj sont de variances minimales Preuve L'estimateur des MCO s'
[PDF] Econométrie I - ORBi
2 3 Ecriture matricielle du modèle et de l'estimateur MCO 21 2 3 1 Vecteurs 3 2 2 Le meilleur estimateur linéaire sans biais de β 37 3 3 La distribution
[PDF] estimation charges projet informatique
[PDF] estimation comptable definition
[PDF] estimation d'une proportion par intervalle de confiance
[PDF] estimation de la moyenne d'une population
[PDF] estimation des coûts de construction
[PDF] estimation des domaines marge de négociation
[PDF] estimation des effets des changement des prix du pétrole sur la croissance économique
[PDF] estimation domaines bien immobilier
[PDF] estimation immobilière
[PDF] estimation maison notaire
[PDF] estimation moindre carré matlab
[PDF] estimation non paramétrique de la densité avec r
[PDF] estimation par noyau
[PDF] estimation par noyau d'une fonction densité
Chapitre 3 Analyse de la regression multiple : estimation
Chapitre 3
Analyse de la regression multiple : estimation
Econométrie Approfondie
Ahmed Tritah, Université du Maine
Septembre 2017
Chapitre 3 Analyse de la regression multiple : estimationIntroduction
I Di¢ cile dans le cadre de la regression simple d"évaluer l"impact dexsurytoutes choses égales par ailleursI La regression linéaire multiple (RLM) en contrôlant pour plusieurs facteurs, potentiellement corrélés, est plus à mêmeOn peut expliquer une plus grande variation deyI
On peut faire le choix de formes de fonctionnelles plus exibles Chapitre 3 Analyse de la regression multiple : estimationMotivation
Le modèle avec deux variables indépendantes
I souhaite mesurer toutes choses égales par ailleurs salaire=b0+b1educ+b2exper+u(1)experest le nombre d"années d"expérience. Nécessaire de faire des hypothèses suru. Ce modèle extrait l"experience du terme d"erreuru.I individus qui ont le même niveau d"expérience.I Dans le modèle RLS l"expérience est contenue dansu)pour mesurerb1sans biais on doit faire l"hypothèse que l"expérience et l"éducation ne sont pas corrélées : Qu"en pensez-vous? Chapitre 3 Analyse de la regression multiple : estimationMotivation
I Exemple 2: impact des dépenses par élève (expend) sur les résultats aux évaluations (avgscore)On postule le modèle suivant:
avgscore=b0+b1expend+b2avginc+u(2) avgincdénote le revenu moyen de la famille,ules autres facteurs non observables.I En incluant le revenu moyen de la famille on contrôle pour son impact sur les performances scolaires.IPour quelles raisons cela est important?I
Dans le modèle RLS,avgincest dans le terme d"erreur.I Pour quelles raisons à votre avis cela peut biaiser l"estimation deb1? Chapitre 3 Analyse de la regression multiple : estimationMotivation
I Le modèle RLM avec deux variables explicatives: y=b0+b1x1+b2x2+u(3)I ...xeIChoix de formes fonctionnelles plus exibles :
Ex. : consommation (cons) fonction quadratique du revenu (inc) cons=b0+b1inc+b2inc2+u(4)I Attention: ici la consommation dépend d"un seul facteur I Chapitre 3 Analyse de la regression multiple : estimationMotivation
IL"hpothèse centrale du modèle est:
E(ujx1,x2) =0 (5)I
Quelle que soit la valeur dex1etx2dans la population, la moyenne des non-observables est nulle.I Interprétation de (5) similaire à celle de l"hypothèse RLS4I Intéprétation de (5) dans les exemples précédentsIEq. (1) :E(ujeduc,exper) =0
Quel rôle jouent les aptitudes dans ce cas?I
Eq.(2) :E(ujexpend,avginc) =0 (discuttez cette hypothèse)IUn cas particulier :E(ujinc,inc2) =E(ujinc) =0
Chapitre 3 Analyse de la regression multiple : estimationMotivation
Le modèle avec k variables indépendantes
ILe modèle RLM sur la population s"écrit
y=b0+b1x1+b2x2+b3x3+...+bkxk+u(6) uterme d"erreur (perturbations, non-observables) : facteurs La linéarité fait référence aux paramètresI Exemple : salaire des dirigants (salaire)en fonction des ventes (ventes) et de leur ancienneté (ceoten) ln(salaire) =b0+b1log(ventes) +b2ceoten+b3ceoten2+uIInterprétez les coe¢ cients (exo).
Chapitre 3 Analyse de la regression multiple : estimationMotivation
IL"hypothèse centrale est:
E(ujx1,x2,...,xk) =0 (7)
uterme d"erreur (perturbations, non-observables) : facteurs Tous les facteurs contenus dans le terme d"erreur sont non-corrélés avec les explicatives du modèleI Mais aussi : spéci...cation correcte de la forme fonctionnelle qui lie la variable dépendante aux variables explicatives.I L"hypothèse (7) implique que les MCO sont sans biais.I Des erreurs de mesure sur les variables indépendantes (xj) peuvent invalider l"hypothèse (7). Chapitre 3 Analyse de la regression multiple : estimationLa mécanique et l"interprétation des MCO
Dérivation de l"estimateur des MCO
I Dans le cas général, aveckvariables explicatives, l"équation des MCO, appellé fonction de regression empirique ou droite des MCO, est :ˆy=ˆb0+ˆb1x1+ˆb2x2+...+ˆbkxk, (8)I
Etant donné un échantillonf(xi1,xi2,...,xik,yi):i=1,...,ng, les MCO consistent à choisir les estimateursbjqui minimisent la somme des carrés des résidus : nå Restrictions sur les moments empiriques)un système de k+1 équations àk+1 inconnues : Chapitre 3 Analyse de la regression multiple : estimationLa mécanique et l"interprétation des MCO
n i=1(yiˆb0ˆb1xi1ˆb2xi2...ˆbkxik) =0(10) nå i=1x i1(yiˆb0ˆb1xi1ˆb2xi2...ˆbkxik) =0 nå i=1x i2(yiˆb0ˆb1xi1ˆb2xi2...ˆbkxik) =0 nå i=1x ik(yiˆb0ˆb1xi1ˆb2xi2...ˆbkxik) =0 ICe sont les conditions du premier ordre des MCOI
On suppose que la solutionfˆbj,j=1,...,kgdu système est unique. Chapitre 3 Analyse de la regression multiple : estimationLa mécanique et l"interprétation des MCO
Interprétation de l"équation des MCO
ILa droite de regression est :
ˆy=ˆb0+ˆb1x1+ˆb2x2+...+ˆbkxk, (11)I Les estimateursfˆbj,j=1,...,kgs"interprétent comme des Exemple: si toutes les variables, autres quex1,sont ...xes on aDˆy=ˆb1Dx1,(13)I
évalué "toutes choses égales par ailleurs". On mesure donc fxj,j=2,...,kg. Chapitre 3 Analyse de la regression multiple : estimationLa mécanique et l"interprétation des MCO
Exemple 3: résulats au BAC et réussite à l"université I Déterminants des résultats universitaires (colGPA), en fonction des résultats aux lycées (hsGPA) et des tests d"évaluation à l"entrée à l"université (ACT) colGPA=1,29+0,453hsGPA+0.094ACT,n=140 (14)I ...xe, une augmentation dehsGPAd"un point augmente les résultats moyens'1/2 point.I s3):...IModèle de régression simple :
colGPA=1,29+0,0271ACT Chapitre 3 Analyse de la regression multiple : estimationLa mécanique et l"interprétation des MCO
Exemple 4: Equation de salaire
I Salaire en fonction de l"éducation (educ) de l"expérience (exper) et l"ancienneté(tenure): log(salaire) =0,824+0,092educ+0.0041exper(15) +0,022tenure, n=526IInterprétation : ...
Chapitre 3 Analyse de la regression multiple : estimationLa mécanique et l"interprétation des MCO
I Signi...cation de "toutes choses égales par ailleurs" dans la regression multiple : ...I On peut évaluer l"impact de plusieurs variables : exemple avecéquation de salaire...I
Question : dans l"exemple déjà présenté Eq. (14), si dans l"échantillonhsGPA=3,4;ACT=24,2;quelle est la valeurcolGAP? Chapitre 3 Analyse de la regression multiple : estimationLa mécanique et l"interprétation des MCO
Prédiction des MCO et résidus
I Pour chaque observationila valeur prédite est : ˆyi=ˆb0+ˆb1xi1+ˆb2xi2+...+ˆbkxik, (16)ILe résidu estimé pour l"observationiest :
ˆui=yiˆyi(17)I
Les valeurs prédites et les résidus ont les propriétés suivantes :1.ˆui=0)¯y=ˆyi(découle de 10, 1èrecondition)2.cova rianceempirique nulle entre chaqu eva riableindép endante
et les résidus)covariance empirique nulle entre les résidus et les prédictions (découle de 10, conditionsåni=1xijˆui=0)3.Le p ointde co ordonnémo yen(¯x1,¯x1,...,¯x1,¯y)est toujours sur
la droite de regression :¯y=¯b0+¯b1¯x1+¯b2¯x2+...+¯bk¯xk(découle de la propriété 1)
Chapitre 3 Analyse de la regression multiple : estimationLa mécanique et l"interprétation des MCO
Interprétation de la regression multiple à l"aide de la regression partielleI Pour le cas de deux variables explicatives,b1peut s"exprimer : b1= nå i=1ˆri1yi! /nå i=1ˆr2i1(18)I ˆri1:résidu des MCO de la regression simple dex1surx2,I ˆri1: variation dex1non expliquée (i.e. non corrélée avec) parˆb1est donc obtenu en regressantysurˆri1I
variation dex2.I Dans la cas généralˆri1provient de la regression dex1sur fx2,...,xj,j=1,...,kgI variables explicatives Chapitre 3 Analyse de la regression multiple : estimationLa mécanique et l"interprétation des MCO
Comparaison de la régression simple et multiple ISoit les deux modèles suivants:
˜y=˜b0+˜b1x1, et (SLR)
ˆy=ˆb0+ˆb1x1+ˆb2x2(MLR)I
Il existe une relation simple entre (MLR) et (SLR) : b1=ˆb1+ˆb2˜d1(19)I ˜d1: pente de la régression simple dex2surx1.I pente dex2surx16=0I Aveckvariables indépendantes,˜b1'ˆb1si(1)les coe¢ cients des MCO defx2,...,xkgsont tous égaux à zéro et/ou(2)x1 n"est corrélé avec aucune des variablesfx2,...,xkg. Chapitre 3 Analyse de la regression multiple : estimationLa mécanique et l"interprétation des MCO
Exemple 5: Participation des salariés à un planépargne-retraiteI
Soitmratela contribution de l"entreprise, par exemple, si mrate=0,75 l"employeur contribue à 75 cent pour chaque $ épargné par son salarié. Soitagel"age du compte épargne.I Sur un échantillon de 1534 entreprises on a :prate=87,36;mrate=0,732 etage=13,2.ILa régression sur cet échantillon donne
prate=80,12+5,52mrate+0.243age.I La régression simple donne :[prate=83,08+5,86mrate.I Commentez ce résultat sachant que la corrélation empirique entremrateetageest de 0,12. Chapitre 3 Analyse de la regression multiple : estimationLa mécanique et l"interprétation des MCO
Qualité de l"ajustement
ILe R2 est dé...nie comme précédement :
R2SSE/SST=1SSR/SST(20)I
LeR2est aussi égal au carré de la corrélation entreyietˆyi: R 2= nå i=1(yi¯y)(ˆyiˆy) 2 nå i=1(yi¯y)2nå i=1(ˆyiˆy)2 ,(21)I leR2ne diminue jamais lorsqu"une variable est ajoutée au modèleI LeR2permet aussi d"évaluer l"importance simultanée d"un groupe de variables pour expliquery. Chapitre 3 Analyse de la regression multiple : estimationLa mécanique et l"interprétation des MCO
Exemple 6: déterminants des résultats universitaire IOn reprend l"exemple 3, Eq.(14)
colGPA=1,29+0,453hsGPA+0.0094ACT,(22) n=140,R2=0,176I hsGPAtetACTexplique 17,6% de la variation de GPA dans cette échantillonICela vous parait-il important?
Chapitre 3 Analyse de la regression multiple : estimationLa mécanique et l"interprétation des MCO
Exemple 7: Expliquer le taux de récidive
I On observe en 1986 un échantillon de 2725 hommes nés en1960-61. Chacun a été arrété au moins une fois avant 1986;
narr86 mesure le nombre d"arrestation en 1986;narr86=0 pour 72,29%de l"échantillon, varie entre 0 et 12 et 20,51% ont été arrétés au moins une fois. Soit les variables suivantes :I pcnv: proportion d"arrestation avec comdamnation avant 1986I avgsen: durée moyenne des condamnations (0 pour la plupart)I ptime86 : nombre de mois passés en prison en 1986I qemp86 : nombre de trimestres en emploi en 1986.I On postule un modèle linéaire pour expliquer les arrestations : Justi...ez l"inclusion de pcvn,avgsen,ptime86,qemp86 Chapitre 3 Analyse de la regression multiple : estimationLa mécanique et l"interprétation des MCO
I L"estimation de ce modèle sans la variableavgsenfourni : n=2725,R2=0,0413IInterprétez ces résultatsI
Supposez queptime86 passe de 0 à 12. Quelle sera la variation du nombre d"arrestations?I Le rajout de la variableavgsendonne l"équation estimée : ,103qemp86 n=2725,R2=0,0422IInterprétez ces résultats
Chapitre 3 Analyse de la regression multiple : estimationLa mécanique et l"interprétation des MCO
La régression par l"origine
I La théorie peut suggérer queb0=0.Dans ce cas on estime ˜b1,˜b2,...,˜bkdénote les estimateurs des MCO de la regression deysurx1,x2,...,xkpar l"origine.I L"estimateur des MCO de (23) minimise le carré des résidusI Attention : En l"absence de constante, les propriétés des MCO déjà dérivés ne sont plus valables.I Les résidus n"ont plus une moyenne nulle)ˆy6=¯yI R2=1SSR/SSTpeut être négatif :¯yexplique davantage
de variation deyique les variables explicatives.I Pour cela on préfère calculéR2en utilisant (21)ISib06=0, alorsf˜b1,˜b2,...,˜bkgsont biaisés.ISib0=0 on réduit la précision defˆb1,ˆb2,...,ˆbkg
Chapitre 3 Analyse de la regression multiple : estimation