[PDF] Régression linéaire simple





Previous PDF Next PDF



Chapitre 4 : Régression linéaire

On va modéliser la relation entre la tension et l'âge à l'aide d'une droite. 6. Equation générale du modèle de régression linéaire simple. Si la relation était 



Cours 12 : Corrélation et régression

Si l'interaction A × B est significative il faut simplement ne pas faire de régression multiple linéaire. Le facteur YXZ



Corrélation et régression linéaire simple

En statistique le terme de corrélation est réservé pour désigner la liaison entre 2 variables QUANTITATIVES (le plus souvent continues). Corrélation / 



MODELES LINEAIRES

Si on s'intéresse à la relation entre deux variables on parlera de régression simple en exprimant une Dans le cas de la régression linéaire simple sous la ...



12. Régression linéaire simple

données et sugg`ere une relation linéaire entre X et Y . 40. 45. 50. 55. 60. 65. 70. 75. 80. 85. 90. 90. 110. 130. 150. 170. 190 rendement vs température.



13 Régression linéaire simple

La question n'est pas d'obtenir "la relation" entre x et y mais d'obtenir la "meilleure" droite permettant de lier les deux variables observées. En considérant 



Régression linéaire simple

(8) Coefficient de détermination R2 ou carré du coefficient de corrélation. 4 Inférence. 4.1 Loi des paramètres. Les estimateurs ̂ β0 et ̂ β1 sont 



Tester lassociation linéaire entre deux variables quantitatives

4 nov. 2020 => importance de l'exploration graphique ! 2020-11-04. Corrélation et régression linéaire simple - Pr Emmanuel Chazard. 8 ...



Compléments sur la régression linéaire simple et inférence sur les

12 jui. 2015 corrélation linéaire (par exemple le cours de statistique de Mme. Supper de Licence 3). Myriam Maumy-Bertrand. Compléments sur la régression ...



Corrélation Régression Linéaire

Étudier la corrélation entre X et Y revient à: 1. Evaluer une relation statistique entre deux variables quantitatives;. 2. Calculer un paramètre qui mesure 



Corrélation et régression linéaire simple

Corrélation / régression : liaison entre 2 variables quantitatives et de la régression linéaire simple. 2. Liaison linéaire entre X et Y.



Corrélation et régression linéaire simple

Corrélation et régression linéaire simple. José LABARERE. Année universitaire 2010/2011. Université Joseph Fourier de Grenoble - Tous droits réservés.



Chapitre 4 : Régression linéaire

On va modéliser la relation entre la tension et l'âge à l'aide d'une droite. 6. Equation générale du modèle de régression linéaire simple.



MODELES LINEAIRES

1.2.3 Relation entre variable quantitative et variables qualitatives . . . . . . . . . 4 5.1.2 Le modèle de régression linéaire simple .



12. Régression linéaire simple

Régression linéaire simple. 3. Estimation des param`etres. 4. Intervalles de confiance et tests. 5. Analyse des résidus. 6. Corrélation.



Régression linéaire simple

26 mar. 2010 L'analyse de régression linéaire simple permet de quantifier le ... utilitaire nous donne le coefficient de corrélation en valeur absolue.



Régression linéaire simple

(8) Coefficient de détermination R2 ou carré du coefficient de corrélation. 4 Inférence. 4.1 Loi des paramètres. Les estimateurs ? ?0 et ? ?1 sont 



Corrélation linéaire et régression linéaire simple

Le coefficient de corrélation de Pearson ? mesure le degré d'association linéaire entre X et Y : ? = E[XY ] ? E[X]E[Y ] ?(X)?(Y ).



Séance 2

Introduction : différence entre corrélation linéaire et régression linéaire Une régression linéaire simple consiste à modéliser l'influence.



Régression linéaire simple dans Excel

L'analyse de régression linéaire simple permet de quantifier le lien de causalité utilitaire nous donne le coefficient de corrélation en valeur absolue.

Régression linéaire simple

Régression linéaire simple

Résumé

Ce chapitre introduit la notion de modèle linéaire par la version la plus élémentaire : expliquerYpar une fonction affine deX. Après avoir expliciter les hypothèses nécessaires et les termes du modèle, les notions d"estimation des paramètres du modèle, de prévision par intervalle de confiance, la signification des tests d"hypothèse sont discutées. Enfin une attention particulière est faite aux outils de diagnostics disponibles : valeurs influentes, et surtout graphe des résidus.

Retour au

plan du cour s

1 Introduction

Ce chapitre est une introduction à la modélisation linéaire par le modèle le plus élémentaire, la régression linéaire simple où une variableXest ex- pliquée, modélisée par une fonction affine d"une autre variabley. La finalité d"un tel modèle est multiple et dépend donc du contexte et surtout des ques- tions sous-jacentes. Ce peut-être juste une approche exploratoire ou alors la recherche d"une réponse à une question du type : une variable quantitativeX (e.g. la concentration d"une molécule) a-t-elle une influence sur la variable quantitativeY(e.g. une culture bactérienne)? Ou enfin la recherche d"un mo- dèle de prévision deYen fonction deX: calibration d"un appareil de mesure d"une concentration à partir d"une mesure optique. Des concepts clefs : mo- dèle, estimations, tests, diagnostics sont introduits et déclinés dans ce contexte élémentaire. Leur emploi et leur signification dépendent des objectifs. Ils se re- trouvent dans une présentation plus général du modèle de régression multiple et ce chapitre sert donc d"introduction. Avant tout travail de modélisation, une approche descriptive ou exploratoire est nécessaire pour dépister au plus tôt des difficultés dans les données : dis- symétrie des distributions, valeurs atypiques, liaison non linéaire entre les va- riables. En fonction des résultats obtenus, une transformation préalable des va- riables peut s"avérer nécessaire. Dans l"exemple de la figure 1 , le choix d"uneFIGURE1 -Exemple de régression du poids d"un arbre en fonction de la variable diamètrehauteur et diamètrehauteur au carré variable explicative homogène à un volume semble plus judicieux pour estimer le poids d"un arbre.

2 Modèle

On noteYla variable aléatoire réelle à expliquer (variable endogène, dé- pendante ou réponse) etXla variable explicative ou effet fixe (exogène). Le modèle revient à supposer, qu"en moyenne,E(Y), est une fonction affine de X. L"écriture du modèle suppose implicitement une notion préalable decau- salitédans le sens oùYdépend deXcar le modèle n"est pas symétrique.

E(Y) =f(X) =0+1XouY=0+1X+"

Remarque: Nous supposerons pour simplifier queXest déterministe. Dans le cas contraire,Xaléatoire, le modèle s"écrit alors conditionnellement aux observations deX:E(YjX=x) =0+1xet conduit aux mêmes estima- tions. Leshypothèsesrelatives à ce modèle sont les suivantes : 1. la distrib utionde l"erreur "est indépendante deXouXest fixe, 2. l"erreur est centrée et de v arianceconstante (homoscédasticité) :

8i= 1;:::;n E("i) = 0;Var("i) =2:

3.0et1sont constants, pas de rupture du modèle.1

Régression linéaire simple

4. Hypothèse complémentaire pour les inférences : " N(0;2).

3 Estimation

3.1 Paramètres

L"estimation des paramètres0;1;2est obtenue en maximisant la vrai- semblance, sous l"hypothèse que les erreurs sont gaussiennes, ou encore par minimisation de la somme des carrés des écarts entre observations et modèle (moindres carrés). Les deux approches conduisent aux mêmes estimation tan- dis que le maximum de vraisemblance induit de meilleure propriétés des es- timateurs. Pour une séquence d"observationsf(xi;yi)i= 1:::;ng, le critère des moindres carrés s"écrit : min 0;1n X i=1(yi01xi)2:

On pose :

x=1n n X i=1x i;y=1n n X i=1y i; s

2x=1n1n

X i=1(xix)2; s2y=1n1n X i=1(yiy)2; s xy=1n1n X i=1(xix)(yiy); r=sxys xsy;

Les moindres carrés sont minimisés par :

b

1=sxys

2x; b

0= yb1x

qui sont les réalisations des estimateurs c0etc1. On montre que ces estima- teurs sans biais et de variance minimum parmi les estimateurs fonctions li- néaires desyi(resp. parmi tous les estimateurs dans le cas gaussien). À chaque valeur deXcorrespond la valeurestiméeou ajustée deY: byi=b0+b1xi;lesrésiduscalculés ou estimés sont : e i=yibyi: La variance2est estimée par la variation résiduelle : s

2=1n2n

X i=1e 2i: Exemple : Analyse de régression : Poids en fonction de D2xH

L"équation de régression est

Poids = 0,0200 + 0,00829 D2xH

Régresseur Coef Er-T coef T P

Constante 0,01999(1) 0,01365(3) 1,46 0,160

D2xH 0,0082897(2) 0,0002390(4) 34,68 0,000(1)b0

(2)b1 (3) écart-type de c0:sb0 (4) écart-type dec1:sb13.2 Qualité d"ajustement Il est d"usage de décomposer les sommes de carrés des écarts à la moyenne sous la forme ci-dessous; les notations sont celles de la plupart des logiciels :

Total sum of squaresSST= (n1)s2y;

Regression sum of squaresSSR= (n1)s2

xys 2x;

Error sum of squaresSSE= (n2)s2;

et on vérifie : SST=SSR+SSE. On appellecoefficient de déterminationla quantité R

2=r2=s2xys

2xs2y= 1n2n1s

2s

2y=SSRSST

qui exprime le rapport entre la variance expliquée par le modèle et la variance totale.2

Régression linéaire simple

Exemple : Analyse de régression : Poids en fonction de D2xH

Analyse de variance

Source DL SC CM F P

Régression 1(1) 1,8108(2) 1,8108(5) 1202,89 0,000

Erreur résid 18 0,0271(3) 0,0015(6)

Total 19 1,8379(4)

S = 0,03880(7) R-carré = 98,5%(8) R-carré (ajust) = 98,4%(1) degrés de liberté de la loi de Fisher du test global (H0:1= 0)

(2) SSR (3) SSE ou déviance (4) SST=SSE+SSR (5) SSR/DF (6)s2=MSE=SSE/DF est l"estimation de2" (7)s=racine de MSE (8) Coefficient de déterminationR2ou carré du coefficient de corrélation.4 Inférence

4.1 Loi des paramètres

Les estimateurs

c0etc1sont des variables aléatoires réelles de matrice de covariance : 2"1n +x2(n1)s2xx(n1)s2xx(n1)s2x1(n1)s2x# qui est estimée en remplaçant2par son estimations2. Sous l"hypothèse que les résidus sont gaussiens, on montre que (n2)S2

22(n2)

et donc que les statistiques c00), s1n +x2(n1)s2x 1=2 et(c11), s1(n1)s2x 1=2 suivent des lois de Student à(n2)degrés de liberté. Ceci permet de tes-

ter l"hypothèse de nullité d"un de ces paramètres ainsi que de construire lesintervalles de confiance :

b

0t=2;(n2)s1n

+x2(n1)s2x 1=2 b

1t=2;(n2)s1(n1)s2x

1=2 Attention: une inférence conjointe sur0et1ne peut être obtenue en consi- dérant séparément les intervalles de confiance. La région de confiance est en effet une ellipse d"équation : n(b00)2+2(b00)(b11)nX i=1x i+(b11)2nX i=1x

2i= 2s2F;2;(n2)

qui est inclue dans le rectangle défini par les intervalles. Un grande part des valeurs du couple(0;1)est donc exclue de la région de confiance et ce d"autant plus queb0etb1sont corrélés.

Sous l"hypothèse :1= 0, la statistique

(n2)R21R2= (n2)SSRSSE suit une distribution de FisherF1;(n2). Cette statistique est le carré de la sta-quotesdbs_dbs4.pdfusesText_8
[PDF] 4ème - EXERCICES CORRIGES DE MATHEMATIQUES DE 4ème

[PDF] Les acides et les bases Corrigés des exercices

[PDF] Problèmes de mathématiques générales pour l 'agrégation Corrigé

[PDF] CLASSE : 6ème CORRIGE DU CONTRÔLE sur le chapitre : AIRES

[PDF] Les ouvrages d 'accès ? l 'eau potable - Hydraulique Sans Frontières

[PDF] Analyse complexe - Département de mathématiques et de statistique

[PDF] Angles et parallélisme - Exercices corrigés

[PDF] TD Architecture des ordinateurs - LIFL

[PDF] TD 3 #8211 Corrigé

[PDF] Le beton arme selon les Eurocodes 2 Cours et exercices corriges

[PDF] Correction des exercices du fascicule d exercices de Biochimie

[PDF] CAHIER D EXERCICES de BIOCHIMIE et Lipides 3 Glucides - UPMC

[PDF] 1 Protéines CAHIER D 'EXERCICES de BIOCHIMIE - UPMC

[PDF] Physique et biophysique PACES UE 3 - Decitre

[PDF] LE BUDGET DE TRESORERIE Objectif(s) : o Encaissements