[PDF] [PDF] Chapitre II Régression linéaire multiple

Commentaires : - La désignation “multiple” fait référence au fait qu'il y a plusieurs variables explicatives xj pour expliquer y 



Previous PDF Next PDF





[PDF] NOTION DE MULTIPLE, DIVISEUR ET NOMBRE - maths et tiques

Propriété : La somme de deux multiples d'un entier a est un multiple de a Démonstration au programme : avec a = 3 Vidéo https://youtu be/4an6JTwrJV4 Soit b 



[PDF] Régression multiple : principes et exemples dapplication

fait appel à l'analyse par régression linéaire multiple selon différentes simultanément les structures multiples liant différentes variables (n → n, analyse



[PDF] Régression linéaire multiple - Université Lumière Lyon 2

Régression linéaire multiple • Se restreindre à une famille de fonction de prédiction linéaire • Et à des exogènes quantitatives (éventuellement des qualitatives 



[PDF] Introduction à la régression multiple

Le modèle de régression linéaire multiple est l'outil statistique le plus ha- bituellement mis en œuvre pour l'étude de données multidimensionnelles Cas



[PDF] Chapitre II Régression linéaire multiple

Commentaires : - La désignation “multiple” fait référence au fait qu'il y a plusieurs variables explicatives xj pour expliquer y 



[PDF] Quest ce quun multiple, quest ce quun diviseur

Un multiple est tout simplement le résultat d'une multiplication de nombres entiers (Les nombres entiers sont : 1, 2, 3, 4, 5, 6 100 500 ) Exemples :



[PDF] Les multiples

Les multiples Un multiple d'un chiffre est un nombre qui appartient à la table de multiplication de ce chiffre Par exemple, 35 est un multiple de 5 car 35 = 7 x 5



[PDF] On appelle multiple, un nombre qui peut sécrire sous la forme dun

On dit que 6 et 7 sont des diviseurs de 42 A savoir : Les multiples de 2 sont des nombres pairs, ils finissent par 0,2,4,6 ou 8 Les multiples de 5 sont des 



Tumeur maxillaire révélatrice dun myélome multiple - Actualités

Le myélome multiple des os ou maladie de Kahler est un cancer hématologique, caractérisé par une prolifération monoclonale de cellules plasmatiques 

[PDF] multiple de 13

[PDF] Multiple de 2 et 3 + Définition

[PDF] multiple de 3

[PDF] multiple de 3 jusqu'? 100

[PDF] multiple de 3 liste

[PDF] multiple de 4

[PDF] multiple de 6

[PDF] multiple de 7

[PDF] multiple de 9

[PDF] multiple diviseur

[PDF] Multiple diviseur

[PDF] multiple en commun

[PDF] Multiple et diviseur

[PDF] multiple et diviseur

[PDF] Multiple et Diviseur

Chapitre II

Régression linéaire multiple

Licence 3 MIASHS - Université de Bordeaux

Marie Chavent

Chapitre 2Régression linéaire multiple 1/40Un exemple

On cherche à

mo déliser la relation entre p oidsdes b ébésà naissance et l"âge, le poids et le statut tabagique de la mère duran tla grossesse. On p ose: -y= poids de naissance en grammes (bwt), -x1= âge de la mère (age), -x2= poids de la mère en kilos (weight), -x3= statut tabagique de la mère pendant la grossesse (smoke) codée

1=oui et 0=non.

On suppose que cette

relation est linéaire de la fo rme: y=0+1x1+2x2+3x3On veutestimer cette relation avec un mo dèlede régression multiple .

On utilise un

éc hantillon

de n=1174 naissances pour lesquelles le poids du bébé, l"âge, le poids et le statut tabagique de la mère, ont été mesurés.

Chapitre 2Régression linéaire multiple 2/40

load("poids.RData") print (data[ 1 5 c "bwt" "age" "weight" "smoke" digits 4 ## bwt age weight smoke ## 1 3402 27 45.36 0 ## 2 3203 33 61.23 0 ## 3 3629 28 52.16 1 ## 4 3062 23 56.70 1 ## 5 3856 25 42.18 0pairs(data)#diagrammes de dispersionbwt 150
250
350
15 25
35
45
40
80

15003500

150250350

gestation parity

0.00.40.8

15253545

age height

140170

4080
weight 1500
3500
0.0 0.4 0.8 140
170

0.00.40.8

0.0 0.4 0.8 smokemodele<- lm (bwt~age +weight+smoke,data=data) modele coefficients ## (Intercept) age weight smoke

## 3050.56238 -0.91802 7.90266 -254.25425Chapitre 2Régression linéaire multiple 3/401. Le modèle

On cherche à modéliser la relation entre

plus d e2 v ariablesquantitat ives Un mo dèlede régression li néairemultiple est de la fo rmesuivante : y=0+pX j=1 jxj+"(1) où : -yest lava riableà ex pliquer(à valeurs dans R); -x1;:::;xpsontles va riablesexplicatives (à valeurs dans R); -"est leterme d"erreur aléatoire du mo dèle; -0;1;:::;psont les paramètres à estimer.

Commentaires :

La désignation "

multiple " fait référence au fait qu"il y a plusieurs variables explicativesxjpour expliquery.

La désignation "

linéaire " correspond au fait que le modèle (1) est linéaire.

Chapitre 2Régression linéaire multiple 4/40

Pournobservations, on peut écrire le modèle de régression linéaire multiple sous la forme : y i=0+pX j=1 jxij+"ipouri=1;:::;n:(2)

Dans ce chapitre, on suppose que :

-"iest une variablealéatoire, non observée, -xijest observé etnon aléatoire, -yiest observé etaléatoire. On fait les troishypothèses additionnellessuivantes : (A1)E["i]= 0;8i=1;:::;n, ou de manière équivalente :

E[yi]= 0+Pp

j=1jxij;8i=1;:::;n.

Commentaire sur l"hypothèse(A1): elle in diqueque les erreurs sont centrées Chapitre 2Régression linéaire multiple 5/40(A2)V("i)= 2;8i=1;:::;n,

ou de manière équivalente :

V(yi)= 2;8i=1;:::;n.

Commentaires sur l"hypothèse(A2):

On pa rled"hyp othèsed"

homoscédasticité ( 'homogénéité des variances). Cette va riance2est unpa ramètredu mo dèlequ "ilfaudra estim er. (A3)

Cov ("i;"i0)= 0;8i6=i0

ou de manière équivalente :

Cov(yi;yi0)= 0;8i6=i0.

Commentaire sur l"hypothèse(A3):

Sous cette hyp othèse,

les termes d"erreur "isont non corrélés.Chapitre 2Régression linéaire multiple 6/40 On peut écrirematriciellement le mo dèle(2) de la manière suivante :

Y=X+(3)

où Y=0 B

BBBBBBBBB@y

1 y 2 y n1 C

CCCCCCCCCA;X=0

B

BBBBBBBBB@1x11:::x1p

1x21:::x2p

1xn;1:::xnp1

C

CCCCCCCCCA; =0

B

BBBBBBBBB@

0 1 p1 C

CCCCCCCCCA;et=0

B

BBBBBBBBB@"

1 2 n1 C

CCCCCCCCCA:

-Ydésigne le vecteur à expliquer de taillen, -Xla matrice explicative de taillen(p+1), -le vecteur d"erreurs de taillen.

Exercice: TouverXetYpour les données sur les appartements.Chapitre 2Régression linéaire multiple 7/40Leshy pothèsesp euventalo rss"éc riresous fo rmematricielle :

(A1")E() =0n ou de manière équivalente :

E(Y) =X2Rn.

(A2")V() =2In ou de manière équivalente :

V(Y) =2In.

Dans la suite de ce chapitre, on suppose que

n>(p+1)etran g(X) =p+1

On a donc

p lusd"observations que de va riables et il n"existe pas de liaison

linéaire entre les variables explicativesxjc"est à dire pas de multicolinéarité.Chapitre 2Régression linéaire multiple 8/40

Remarque.

Il est important de bien faire la différence entre l"exp ressionE(yi)= 0+Pp j=1jxij(qui désigne l"espérance d"une variable aléatoire scalaire), et l"expressionE(Y)= X(qui désigne l"espérance d"une variable aléatoire vectorielle) : on obtient dans un cas un scalaire, dans l"autre cas un vecteur deRn. l"exp ressionV(yi)= 2(qui désigne la variance d"une variable aléatoire scalaire), et l"expressionV(Y)= 2In(qui désigne la covariance d"une variable aléatoire vectorielle) : on obtient dans un cas un scalaire (2),

dans l"autre cas une matrice carrée (2In) de dimensionnn.Chapitre 2Régression linéaire multiple 9/402. Estimation des paramètres0;1;:::;p, et2A partir de l"echantillon (aléatoire) denobservations

f(xi1;:::;xip;yi);i=1;:::;ng; on veut estimer les pa ramètres

0;1;:::;pet2.

P ourestimer = (0;1;:::;p), on peut utiliser lamétho dedes moindres carrés qui ne nécessite pas d"hyp othèsesupp lémentairesur la distribution de"i, contrairement à lamétho dedu maximum de vraisemblance q uiest fondée sur la no rmalité de "i.

La métho dedes moindres ca rrés

ne fournit pas un estimateur de 2.Chapitre 2Régression linéaire multiple 10/40

Estimation depar les moindres carrés

On cherche

b2Rp+1qui minimise la somme deserreurs quadratiques

2i= (yi01xi1:::pxip)2

On doit donc résoudre le

p roblèmed"optimisation suivant : b =arg min

2Rp+1n

X i=1[yi(0+pX j=1 jxij)]2:(4)quotesdbs_dbs6.pdfusesText_11