[PDF] Méthodes de lissage exponentiel





Previous PDF Next PDF



Séries chronologiques - Prévision par lissage exponentiel

Introduites par Holt en 1958 Winters en 1960 et popularisées par le livre de Brown en (1963)



Une méthode intéressante pour faire des prévisions: le lissage

2 oct. 2017 2-3 Calcul des prévisions pour de nouvelles références ... La méthode du lissage exponentiel répond parfaitement aux.



Lissage exponentiel

Méthode de Holt-Winters ou lissage exponentiel triple. Autres méthodes Nous noterons l'erreur de prévision à l'horizon 1 au temps t : Zt = Xt - Xt



Méthodes de lissage exponentiel

finie d'un processus stochastique. Page 3. Calcul des prévisions. ? Que faire si l'on dispose que d 



Prévision à court terme : méthodes de lissage exponentiel

3 janv. 2013 La qualité des prévisions obtenues. E.Les différents lissages exponentiels. •. Le lissage exponentiel simple dépend d'un seul paramètre de ...



Méthodes de lissage exponentiel

Pour faire des prévisions à l'instant t0 on avait cependant besoin de xt0 . poids mène à la méthode générale du lissage exponentiel.



Séries Chronologiques

6 Prévision par lissage exponentiel 6.1.1 Le lissage exponentiel simple . ... échantillon) les méthodes statistiques classiques sont basées sur des ...



Lissages Exponentiels

Un algorithme de base pour la prévision de séries temporelles univariées est le lissage exponentiel c'est la plus ancienne des méthodes que nous verrons dans 





Sélection dune méthode de prévision par lemploi du modèle

ARIMA d'un certain ordre sous-tend la plupart des méthodes de prévision à méthodes de lissage exponentiel de degré supérieur à Ward [35]

Méthodes de lissage exponentiel

I Typiquement dans un modèle de régression, on dispose des observations(yt;xt),t=1;:::;n, avecnla taille de l"échantillon. I On a alors formulé un modèle linéaire de la forme y t=x>t+t: I Pour faire des prévisions à l"instantt0, on avait cependant besoin dext0.

Données mesurées dans le temps: séries

chronologiques I Il y a des situations où l"on dispose que d"une série de données. I Lorsque les données sont mesurées dans le temps, il est anticipé que ces données soient dépendantes. I L"hypothèse de l"échantillon aléatoire (X1;:::;Xniid) devient alors douteuse. I Lorsque les données sont mesurées dans le temps, on dira queX1;:::;Xnest une série chronologique. I Formellement, une série chronologique est une réalisation finie d"un processus stochastique.

Calcul des prévisions

I Que faire si l"on dispose que d"une série de données et que l"on désire faire des prévisions? I Une stratégie consiste à utiliser le passé de la variable, ou l"historique. I En utilisant le passé de la variable, en expliquant la dépendance dans les données, on cherche à proposer des prévisions.

Méthode classique: lissage exponentiel

I Le lissage exponentiel est simple et intuitif; c"est l"ancêtre des méthodes plus modernes de séries chronologiques. I Il demeure utile car simple à mettre en oeuvre avec un chiffrier électronique. I On retrouve les méthodes de lissage dans les ouvrages de gestion, pour ne citer que ces exemples. I Les techniques de lissage sont utiles afin de motiver les nouveaux modèles, avec les outils vus jusqu"à maintenant.

Modèles de lissage exponentiel

I Considéronsz1;:::;znune série chronologique, réalisation defZt;t2Zg. I Un modèle possible est d"expliquerZtpar le temps lui-même: Z t=f(t;) +t; oùf(t;)est une fonction connue et fonction du tempst. I Remarque importante: les erreursftgsont non-corrélées de variance constante2.

Exemples

I Dans le cas non-saisonnier, on pourrait considérer: Z t=+t;modèle avec moyenne constante; Z t=0+1t+t;modèle avec tendance linéaire; I

Cas saisonnier:

Z t=0+1sin(2t=12) +2cos(2t=12) +t; c"est un exemple de modèle sinusoidal; Z t=12X j=1 jIft2périodejg+t;modèle avec indicatrices; avecIft2périodeigvalant un sitest dans la périodei, i=1;:::;12.

Méthodes d"estimation

I Une première méthode d"estimation pourrait être les moindres carrés ordinaires: min nX t=1fztf(t;)g2 I On verra cependant qu"une méthode plus naturelle consistera à utiliser les moindres carrés pondérés: min nX t=1w tfztf(t;)g2 I Leswtsont des poids,wt2(0;1), qui sont choisis tels qu"ils décroissent de manière exponentielle: w t=wnt;t=1;:::;n:

Choix du coefficientw

I Le coefficientwdoit être choisi par l"utilisateur. I Il aura un impact direct sur l"importance des observations récentes relativement aux données passées. Par exemple w=0:9. I Ce cadre des moindres carrés pondérés avec ce choix de poids mène à la méthode générale du lissage exponentiel.

Modèle avec moyenne constante

I Considèrons le modèleZt=+t. Sous forme matricielle on aura alors: Z=1+; avecZ= (Z1;:::;Zn)>et1= (1;:::;1)>. I

La variable à l"horizonlest alors:

Z n+l=+n+l: I

La prévision pourZn+lest alors:

Z n(l) =; en autant quesoit connu.

Estimation dedans le modèle avec moyenne

constante I Si on utilise les moindres carrés ordinaires, on trouve: = (X>X)1X>y; = (1>1)11>Z; =n1nX t=1Z t; Zn: I

On note queZn=Pn

t=1f(1=n)Ztg. I L"utilisation des moindres carrés entraîne que chaque observation a un poids de 1=n.

Modification des poids

I

Les donnéesztsont observées dans le temps.

I Intuitivement, il semble raisonnable d"attribuer plus de poids aux observations récentes, et moins aux observations passées. I Une façon: pondérer de façon que les poids décroissent géométriquement dans le temps. I

Cette idée amène la prévision suivante:

zn(l) =c z n+wzn1+w2zn2+:::+wn1z1 avecw2(0;1)etcPn1 t=0wt=1.

Justification théorique

I En fait, si on considère le problème des moindres carrés pondérés suivant: min n1X j=0w jfznjg2 I

Les moindres carrés pondérés donnent:

= (X>W1X)1X>W1y; =P n1 j=0wjznjP n1 j=0wj;

1w1wnn1X

j=0w jznj; avecX=1= (1;:::;1)>,y= (zn;:::;z1)>et

W=diag(1;1=w;:::;1=wn1).

Facteur d"amortissement

I

Òn rappelle quecPn1

t=0wt=1. I Utilisant les résultats sur les séries géométriques: n1X t=0w t=1wn1w; I

Puisquew2(0;1), ceci implique:

c=1w1wn!1w; lorsquen! 1. I

Typiquementw2(0:7;0:95).

Étude en fonction dew

I Avecc=1w1wn, on remarque que la prévision devient: zn(l) =1w1wn z n+wzn1+w2zn2+:::+wn1z1 I Le poids associé à chaque donnée est donc1w1wnwj. On aura: lim w!11w1wn=00 lim w!11nwn1=1n I Siwest proche de un, tous les poids sont grands ou plutôt de même importance (et proches de 1=n). I Les prévisions seront lisses et on parlera d"un lissage fort. I Siw<<1, les prévisions vont reposer sur les dernières données; ce sera moins lisse. Astuce décisive: connaissance du passé infini I La prévision devrait dépendre sur les donnéesz1;:::;zn: zn(l) =1w1wn z n+wzn1+w2zn2+:::+wn1z1 I

Cependant, compte tenu quewn!0 rapidement, et

compte tenu d"astuces théoriques, il est souvent commode de supposer que l"on dispose de tout l"historique: zn(l) = (1w) z n+wzn1+w2zn2+::: où l"on s"est permis de laisser tendren! 1et donc

1w1wn!1w, lorsquen! 1.

Premier lissage des observations

I

La prévision:

zn(l) = (1w) zquotesdbs_dbs47.pdfusesText_47
[PDF] méthode de prévision statistique

[PDF] methode de recherche scientifique pdf

[PDF] méthode de résolution de conflit

[PDF] méthode de résolution de problème ishikawa

[PDF] méthode de résolution de problème pdf

[PDF] méthode de résolution de problème ppt

[PDF] méthode de résolution de problème qualité

[PDF] Méthode de résolution DM

[PDF] Méthode de résolution sur les équations DM

[PDF] méthode de révision efficace

[PDF] méthode de saturation pharmacologie

[PDF] méthode de secante exemple

[PDF] méthode de séparation des mélanges

[PDF] méthode de singapour maths cm1

[PDF] méthode de substitution 2 inconnues