Séries chronologiques - Prévision par lissage exponentiel
Introduites par Holt en 1958 Winters en 1960 et popularisées par le livre de Brown en (1963)
Une méthode intéressante pour faire des prévisions: le lissage
2 oct. 2017 2-3 Calcul des prévisions pour de nouvelles références ... La méthode du lissage exponentiel répond parfaitement aux.
Lissage exponentiel
Méthode de Holt-Winters ou lissage exponentiel triple. Autres méthodes Nous noterons l'erreur de prévision à l'horizon 1 au temps t : Zt = Xt - Xt
Méthodes de lissage exponentiel
finie d'un processus stochastique. Page 3. Calcul des prévisions. ? Que faire si l'on dispose que d
Prévision à court terme : méthodes de lissage exponentiel
3 janv. 2013 La qualité des prévisions obtenues. E.Les différents lissages exponentiels. •. Le lissage exponentiel simple dépend d'un seul paramètre de ...
Méthodes de lissage exponentiel
Pour faire des prévisions à l'instant t0 on avait cependant besoin de xt0 . poids mène à la méthode générale du lissage exponentiel.
Séries Chronologiques
6 Prévision par lissage exponentiel 6.1.1 Le lissage exponentiel simple . ... échantillon) les méthodes statistiques classiques sont basées sur des ...
Lissages Exponentiels
Un algorithme de base pour la prévision de séries temporelles univariées est le lissage exponentiel c'est la plus ancienne des méthodes que nous verrons dans
Sélection dune méthode de prévision par lemploi du modèle
Ainsi par exemple
Sélection dune méthode de prévision par lemploi du modèle
ARIMA d'un certain ordre sous-tend la plupart des méthodes de prévision à méthodes de lissage exponentiel de degré supérieur à Ward [35]
Méthodes de lissage exponentiel
I Typiquement dans un modèle de régression, on dispose des observations(yt;xt),t=1;:::;n, avecnla taille de l"échantillon. I On a alors formulé un modèle linéaire de la forme y t=x>t+t: I Pour faire des prévisions à l"instantt0, on avait cependant besoin dext0.Données mesurées dans le temps: séries
chronologiques I Il y a des situations où l"on dispose que d"une série de données. I Lorsque les données sont mesurées dans le temps, il est anticipé que ces données soient dépendantes. I L"hypothèse de l"échantillon aléatoire (X1;:::;Xniid) devient alors douteuse. I Lorsque les données sont mesurées dans le temps, on dira queX1;:::;Xnest une série chronologique. I Formellement, une série chronologique est une réalisation finie d"un processus stochastique.Calcul des prévisions
I Que faire si l"on dispose que d"une série de données et que l"on désire faire des prévisions? I Une stratégie consiste à utiliser le passé de la variable, ou l"historique. I En utilisant le passé de la variable, en expliquant la dépendance dans les données, on cherche à proposer des prévisions.Méthode classique: lissage exponentiel
I Le lissage exponentiel est simple et intuitif; c"est l"ancêtre des méthodes plus modernes de séries chronologiques. I Il demeure utile car simple à mettre en oeuvre avec un chiffrier électronique. I On retrouve les méthodes de lissage dans les ouvrages de gestion, pour ne citer que ces exemples. I Les techniques de lissage sont utiles afin de motiver les nouveaux modèles, avec les outils vus jusqu"à maintenant.Modèles de lissage exponentiel
I Considéronsz1;:::;znune série chronologique, réalisation defZt;t2Zg. I Un modèle possible est d"expliquerZtpar le temps lui-même: Z t=f(t;) +t; oùf(t;)est une fonction connue et fonction du tempst. I Remarque importante: les erreursftgsont non-corrélées de variance constante2.Exemples
I Dans le cas non-saisonnier, on pourrait considérer: Z t=+t;modèle avec moyenne constante; Z t=0+1t+t;modèle avec tendance linéaire; ICas saisonnier:
Z t=0+1sin(2t=12) +2cos(2t=12) +t; c"est un exemple de modèle sinusoidal; Z t=12X j=1 jIft2périodejg+t;modèle avec indicatrices; avecIft2périodeigvalant un sitest dans la périodei, i=1;:::;12.Méthodes d"estimation
I Une première méthode d"estimation pourrait être les moindres carrés ordinaires: min nX t=1fztf(t;)g2 I On verra cependant qu"une méthode plus naturelle consistera à utiliser les moindres carrés pondérés: min nX t=1w tfztf(t;)g2 I Leswtsont des poids,wt2(0;1), qui sont choisis tels qu"ils décroissent de manière exponentielle: w t=wnt;t=1;:::;n:Choix du coefficientw
I Le coefficientwdoit être choisi par l"utilisateur. I Il aura un impact direct sur l"importance des observations récentes relativement aux données passées. Par exemple w=0:9. I Ce cadre des moindres carrés pondérés avec ce choix de poids mène à la méthode générale du lissage exponentiel.Modèle avec moyenne constante
I Considèrons le modèleZt=+t. Sous forme matricielle on aura alors: Z=1+; avecZ= (Z1;:::;Zn)>et1= (1;:::;1)>. ILa variable à l"horizonlest alors:
Z n+l=+n+l: ILa prévision pourZn+lest alors:
Z n(l) =; en autant quesoit connu.Estimation dedans le modèle avec moyenne
constante I Si on utilise les moindres carrés ordinaires, on trouve: = (X>X)1X>y; = (1>1)11>Z; =n1nX t=1Z t; Zn: IOn note queZn=Pn
t=1f(1=n)Ztg. I L"utilisation des moindres carrés entraîne que chaque observation a un poids de 1=n.Modification des poids
ILes donnéesztsont observées dans le temps.
I Intuitivement, il semble raisonnable d"attribuer plus de poids aux observations récentes, et moins aux observations passées. I Une façon: pondérer de façon que les poids décroissent géométriquement dans le temps. ICette idée amène la prévision suivante:
zn(l) =c z n+wzn1+w2zn2+:::+wn1z1 avecw2(0;1)etcPn1 t=0wt=1.Justification théorique
I En fait, si on considère le problème des moindres carrés pondérés suivant: min n1X j=0w jfznjg2 ILes moindres carrés pondérés donnent:
= (X>W1X)1X>W1y; =P n1 j=0wjznjP n1 j=0wj;1w1wnn1X
j=0w jznj; avecX=1= (1;:::;1)>,y= (zn;:::;z1)>etW=diag(1;1=w;:::;1=wn1).
Facteur d"amortissement
IÒn rappelle quecPn1
t=0wt=1. I Utilisant les résultats sur les séries géométriques: n1X t=0w t=1wn1w; IPuisquew2(0;1), ceci implique:
c=1w1wn!1w; lorsquen! 1. ITypiquementw2(0:7;0:95).
Étude en fonction dew
I Avecc=1w1wn, on remarque que la prévision devient: zn(l) =1w1wn z n+wzn1+w2zn2+:::+wn1z1 I Le poids associé à chaque donnée est donc1w1wnwj. On aura: lim w!11w1wn=00 lim w!11nwn1=1n I Siwest proche de un, tous les poids sont grands ou plutôt de même importance (et proches de 1=n). I Les prévisions seront lisses et on parlera d"un lissage fort. I Siw<<1, les prévisions vont reposer sur les dernières données; ce sera moins lisse. Astuce décisive: connaissance du passé infini I La prévision devrait dépendre sur les donnéesz1;:::;zn: zn(l) =1w1wn z n+wzn1+w2zn2+:::+wn1z1 ICependant, compte tenu quewn!0 rapidement, et
compte tenu d"astuces théoriques, il est souvent commode de supposer que l"on dispose de tout l"historique: zn(l) = (1w) z n+wzn1+w2zn2+::: où l"on s"est permis de laisser tendren! 1et donc1w1wn!1w, lorsquen! 1.
Premier lissage des observations
ILa prévision:
zn(l) = (1w) zquotesdbs_dbs47.pdfusesText_47[PDF] methode de recherche scientifique pdf
[PDF] méthode de résolution de conflit
[PDF] méthode de résolution de problème ishikawa
[PDF] méthode de résolution de problème pdf
[PDF] méthode de résolution de problème ppt
[PDF] méthode de résolution de problème qualité
[PDF] Méthode de résolution DM
[PDF] Méthode de résolution sur les équations DM
[PDF] méthode de révision efficace
[PDF] méthode de saturation pharmacologie
[PDF] méthode de secante exemple
[PDF] méthode de séparation des mélanges
[PDF] méthode de singapour maths cm1
[PDF] méthode de substitution 2 inconnues