[PDF] Modélisation de séries stationnaires



Previous PDF Next PDF







Econométrie Appliquée Séries Temporelles

tion d’une série temporelle consiste à vérifier la stationnarité du processus générateur de données Généralement, on se limite à véri fier la stationnarité faible ou stationnarité du second ordre Nous allons à présent étudier de façon de plus précise ce qu’est un processus non stationnaire



INTRODUCTION AUX SÉRIES TEMPORELLES

venird’une série temporelle Lorsquecela sera possible, nous donneronsdes intervalles de prévisions, afin de pouvoir apporterune informationquant à la précision de la prévision Pour ce faire, il existe un large choix de modèle utilisable :



Modélisation de séries stationnaires

0 50 100 150 200-2-1 0 1 2 Index y 0 5 10 15 20 0 0 0 2 0 4 0 6 0 8 1 0 Lag ACF Corrélation et auto-corrélation partielle Lorsque l’on s’intéresse à caractériser les dépendances d’au moins 3 variables aléatoires, il est nécessaire



Introduction à l’Étude des Séries Temporelles

En écologie, une série temporelle souvent citée en exemple est celle du nombre de lynx capturés au Canada de 1821 à 1934 et dont la représentation est donnée par la Figure2



Séries temporelles - univ-amufr

Une série linéaire dépendant du temps n’est pas stationnaire Elle peut-être stationnarisée par différentiation y t =α 0 +α 1 t +ε t t t t 1 t t 1 1 ⇔∇1 y = − ε +α − − la série {ε t} étant stationnaire => la série {∇ 1 y t} est stationnaire Si le modèle linéaire est un polynôme de degré p => différentiation d



Introductionauxsériestemporelles - CEREMADE

Exercice 3 (Construction d'un processus stationnaire) Soient U une variable aléatoire sur T = [ ; ) de loi P U, et Z une variable aléatoire réelle, indépendante de U, de carré intégrable et centrée On pose X t = Z exp( itU ); t 2 Z : 1 Montrer que (X t)t2 Z à valeurs dans C est stationnaire centré



Tendance,stationnarité, autocovariance,opérateurretard

2/45 1 Tendance,stationnarité,autocovariance,opérateurretard temps température 1920 1925 1930 1935 1940 30 40 50 60 année passagers 1950 1952 1954 1956 1958 1960



COURS DE SERIES TEMPORELLES THEORIE ET APPLICATIONS

COURS DE SERIES TEMPORELLES THEORIE ET APPLICATIONS VOLUME 1 Introduction à la théorie des processus en temps discret Modèles ARIMA et méthode Box & Jenkins



[PDF] polyploïdie ble

[PDF] analyse des séries temporelles

[PDF] le manuel de la sérigraphie pdf

[PDF] autoploidisation

[PDF] cours de sérigraphie pdf

[PDF] sérigraphie technique d'impression pdf

[PDF] insolation ecran serigraphie

[PDF] apprendre la sérigraphie pdf

[PDF] logiciel serigraphie gratuit

[PDF] sérigraphie technique art

[PDF] sérigraphie explication

[PDF] résolution problème mathématique 3e année primaire

[PDF] histoire 4ème le serment du jeu de paume

[PDF] images serment du jeu de paume

[PDF] cause et consequence de la seconde guerre mondiale

Modélisation de séries stationnaires

MAP-STA2 : Séries chronologiques

Y. Goude - yannig.goude@edf.fr

2021-2022

Contents

Rappels et généralités1

Notion de stationnarité, auto-covariance, auto-corrélation . . . . . . . . . . . . . . . . . . . . . . . 4

Corrélation et auto-corrélation partielle 7Nous avons vu précédemment comment, si une série chronologique présente des composantes déterministes

(tendance ou saisonalité(s)), les estimer de manière à pouvoir effectuer une prévision. Nous nous intéressons

ici à la série corrigée de sa tendance et de sa ou ses saisonnalité(s) et à la notion de stationnarité.

Rappels et généralités

Ce chapitre fait appel à différentes notions de probabilité et statistiques que nous rappelons ici.

processus stochastique un processus stochastique est une famille de variables aléatoires(Yt)t?Idéfinies sur(Ω,A,P). Les applicationst→Yt(ω),ω?Ωsont appelés trajectoires du processus. processus Gaussien Le processus(Yt)t?Zest un processus gaussien si toutes ses lois marginales sont gaussiennes ie si?ket?j1,...,jk,(Yj1,Yj2,...,Yjk)est un vecteur gaussien. bruit blanc fort soitεtun processus aléatoire. On dira qu"il s"agit d"un bruit blanc fort si lesεtsont

indépendants et identiquement distribués. Il est dit centré siE(εt) = 0et réduit si var(εt) = 1

bruit blanc faible

soitεtun processus aléatoire. On dira qu"il s"agit d"un bruit blanc faible si lesεtvérifient:

•E(εt) =μ •E(ε2t) =σ2 •cov(εi,εj) = 0pouri?=j espace L 2 L"ensemble des variables aléatoiresXtelles queE(X2)<∞peut être muni d"une structure

d"espace vectoriel normé notéL2. On prend comme produit scalaire l"application(X,Y)→E(XY)et comme

norme||X||L2=?E(X2) covariancela covariance entre deux variables aléatoiresXetYest définie ainsi: cov(X,Y) =E[(X-E(X))(Y-E(Y))] =E(XY)-E(X)E(Y) produit sacalaire soitXetYdeux variables aléatoires,(X,Y)→E(XY)est un produit scalaire vérifiant les propriétés suivantes: •symétrie:E(XY) =E(Y X) •bilinéarité:E((aX+bY)Z) =aE(XZ) +bE(Y Z) 1 •positivité:E(X2)>= 0, caractère définiE(X2) = 0→P(X= 0) = 1

orthogonalitésoitXetYdeux variables aléatoires, elles sont orthogonales lorsqueE(XY) = 0(si les

variables sont centrées cela revient à cov(X,Y)=0) distanceon définie la distance entreXetYdeux variables aléatoires pard(X,Y) =?E[(X-Y)2] espace engendré l"espace engendré par les variables aléatoiresX1,X2,...Xk, notéM(X1,..,Xk)est l"ensemble des combinaisons linéaires de ces variables: M(X1,..,Xk) ={λ1X1+...+λkXk,λ?Rk}={Xλ,λ?Rk} en notantX= (X1,...,Xk),λ= (λ1,...λk) projectionPM(X1,..,Xk)(Y) =Xαla projection linéaire d"une variableYsurM(X1,..,Xk)est telle que c"est le vecteur deM(X1,..,Xk)le plus proche deYau sens de la distanceddéfinie ci-dessus.

propriété de la projection linéairela projection linéaire est orthogonale au planM(X1,..,Xk).

Ainsi:

?j?(1,..,k) :E[(Y-PM(X1,..,Xk)(Y))Xj] = 0 et donc?j?(1,..,k):

1E(X1Xj) +...+αkE(XkXj) =E(Y Xj)

en notant: X=( (E(X21)... E(X1Xk)

E(X1Xk)... E(X2k))

la matrice de covariance deX, et si cette matrice est inversible (si lesXjne sont pas linéairement dépendants)

on a

α= Σ-1

X( (E(Y X1)

E(Y Xk))

Pythagore

||Y||2

L2=||PM(X1,..,Xk)||2

L2+||Y-PM(X1,..,Xk)||2

L2 extension de la loi des grands nombres lorsque l"on s"intéresse à un processus stochastique(Yt)t?Zon

aimerait disposer d"un résultat de type loi des grands nombres sur une trajectoire du processus. Par exemple

on aimerait que la moyenne empirique1T T t=1Ytconverge p.s. versE(Y0)lorsqueT→ ∞. Celà n"est pas

toujours vrai, notamment quand la dépendance temporelle entre les observations est trop "forte". Nous

admettrons le théorême suivant: 2

théorêmesoientH: (Rd)Z→Rune fonction mesurable,(εi)i?Zune suite i.i.d. de v.a. à valeur dansRd.

PosonsYt=H((εi)i?Z), alors la série(Yt)t?Zest stationnaire forte (voir plus loin) et, siY0est intégrable:

lim

T→∞1T

T t=1Y t=E(Y0),p.s. exemple: voir plus loin le cas d"une moyenne mobile infinie. 3

Notion de stationnarité, auto-covariance, auto-corrélationPour pouvoir espérer prévoir le futur d"une série chronologique(Yt), il est nécessaire que cette série présente

une certaine reproductibilité. Cela permet que l"inférence effectuée sur certains paramètres de loi ou de

modèle (corrélation, régression linéaire...) soit pérenne dans le temps. définition soit un processus aléatoire(Yt)t?Z, il est dit stationnaire au sens fort (ou strictement) si pour toute fonction f mesurablef(Y1,Y2,...,Yt)etf(Y1+h,Y2+h,...,Yt+h)ont la même loi.

Cette notion de stationnarité forte est très difficile à vérifier en pratique. On lui préfère généralement la

notion de stationnarité faible qui porte sur les moments d"ordre 1 et 2 du processus. définitionla fonction d"auto-covariance d"un processusYt?Z cov(Yt,Yt+h) =γ(h) définitionla fonction d"auto-corrélation d"un processusYt?Z

ρ(h) =γ(h)/γ(0)

remarqueγ(h)etρ(h)sont des fonctions symétriques,ρ(0) = 1. définition

soit un processus aléatoire(Yt)t?Ztel queE(Y2t)<∞, il est dit stationnaire au sens faible (ou

d"ordre 2) si son espérance est constante et ses auto-covariances sont stables dans le temps ie: ?t E(Yt) =μ ?t ,?hcov(Yt,Yt+h) =γ(h)

On remarque quevar(Yt) =γ(0)et donc qu"un processus stationnaire faible à une variance constante dans le

temps.

En pratique, pour apprécier la stationnarité d"un processus, on commence d"abord par vérifier que sa moyenne

et sa variance sont constantes dans le temps. exerciceselon vous quel(s) processus ci-dessous est(sont) stationnaire(s)? Pourquoi? 4

050100200300

0 10 Index X1

050100200300

-3 0 2 Index X2

050100200300

-2 1 3 Index X3

050100200300

-3 0 2 Index X4Voilà quelques examples de processus stationnaires: •un bruit blancεtvérifiantE(εt) =μet var(εt) =σ2 preuveon a par définition cov(εt,εt+h) = 0 Le processus gaussien(Yt)t?Ztel queE(Yt) =μetcov(Yt,Yt+h) =α|h|(|α|<1) est faiblement stationnaire. Tout processus gaussien stationnaire faible est stationnaire fort. •le processus moyenne mobileXt=εt+a1εt-1+a2εt-2+...+aqεt-q preuve

γ(0) =σ2(1 +a21+...+a2q)

γ(1) =σ2(a1+a1a2+...+aq-1aq)

γ(q) =σ2(aq)

γ(q+h) = 0

•processus autorégressif d"ordre 1: Y t=aYt-1+εt en supposant que|a|<1on a bienE(Yt) = 0et var(Yt) =σ2(1 +a+a2+...) =σ21-a2 pour touth >0:

γ(h) =σ2(ah+ah+2+...) =σ2ah1-a2

5 comme de plusγ(h) =γ(-h),

γ(h) =σ2a|h|1-a2on remarque que pour ce processusρ(h) =a|h|, donc l"autocorrélation tend vers 0 à une vitesse exponentielle.

•soit(Xt)t?Zun processus stationnaire d"espéranceμet de fonction d"autocovarianceγ(h),(ai)i?Zune

suite de nombres réels absolument sommable? i?Z|ai|<∞, alorsYt=? i?ZaiXt-iest un processus stationnaire. tout d "abord, on remarque que i?Z||aiXt-i||=? i?Z|ai|||Xt-i||=?Var(X) +E(X)2? i?Z|ai|<∞ i?ZaiXt-iest donc bien convergente au sens deL2etYtest de carré intégrable. on vérifie également queE(Yt)ne dépend pas det: E(? i?Za iXt-i) =? i?Za iE(Xt-i) =μ? i?Za i ainsi que sa fonction d"autocovariance: cov(Yt,Yt+h) =cov(? i?Za iXt-i,? j?Za jXt+h-j) cov(Yt,Yt+h) =? i?Z? j?Za iajcov(Xt-i,Xt+h-j) cov(Yt,Yt+h) =? i?Z? j?Za iajγ(h+i-j))

En pratique, on ne connait pas explicitement les fonctions d"auto-covariance et d"auto-corrélation. Il est donc

nécessaire de les estimer en se basant sur des observations. définition soit une série d"observations(yt)t?(1,...,n), notons¯y=1n n t=1yt, alors la fonction d"auto-covariance empirique vaut, pour touth?(0,...,n-1) ?γ(h) =1n-hn t=h+1(yt-¯y)(yt-h-¯y) définition soit une série d"observations(yt)t?(1,...,n), notons¯y=1n n t=1yt, alors la fonction d"auto-corrélation empirique vaut, pour touth?(0,...,n-1) ?ρ(h) =1n-h? n k=h+1(yt-¯y)(yt-h-¯y)1 n n t=1(yt-¯y)2

Le graphique représentant la fonction d"auto-corrélation empirique est appelé l"auto-corrélogramme.

exemplevoilà un exemple de série et son auto-corrélogramme, à votre avis de quel type de série s"agit-il?

6

050100150200

-2 -1 0 1 2 Index y

05101520

0.0 0.2 0.4 0.6 0.8 1.0 Lag ACFCorrélation et auto-corrélation partielle

Lorsque l"on s"intéresse à caractériser les dépendances d"au moins 3 variables aléatoires, il est nécessaire

d"introduire la notion de corrélation partielle. En effet,si l"on considère les variablesX1,...,Xk,X1peut être

corrélée àX3parce queX1etX3sont toutes deux corrélées àX2. Voilà quelques exemples frappants:

définition soit les variables aléatoiresX1,...,Xk, le coefficient de corrélation partielle entreX1etXk abstraction faite deX2,...,Xk-1est définie par: r X2,..,Xk-1(X1,Xk) =ρ(X1-PM(X2,..,Xk-1),Xk-PM(X2,..,Xk-1))

exercicesoitX,Z1,Z23 variables aléatoires indépendantes centrées de variance 1, et les variablesX1etX2

définies ainsi: X

1=X+Z1etX2=X+Z2

Calculerρ(X1,X2)puisrX(X1,X2). Commenter.

définition

soit un processus aléatoire(Yt)t?Zstationnaire faible centré. La fonction d"auto-corrélation

partielle est définie de la manière suivante: r(1) =ρ(1) r(h) =rY2,...,Yh(Y1,Yh+1),?h≥2 r(h) =r(-h)quotesdbs_dbs45.pdfusesText_45