Econométrie Appliquée Séries Temporelles
tion d’une série temporelle consiste à vérifier la stationnarité du processus générateur de données Généralement, on se limite à véri fier la stationnarité faible ou stationnarité du second ordre Nous allons à présent étudier de façon de plus précise ce qu’est un processus non stationnaire
INTRODUCTION AUX SÉRIES TEMPORELLES
venird’une série temporelle Lorsquecela sera possible, nous donneronsdes intervalles de prévisions, afin de pouvoir apporterune informationquant à la précision de la prévision Pour ce faire, il existe un large choix de modèle utilisable :
Modélisation de séries stationnaires
0 50 100 150 200-2-1 0 1 2 Index y 0 5 10 15 20 0 0 0 2 0 4 0 6 0 8 1 0 Lag ACF Corrélation et auto-corrélation partielle Lorsque l’on s’intéresse à caractériser les dépendances d’au moins 3 variables aléatoires, il est nécessaire
Introduction à l’Étude des Séries Temporelles
En écologie, une série temporelle souvent citée en exemple est celle du nombre de lynx capturés au Canada de 1821 à 1934 et dont la représentation est donnée par la Figure2
Séries temporelles - univ-amufr
Une série linéaire dépendant du temps n’est pas stationnaire Elle peut-être stationnarisée par différentiation y t =α 0 +α 1 t +ε t t t t 1 t t 1 1 ⇔∇1 y = − ε +α − − la série {ε t} étant stationnaire => la série {∇ 1 y t} est stationnaire Si le modèle linéaire est un polynôme de degré p => différentiation d
Introductionauxsériestemporelles - CEREMADE
Exercice 3 (Construction d'un processus stationnaire) Soient U une variable aléatoire sur T = [ ; ) de loi P U, et Z une variable aléatoire réelle, indépendante de U, de carré intégrable et centrée On pose X t = Z exp( itU ); t 2 Z : 1 Montrer que (X t)t2 Z à valeurs dans C est stationnaire centré
Tendance,stationnarité, autocovariance,opérateurretard
2/45 1 Tendance,stationnarité,autocovariance,opérateurretard temps température 1920 1925 1930 1935 1940 30 40 50 60 année passagers 1950 1952 1954 1956 1958 1960
COURS DE SERIES TEMPORELLES THEORIE ET APPLICATIONS
COURS DE SERIES TEMPORELLES THEORIE ET APPLICATIONS VOLUME 1 Introduction à la théorie des processus en temps discret Modèles ARIMA et méthode Box & Jenkins
[PDF] analyse des séries temporelles
[PDF] le manuel de la sérigraphie pdf
[PDF] autoploidisation
[PDF] cours de sérigraphie pdf
[PDF] sérigraphie technique d'impression pdf
[PDF] insolation ecran serigraphie
[PDF] apprendre la sérigraphie pdf
[PDF] logiciel serigraphie gratuit
[PDF] sérigraphie technique art
[PDF] sérigraphie explication
[PDF] résolution problème mathématique 3e année primaire
[PDF] histoire 4ème le serment du jeu de paume
[PDF] images serment du jeu de paume
[PDF] cause et consequence de la seconde guerre mondiale
Modélisation de séries stationnaires
MAP-STA2 : Séries chronologiques
Y. Goude - yannig.goude@edf.fr
2021-2022
Contents
Rappels et généralités1
Notion de stationnarité, auto-covariance, auto-corrélation . . . . . . . . . . . . . . . . . . . . . . . 4
Corrélation et auto-corrélation partielle 7Nous avons vu précédemment comment, si une série chronologique présente des composantes déterministes
(tendance ou saisonalité(s)), les estimer de manière à pouvoir effectuer une prévision. Nous nous intéressons
ici à la série corrigée de sa tendance et de sa ou ses saisonnalité(s) et à la notion de stationnarité.
Rappels et généralités
Ce chapitre fait appel à différentes notions de probabilité et statistiques que nous rappelons ici.
processus stochastique un processus stochastique est une famille de variables aléatoires(Yt)t?Idéfinies sur(Ω,A,P). Les applicationst→Yt(ω),ω?Ωsont appelés trajectoires du processus. processus Gaussien Le processus(Yt)t?Zest un processus gaussien si toutes ses lois marginales sont gaussiennes ie si?ket?j1,...,jk,(Yj1,Yj2,...,Yjk)est un vecteur gaussien. bruit blanc fort soitεtun processus aléatoire. On dira qu"il s"agit d"un bruit blanc fort si lesεtsontindépendants et identiquement distribués. Il est dit centré siE(εt) = 0et réduit si var(εt) = 1
bruit blanc faiblesoitεtun processus aléatoire. On dira qu"il s"agit d"un bruit blanc faible si lesεtvérifient:
•E(εt) =μ •E(ε2t) =σ2 •cov(εi,εj) = 0pouri?=j espace L 2 L"ensemble des variables aléatoiresXtelles queE(X2)<∞peut être muni d"une structured"espace vectoriel normé notéL2. On prend comme produit scalaire l"application(X,Y)→E(XY)et comme
norme||X||L2=?E(X2) covariancela covariance entre deux variables aléatoiresXetYest définie ainsi: cov(X,Y) =E[(X-E(X))(Y-E(Y))] =E(XY)-E(X)E(Y) produit sacalaire soitXetYdeux variables aléatoires,(X,Y)→E(XY)est un produit scalaire vérifiant les propriétés suivantes: •symétrie:E(XY) =E(Y X) •bilinéarité:E((aX+bY)Z) =aE(XZ) +bE(Y Z) 1 •positivité:E(X2)>= 0, caractère définiE(X2) = 0→P(X= 0) = 1orthogonalitésoitXetYdeux variables aléatoires, elles sont orthogonales lorsqueE(XY) = 0(si les
variables sont centrées cela revient à cov(X,Y)=0) distanceon définie la distance entreXetYdeux variables aléatoires pard(X,Y) =?E[(X-Y)2] espace engendré l"espace engendré par les variables aléatoiresX1,X2,...Xk, notéM(X1,..,Xk)est l"ensemble des combinaisons linéaires de ces variables: M(X1,..,Xk) ={λ1X1+...+λkXk,λ?Rk}={Xλ,λ?Rk} en notantX= (X1,...,Xk),λ= (λ1,...λk) projectionPM(X1,..,Xk)(Y) =Xαla projection linéaire d"une variableYsurM(X1,..,Xk)est telle que c"est le vecteur deM(X1,..,Xk)le plus proche deYau sens de la distanceddéfinie ci-dessus.propriété de la projection linéairela projection linéaire est orthogonale au planM(X1,..,Xk).
Ainsi:
?j?(1,..,k) :E[(Y-PM(X1,..,Xk)(Y))Xj] = 0 et donc?j?(1,..,k):1E(X1Xj) +...+αkE(XkXj) =E(Y Xj)
en notant: X=( (E(X21)... E(X1Xk)E(X1Xk)... E(X2k))
la matrice de covariance deX, et si cette matrice est inversible (si lesXjne sont pas linéairement dépendants)
on aα= Σ-1
X( (E(Y X1)E(Y Xk))
Pythagore
||Y||2L2=||PM(X1,..,Xk)||2
L2+||Y-PM(X1,..,Xk)||2
L2 extension de la loi des grands nombres lorsque l"on s"intéresse à un processus stochastique(Yt)t?Zonaimerait disposer d"un résultat de type loi des grands nombres sur une trajectoire du processus. Par exemple
on aimerait que la moyenne empirique1T T t=1Ytconverge p.s. versE(Y0)lorsqueT→ ∞. Celà n"est pastoujours vrai, notamment quand la dépendance temporelle entre les observations est trop "forte". Nous
admettrons le théorême suivant: 2théorêmesoientH: (Rd)Z→Rune fonction mesurable,(εi)i?Zune suite i.i.d. de v.a. à valeur dansRd.
PosonsYt=H((εi)i?Z), alors la série(Yt)t?Zest stationnaire forte (voir plus loin) et, siY0est intégrable:
limT→∞1T
T t=1Y t=E(Y0),p.s. exemple: voir plus loin le cas d"une moyenne mobile infinie. 3Notion de stationnarité, auto-covariance, auto-corrélationPour pouvoir espérer prévoir le futur d"une série chronologique(Yt), il est nécessaire que cette série présente
une certaine reproductibilité. Cela permet que l"inférence effectuée sur certains paramètres de loi ou de
modèle (corrélation, régression linéaire...) soit pérenne dans le temps. définition soit un processus aléatoire(Yt)t?Z, il est dit stationnaire au sens fort (ou strictement) si pour toute fonction f mesurablef(Y1,Y2,...,Yt)etf(Y1+h,Y2+h,...,Yt+h)ont la même loi.Cette notion de stationnarité forte est très difficile à vérifier en pratique. On lui préfère généralement la
notion de stationnarité faible qui porte sur les moments d"ordre 1 et 2 du processus. définitionla fonction d"auto-covariance d"un processusYt?Z cov(Yt,Yt+h) =γ(h) définitionla fonction d"auto-corrélation d"un processusYt?Zρ(h) =γ(h)/γ(0)
remarqueγ(h)etρ(h)sont des fonctions symétriques,ρ(0) = 1. définitionsoit un processus aléatoire(Yt)t?Ztel queE(Y2t)<∞, il est dit stationnaire au sens faible (ou
d"ordre 2) si son espérance est constante et ses auto-covariances sont stables dans le temps ie: ?t E(Yt) =μ ?t ,?hcov(Yt,Yt+h) =γ(h)On remarque quevar(Yt) =γ(0)et donc qu"un processus stationnaire faible à une variance constante dans le
temps.En pratique, pour apprécier la stationnarité d"un processus, on commence d"abord par vérifier que sa moyenne
et sa variance sont constantes dans le temps. exerciceselon vous quel(s) processus ci-dessous est(sont) stationnaire(s)? Pourquoi? 4050100200300
0 10 Index X1050100200300
-3 0 2 Index X2050100200300
-2 1 3 Index X3050100200300
-3 0 2 Index X4Voilà quelques examples de processus stationnaires: •un bruit blancεtvérifiantE(εt) =μet var(εt) =σ2 preuveon a par définition cov(εt,εt+h) = 0 Le processus gaussien(Yt)t?Ztel queE(Yt) =μetcov(Yt,Yt+h) =α|h|(|α|<1) est faiblement stationnaire. Tout processus gaussien stationnaire faible est stationnaire fort. •le processus moyenne mobileXt=εt+a1εt-1+a2εt-2+...+aqεt-q preuveγ(0) =σ2(1 +a21+...+a2q)
γ(1) =σ2(a1+a1a2+...+aq-1aq)
γ(q) =σ2(aq)
γ(q+h) = 0
•processus autorégressif d"ordre 1: Y t=aYt-1+εt en supposant que|a|<1on a bienE(Yt) = 0et var(Yt) =σ2(1 +a+a2+...) =σ21-a2 pour touth >0:γ(h) =σ2(ah+ah+2+...) =σ2ah1-a2
5 comme de plusγ(h) =γ(-h),γ(h) =σ2a|h|1-a2on remarque que pour ce processusρ(h) =a|h|, donc l"autocorrélation tend vers 0 à une vitesse exponentielle.
•soit(Xt)t?Zun processus stationnaire d"espéranceμet de fonction d"autocovarianceγ(h),(ai)i?Zune
suite de nombres réels absolument sommable? i?Z|ai|<∞, alorsYt=? i?ZaiXt-iest un processus stationnaire. tout d "abord, on remarque que i?Z||aiXt-i||=? i?Z|ai|||Xt-i||=?Var(X) +E(X)2? i?Z|ai|<∞ i?ZaiXt-iest donc bien convergente au sens deL2etYtest de carré intégrable. on vérifie également queE(Yt)ne dépend pas det: E(? i?Za iXt-i) =? i?Za iE(Xt-i) =μ? i?Za i ainsi que sa fonction d"autocovariance: cov(Yt,Yt+h) =cov(? i?Za iXt-i,? j?Za jXt+h-j) cov(Yt,Yt+h) =? i?Z? j?Za iajcov(Xt-i,Xt+h-j) cov(Yt,Yt+h) =? i?Z? j?Za iajγ(h+i-j))En pratique, on ne connait pas explicitement les fonctions d"auto-covariance et d"auto-corrélation. Il est donc
nécessaire de les estimer en se basant sur des observations. définition soit une série d"observations(yt)t?(1,...,n), notons¯y=1n n t=1yt, alors la fonction d"auto-covariance empirique vaut, pour touth?(0,...,n-1) ?γ(h) =1n-hn t=h+1(yt-¯y)(yt-h-¯y) définition soit une série d"observations(yt)t?(1,...,n), notons¯y=1n n t=1yt, alors la fonction d"auto-corrélation empirique vaut, pour touth?(0,...,n-1) ?ρ(h) =1n-h? n k=h+1(yt-¯y)(yt-h-¯y)1 n n t=1(yt-¯y)2Le graphique représentant la fonction d"auto-corrélation empirique est appelé l"auto-corrélogramme.
exemplevoilà un exemple de série et son auto-corrélogramme, à votre avis de quel type de série s"agit-il?
6050100150200
-2 -1 0 1 2 Index y05101520
0.0 0.2 0.4 0.6 0.8 1.0 Lag ACFCorrélation et auto-corrélation partielleLorsque l"on s"intéresse à caractériser les dépendances d"au moins 3 variables aléatoires, il est nécessaire
d"introduire la notion de corrélation partielle. En effet,si l"on considère les variablesX1,...,Xk,X1peut être
corrélée àX3parce queX1etX3sont toutes deux corrélées àX2. Voilà quelques exemples frappants:
définition soit les variables aléatoiresX1,...,Xk, le coefficient de corrélation partielle entreX1etXk abstraction faite deX2,...,Xk-1est définie par: r X2,..,Xk-1(X1,Xk) =ρ(X1-PM(X2,..,Xk-1),Xk-PM(X2,..,Xk-1))exercicesoitX,Z1,Z23 variables aléatoires indépendantes centrées de variance 1, et les variablesX1etX2
définies ainsi: X1=X+Z1etX2=X+Z2
Calculerρ(X1,X2)puisrX(X1,X2). Commenter.
définitionsoit un processus aléatoire(Yt)t?Zstationnaire faible centré. La fonction d"auto-corrélation
partielle est définie de la manière suivante: r(1) =ρ(1) r(h) =rY2,...,Yh(Y1,Yh+1),?h≥2 r(h) =r(-h)quotesdbs_dbs45.pdfusesText_45