Sunday, 19 February 2017

Autoregressive Mobile Moyenne Modèle Variance

8.3 Modèles autorégressifs Dans un modèle de régression multiple, nous prévisionnons la variable d'intérêt en utilisant une combinaison linéaire de prédicteurs. Dans un modèle d'autorégression, nous prévisionnons la variable d'intérêt en utilisant une combinaison linéaire de valeurs passées de la variable. Le terme régression automatique indique qu'il s'agit d'une régression de la variable contre elle-même. Ainsi, un modèle autorégressif d'ordre p peut s'écrire: où c est une constante et est un bruit blanc. C'est comme une régression multiple, mais avec des valeurs retardées de yt comme prédicteurs. Nous appelons cela un modèle AR (p). Les modèles autorégressifs sont remarquablement souples pour traiter une large gamme de modèles de séries temporelles différents. Les deux séries de la figure 8.5 montrent des séries d'un modèle AR (1) et d'un modèle AR (2). La modification des paramètres phi1, dots, phip donne différents schémas de séries chronologiques. La variance du terme d'erreur et ne changera que l'échelle de la série, et non pas les motifs. Figure 8.5: Deux exemples de données provenant de modèles autorégressifs avec différents paramètres. Gauche: AR (1) avec yt 18 -0,8y et. Droit: AR (2) avec yt 8 ​​1,3y -0,7y et. Dans les deux cas, et est normalement distribué le bruit blanc avec moyenne zéro et la variance un. Pour un modèle AR (1): Lorsque phi10, yt est équivalent au bruit blanc. Quand phi11 et c0, yt est équivalent à une marche aléatoire. Lorsque phi11 et cne0, yt est équivalent à une marche aléatoire avec dérive Quand phi1t0, yt tend à osciller entre valeurs positives et négatives. Normalement, nous restreignons les modèles autorégressifs aux données stationnaires, puis quelques contraintes sur les valeurs des paramètres sont requises. Pour un modèle AR (1): -1 lt phi1 lt 1. Pour un modèle AR (2): -1 lt phi2 lt 1, phi1phi2 lt 1, phi2-phi1 lt 1. Lorsque pge3, les restrictions sont beaucoup plus compliquées. R prend soin de ces restrictions lors de l'estimation d'un modèle.8.4 Modèles de moyenne mobile Au lieu d'utiliser les valeurs passées de la variable de prévision dans une régression, un modèle de moyenne mobile utilise les erreurs de prévision passées dans un modèle de type régression. Y c et theta e theta e dots theta e, où et est le bruit blanc. Nous appelons cela un modèle MA (q). Bien sûr, nous n'observons pas les valeurs de et, donc ce n'est pas vraiment une régression au sens usuel. Notez que chaque valeur de yt peut être considérée comme une moyenne mobile pondérée des dernières erreurs de prévision. Toutefois, les modèles de moyenne mobile ne doivent pas être confondus avec le lissage moyen mobile décrit au chapitre 6. Un modèle de moyenne mobile est utilisé pour prévoir les valeurs futures, tandis que le lissage moyen mobile est utilisé pour estimer le cycle tendanciel des valeurs passées. Figure 8.6: Deux exemples de données provenant de modèles de moyenne mobile avec des paramètres différents. A gauche: MA (1) avec y t 20e t 0.8e t-1. A droite: MA (2) avec y t e t - e t-1 0.8e t-2. Dans les deux cas, e t est le bruit blanc normalement distribué avec zéro moyen et variance un. La figure 8.6 présente certaines données d'un modèle MA (1) et d'un modèle MA (2). Modification des paramètres theta1, points, thetaq résultats dans différents modèles de séries chronologiques. Comme pour les modèles autorégressifs, la variance du terme d'erreur et ne changera que l'échelle de la série, et non pas les motifs. Il est possible d'écrire un modèle AR (p) stationnaire comme modèle MA (infty). Par exemple, en utilisant une substitution répétée, nous pouvons le démontrer pour un modèle AR (1): begin php phi1y ph php phi1y phi1y phi1y phi1y 1, la valeur de phi1k diminue à mesure que k devient plus grand. Ainsi, nous obtenons finalement un processus de MA (infty) et yt et phi1 e phi12 e phi13 e cdots. Le résultat inverse se vérifie si l'on impose certaines contraintes aux paramètres MA. Ensuite, le modèle MA est appelé inversible. C'est-à-dire que nous pouvons écrire tout processus inverse MA (q) comme un processus AR (infty). Les modèles Invertible ne sont pas simplement pour nous permettre de convertir des modèles MA en modèles AR. Ils ont également des propriétés mathématiques qui les rendent plus faciles à utiliser dans la pratique. Les contraintes d'inversibilité sont similaires aux contraintes de stationnarité. Pour un modèle MA (1): -1lttheta1lt1. Pour un modèle MA (2): -1lttheta2lt1, theta2theta1 gt-1, theta1-theta2 lt 1. Des conditions plus compliquées tiennent pour qge3. Encore une fois, R prendra soin de ces contraintes lors de l'estimation des modèles. Un RIMA signifie Autoregressive Integrated Moving Average. Univariée (vecteur unique) ARIMA est une technique de prévision qui projette les valeurs futures d'une série basée entièrement sur sa propre inertie. Sa principale application est dans le domaine de la prévision à court terme nécessitant au moins 40 points de données historiques. Il fonctionne mieux lorsque vos données présentent un modèle stable ou cohérent avec le temps avec un minimum de valeurs aberrantes. Parfois appelé Box-Jenkins (après les auteurs originaux), ARIMA est généralement supérieur aux techniques de lissage exponentiel quand les données sont raisonnablement longues et la corrélation entre les observations passées est stable. Si les données sont courtes ou très volatiles, une méthode de lissage peut avoir un meilleur rendement. Si vous n'avez pas au moins 38 points de données, vous devriez considérer une autre méthode que ARIMA. La première étape de l'application de la méthodologie ARIMA est de vérifier la stationnarité. La stationnarité implique que la série reste à un niveau relativement constant dans le temps. Si une tendance existe, comme dans la plupart des applications économiques ou commerciales, vos données ne sont PAS stationnaires. Les données devraient également montrer une variance constante de ses fluctuations dans le temps. Cela se voit facilement avec une série qui est fortement saisonnière et croissant à un rythme plus rapide. Dans un tel cas, les hauts et les bas de la saisonnalité deviendront plus dramatiques avec le temps. Sans ces conditions de stationnarité rencontrées, un grand nombre des calculs associés au procédé ne peuvent pas être calculés. Si une représentation graphique des données indique la non-stationnalité, alors vous devez faire une différence entre les séries. La différence est un excellent moyen de transformer une série non stationnaire en stationnaire. Ceci est fait en soustrayant l'observation dans la période courante de la précédente. Si cette transformation n'est effectuée qu'une seule fois dans une série, vous dites que les données ont été différenciées pour la première fois. Ce processus élimine essentiellement la tendance si votre série croît à un taux assez constant. Si elle croît à un rythme croissant, vous pouvez appliquer la même procédure et la différence les données à nouveau. Vos données seraient ensuite secondées. Les autocorrélations sont des valeurs numériques qui indiquent comment une série de données est liée à elle-même dans le temps. Plus précisément, elle mesure à quel point les valeurs de données à un certain nombre de périodes séparées sont corrélées les unes aux autres dans le temps. Le nombre de périodes d'intervalle est généralement appelé le décalage. Par exemple, une autocorrélation au décalage 1 mesure comment les valeurs 1 période séparées sont corrélées les unes aux autres tout au long de la série. Une autocorrélation au décalage 2 mesure comment les données deux périodes séparées sont corrélées tout au long de la série. Les autocorrélations peuvent varier de 1 à -1. Une valeur proche de 1 indique une corrélation positive élevée alors qu'une valeur proche de -1 implique une corrélation négative élevée. Ces mesures sont le plus souvent évaluées par des parcelles graphiques appelées corrélagrammes. Un corrélogramme trace les valeurs d'autocorrélation pour une série donnée à différents décalages. Ceci est appelé la fonction d'autocorrélation et est très important dans la méthode ARIMA. La méthodologie ARIMA tente de décrire les mouvements d'une série temporelle stationnaire en fonction de ce que l'on appelle les paramètres autorégressifs et de moyenne mobile. Ceux-ci sont appelés paramètres AR (autoregessive) et MA (moyennes mobiles). Un modèle AR avec un seul paramètre peut être écrit comme. X (t) A (1) X (t-1) E (t) où X (t) séries temporelles sous enquête A (1) le paramètre autorégressif d'ordre 1 X (t-1) (T) le terme d'erreur du modèle Cela signifie simplement que toute valeur donnée X (t) peut être expliquée par une fonction de sa valeur précédente, X (t-1), plus une erreur aléatoire inexplicable, E (t). Si la valeur estimée de A (1) était de 0,30, alors la valeur actuelle de la série serait liée à 30 de sa valeur il y a une période. Bien sûr, la série pourrait être liée à plus d'une valeur passée. Par exemple, X (t) A (1) X (t-1) A (2) X (t-2) E (t) Cela indique que la valeur courante de la série est une combinaison des deux valeurs immédiatement précédentes, X (t-1) et X (t-2), plus une erreur aléatoire E (t). Notre modèle est maintenant un modèle autorégressif de l'ordre 2. Modèles de moyenne mobile: Un deuxième type de modèle de Box-Jenkins est appelé un modèle de moyenne mobile. Bien que ces modèles semblent très semblables au modèle AR, le concept derrière eux est tout à fait différent. Les paramètres de la moyenne mobile rapportent ce qui se produit dans la période t seulement aux erreurs aléatoires qui se sont produites dans des périodes passées, c'est-à-dire E (t-1), E (t-2), etc. plutôt que X (t-1) T-2), (Xt-3) comme dans les approches autorégressives. Un modèle de moyenne mobile avec un terme MA peut s'écrire comme suit. X (t) - B (1) E (t-1) E (t) Le terme B (1) est appelé MA d'ordre 1. Le signe négatif devant le paramètre est utilisé uniquement pour la convention et est habituellement imprimé Automatiquement par la plupart des programmes informatiques. Le modèle ci-dessus dit simplement que toute valeur donnée de X (t) est directement liée uniquement à l'erreur aléatoire de la période précédente, E (t-1), et au terme d'erreur courant E (t). Comme dans le cas des modèles autorégressifs, les modèles de moyenne mobile peuvent être étendus à des structures d'ordre supérieur couvrant différentes combinaisons et des longueurs moyennes mobiles. La méthodologie ARIMA permet également de construire des modèles intégrant à la fois des paramètres autorégressifs et des paramètres de la moyenne mobile. Ces modèles sont souvent appelés modèles mixtes. Bien que cela constitue un outil de prévision plus compliqué, la structure peut en effet simuler la série mieux et produire une prévision plus précise. Les modèles purs impliquent que la structure ne se compose que de paramètres AR ou MA - pas les deux. Les modèles développés par cette approche sont habituellement appelés modèles ARIMA car ils utilisent une combinaison d'auto-régression (AR), d'intégration (I) - se référant au processus inverse de différenciation pour produire les opérations de prévision et de moyenne mobile (MA). Un modèle ARIMA est habituellement déclaré comme ARIMA (p, d, q). Cela représente l'ordre des composantes autorégressives (p), le nombre d'opérateurs de différenciation (d) et l'ordre le plus élevé du terme moyen mobile. Par exemple, ARIMA (2,1,1) signifie que vous avez un modèle autorégressif de second ordre avec une composante moyenne mobile de premier ordre dont la série a été différenciée une fois pour induire la stationnarité. Picking the Right Specification: Le principal problème dans le classique Box-Jenkins est d'essayer de décider quelle spécification ARIMA à utiliser - i. e. Combien de paramètres AR et / ou MA à inclure. C'est ce que beaucoup de Box-Jenkings 1976 a été consacré au processus d'identification. Elle dépend de l'éva - luation graphique et numérique des fonctions d'autocorrélation et d'autocorrélation partielle. Eh bien, pour vos modèles de base, la tâche n'est pas trop difficile. Chacun a des fonctions d'autocorrélation qui ont une certaine apparence. Cependant, lorsque vous montez en complexité, les motifs ne sont pas facilement détectés. Pour rendre les choses plus difficiles, vos données ne représentent qu'un échantillon du processus sous-jacent. Cela signifie que les erreurs d'échantillonnage (valeurs aberrantes, erreurs de mesure, etc.) peuvent fausser le processus d'identification théorique. C'est pourquoi la modélisation ARIMA traditionnelle est un art plutôt qu'une science.


No comments:

Post a Comment