Wednesday 18 January 2017

Déménagement Moyen Process Est Stationnaire

Considérons le processus d'ordre infini MA défini par ytepsilonta (epsilon epsilon.), Où a est une constante et les epsilonts sont i. i.d. N (0, v) variable aléatoire. Quelle est la meilleure façon de montrer que yt est non stationnaire Je sais que je dois regarder les racines caractéristiques du polynôme caractéristiques et ensuite juger si elles sont ou non en dehors du cercle unité, mais quelle est la meilleure façon d'aborder ce problème Est-ce que je dois essayer de réécrire le processus de l'ordre infini MA comme un processus d'ordre fini AR ou est-il plus facile de travailler le processus MA demandé Oct 19 13 à 21: 11A Brève Introduction à la série temporelle moderne Définition Une série temporelle est une fonction aléatoire xt d'un argument T dans un ensemble T. Autrement dit, une série temporelle est une famille de variables aléatoires. X t-1. X t. X t1. Correspondant à tous les éléments de l'ensemble T, où T est supposé être un ensemble dénombrable et infini. Définition Une série de temps observée t t e T o T est considérée comme une partie d'une réalisation d'une fonction aléatoire x t. On appelle ensemble un ensemble infini de réalisations possibles qu'on aurait pu observer. Pour mettre les choses plus rigoureusement, la série temporelle (ou fonction aléatoire) est une fonction réelle x (w, t) des deux variables w et t, où wW et t T. Si on fixe la valeur de w. Nous avons une fonction réelle x (t w) du temps t, qui est une réalisation de la série temporelle. Si on fixe la valeur de t, alors on a une variable aléatoire x (w t). Pour un moment donné, il existe une distribution de probabilité sur x. Ainsi, une fonction aléatoire x (w, t) peut être considérée comme une famille de variables aléatoires ou comme une famille de réalisations. Définition Nous définissons la fonction de distribution de la variable aléatoire w donnée t 0 comme P o) x (x). De même, nous pouvons définir la distribution conjointe pour n variables aléatoires. Les points qui distinguent l'analyse en séries chronologiques des analyses statistiques ordinaires sont les suivants: (1) La dépendance entre les observations à différents moments chronologiques joue un rôle essentiel. En d'autres termes, l'ordre des observations est important. Dans l'analyse statistique ordinaire, on suppose que les observations sont mutuellement indépendantes. (2) Le domaine de t est infini. (3) Nous devons faire une inférence à partir d'une réalisation. La réalisation de la variable aléatoire ne peut être observée qu'une seule fois à chaque instant. Dans l'analyse multivariée, nous avons de nombreuses observations sur un nombre fini de variables. Cette différence critique nécessite l'hypothèse de stationnarité. Définition La fonction aléatoire x t est dite strictement stationnaire si toutes les fonctions de distribution dimensionnelle finie définissant x t restent les mêmes même si l'ensemble des points t 1. T 2. T n est décalée le long de l'axe temporel. Autrement dit, si pour tout entier t 1. T 2. T n et k. Graphiquement, on pourrait imaginer la réalisation d'une série strictement stationnaire ayant non seulement le même niveau dans deux intervalles différents, mais aussi la même fonction de distribution, jusque dans les paramètres qui la définissent. L'hypothèse de stationnarité rend notre vie plus simple et moins coûteuse. Sans stationnarité, nous devrions échantillonner le processus fréquemment à chaque point temporel afin de construire une caractérisation des fonctions de distribution dans la définition précédente. La stationnarité signifie que nous pouvons limiter notre attention à quelques-unes des fonctions numériques les plus simples, c'est-à-dire les moments des distributions. Les moments centraux sont donnés par Définition (i) La valeur moyenne de la série temporelle t est le moment du premier ordre. (Ii) La fonction d'autocovariance de t est i. e. le second moment autour de la moyenne. Si st alors vous avez la variance de x t. Nous utiliserons pour désigner l'autocovariance d'une série stationnaire, où k désigne la différence entre t et s. (Iii) La fonction d'autocorrélation (ACF) de t est. Nous utiliserons pour désigner l'autocorrélation d'une série stationnaire, où k désigne la différence entre t et s. (Iv) L'autocorrélation partielle (PACF). Fkk. Est la corrélation entre z t et z tk après suppression de leur dépendance linéaire mutuelle sur les variables intervenantes z t1. Z t2. Z tk-1. Un moyen simple de calculer l'autocorrélation partielle entre z t et z tk consiste à exécuter les deux régressions puis à calculer la corrélation entre les deux vecteurs résiduels. Ou, après avoir mesuré les variables comme écarts par rapport à leurs moyennes, l'autocorrélation partielle peut être trouvée comme le coefficient de régression LS sur z t dans le modèle où le point sur la variable indique qu'il est mesuré comme un écart par rapport à sa moyenne. (V) Les équations de Yule-Walker fournissent une relation importante entre les autocorrélations partielles et les autocorrélations. Multiplier les deux côtés de l'équation 10 par z tk-j et prendre les attentes. Cette opération nous donne l'équation de différence suivante dans les autocovariances ou, en termes d'autocorrélations Cette représentation apparemment simple est vraiment un résultat puissant. A savoir, pour j1,2. K on peut écrire le système complet des équations, connu sous le nom d'équations de Yule-Walker, de l'algèbre linéaire vous savez que la matrice de r s est de rang complet. Par conséquent, il est possible d'appliquer la règle Cramers successivement pour k1,2. Pour résoudre le système pour les autocorrélations partielles. Les trois premiers sont Nous avons trois résultats importants sur des séries strictement stationnaires. L'implication est que nous pouvons utiliser toute réalisation finie de la séquence pour estimer la moyenne. Seconde . Si t est strictement stationnaire et E t 2 lt alors L'implication est que l'autocovariance ne dépend que de la différence entre t et s, et non de leur point chronologique dans le temps. Nous pourrions utiliser n'importe quelle paire d'intervalles dans le calcul de l'autocovariance tant que le temps entre eux était constant. Et nous pouvons utiliser toute réalisation finie des données pour estimer les autocovariances. En troisième lieu, la fonction d'autocorrélation en cas de stationnarité stricte est donnée par L'implication est que l'autocorrélation ne dépend que de la différence entre t et s, et encore ils peuvent être estimés par toute réalisation finie des données. Si notre but est d'estimer des paramètres qui sont descriptifs des réalisations possibles de la série chronologique, alors peut-être la stationnarité stricte est trop restrictive. Par exemple, si la moyenne et les covariances de x t sont constantes et indépendantes du point chronologique dans le temps, alors peut-être n'est-il pas important pour nous que la fonction de distribution soit la même pour différents intervalles de temps. Définition Une fonction aléatoire est stationnaire dans le sens large (ou faiblement stationnaire, ou stationnaire en sens Khinchins, ou covariance stationnaire) si m 1 (t) m et m 11 (t, s). La stationnarité stricte n'implique pas en soi une faible stationnarité. La stationnarité faible n'implique pas de stationnarité stricte. La stationnarité stricte avec E t 2 lt implique une faible stationnarité. Les théorèmes ergodiques concernent la question des conditions nécessaires et suffisantes pour faire une inférence à partir d'une seule réalisation d'une série chronologique. Fondamentalement, il se résume à supposer faible stationnarité. Théorème Si t est faiblement stationnaire avec m moyenne et fonction de covariance, c'est-à-dire que pour tout gt 0 donné et h gt 0 il existe un nombre T o tel que pour tout T gt T o. Si et seulement si Cette condition nécessaire et suffisante est que les autocovariances disparaissent, auquel cas la moyenne de l'échantillon est un estimateur cohérent pour la moyenne de la population. Corollaire Si t est faiblement stationnaire avec E tk xt 2 lt pour tout t, et E tk xtx tsk x ts est indépendant de t pour tout entier s, alors si et seulement si, où A conséquence du corollaire est l'hypothèse que xtx tk est Faiblement stationnaire. Le Théorème Ergodique n'est plus qu'une loi de grand nombre lorsque les observations sont corrélées. On peut se demander maintenant quelles sont les implications pratiques de la stationnarité. L'application la plus courante de l'utilisation des techniques de séries chronologiques est la modélisation des données macroéconomiques, à la fois théoriques et atheoretiques. À titre d'exemple de la première, on pourrait avoir un modèle multiplicateur-accélérateur. Pour que le modèle soit stationnaire, les paramètres doivent avoir certaines valeurs. Un test du modèle consiste alors à collecter les données pertinentes et à estimer les paramètres. Si les estimations ne concordent pas avec la stationnarité, il faut alors repenser soit le modèle théorique, soit le modèle statistique, soit les deux. Nous avons maintenant assez de machines pour commencer à parler de la modélisation des séries chronologiques univariées. Il ya quatre étapes dans le processus. 1. construire des modèles à partir de connaissances théoriques ou expérientielles 2. identifier des modèles à partir des données (séries observées) 3. adapter les modèles (estimer les paramètres du ou des modèles) 4. vérifier le modèle Si dans la quatrième étape nous ne sommes pas Satisfaits, nous retournons à la première étape. Le processus est itératif jusqu'à ce que la vérification et la respecification ne donnent aucune amélioration supplémentaire des résultats. Diagramme Définition Quelques opérations simples incluent ce qui suit: L'opérateur de backshift Bx tx t-1 L'opérateur forward Fx tx t1 L'opérateur de différence 1 - B xtxt - x t-1 L'opérateur de différence se comporte d'une manière cohérente avec la constante dans une série infinie . C'est-à-dire que son inverse est la limite d'une somme infinie. A savoir, -1 (1-B) -1 1 (1-B) 1BB 2. L'opérateur d'intégration S -1 Comme c'est l'inverse de l'opérateur de différence, l'opérateur d'intégration sert à construire la somme. MODEL BUILDING Dans cette section, nous vous proposons un bref aperçu des modèles de séries chronologiques les plus courants. Sur la base d'une connaissance du processus de génération de données, on choisit une classe de modèles d'identification et d'estimation à partir des possibilités qui suivent. Définition Supposons que Ex t m soit indépendant de t. Un modèle tel qu'avec les caractéristiques est appelé le modèle autorégressif d'ordre p, AR (p). Définition Si une variable dépendante du temps (processus stochastique) t satisfait alors t est dit satisfaire la propriété de Markov. Sur le LHS l'attente est conditionnée à l'histoire infinie de x t. Sur le RHS il est conditionné sur seulement une partie de l'histoire. D'après les définitions, un modèle AR (p) est considéré comme satisfaisant la propriété de Markov. En utilisant l'opérateur backshift, nous pouvons écrire notre modèle AR comme théorème Une condition nécessaire et suffisante pour que le modèle AR (p) soit stationnaire, c'est que toutes les racines du polynôme sont situées en dehors du cercle unitaire. Exemple 1 Considérons l'AR (1) La seule racine de 1 - f 1 B 0 est B 1 f 1. La condition de stationnarité exige que. Si alors la série observée apparaîtra très frénétique. Par exemple. Considérer dans lequel le terme de bruit blanc a une distribution normale avec une moyenne nulle et une variance de un. Les observations changent de signe avec presque toutes les observations. Si, d'autre part, alors la série observée sera beaucoup plus lisse. Dans cette série, une observation tend à être supérieure à 0 si son prédécesseur était au-dessus de zéro. La variance de e t est s e 2 pour tout t. La variance de x t. Quand il a la moyenne zéro, est donné par. Puisque la série est stationnaire, nous pouvons écrire. La fonction d'autocovariance d'une série AR (1) est, en supposant sans perte de généralité m 0 Pour voir ce que cela ressemble en termes de paramètres AR nous ferons usage du fait que nous pouvons écrire xt comme suit Multiplier par x Tk et prendre des attentes Notez que les autocovariances s'éteignent au fur et à mesure que k croît. La fonction d'autocorrélation est l'autocovariance divisée par la variance du terme de bruit blanc. Ou, . En utilisant les formules précédentes de Yule-Walker pour les autocorrélations partielles, on a: Pour un AR (1), les autocorrélations s'éteignent exponentiellement et les autocorrélations partielles présentent un pic à un retard et sont nulles par la suite. Exemple 2 Considérons l'AR (2) Le polynôme associé dans l'opérateur de retard est Les racines peuvent être trouvées en utilisant la formule quadratique. Les racines sont Quand les racines sont réelles et en conséquence la série va diminuer exponentiellement en réponse à un choc. Quand les racines sont complexes et la série apparaîtra comme une onde de signe amortie. Le théorème de stationarité impose les conditions suivantes sur les coefficients AR L'autocovariance pour un processus AR (2), avec une moyenne nulle, est Dividing through par la variance de xt donne la fonction d'autocorrélation Puisque nous pouvons écrire De même pour la deuxième et la troisième autocorrélations Les autocorrélations sont résolues de manière récursive. Leur modèle est régi par les racines de l'équation de différence linéaire du second ordre. Si les racines sont réelles, les autocorrélations vont diminuer exponentiellement. Lorsque les racines sont complexes, les autocorrélations apparaîtront comme une onde sinusoïdale amortie. En utilisant les équations de Yule-Walker, les autocorrélations partielles sont Encore, les autocorrélations s'éteignent lentement. L'autocorrélation partielle, d'autre part, est très distinctive. Il a des pics à un et deux retards et est nulle par la suite. Théorème Si x t est un processus stationnaire AR (p), il peut être écrit sous forme de modèle de filtre linéaire. C'est-à-dire que le polynôme dans l'opérateur de retour peut être inversé et l'AR (p) écrit comme une moyenne mobile d'ordre infini à la place. Exemple Supposons que z t soit un processus AR (1) avec une moyenne nulle. Ce qui est vrai pour la période courante doit également être vrai pour les périodes antérieures. Ainsi, par substitution récursive, on peut écrire Carré des deux côtés et prendre des espérances que le côté droit disparaît comme k puisque f lt 1. Donc la somme converge vers z t en moyenne quadratique. Nous pouvons réécrire le modèle AR (p) comme un filtre linéaire que nous savons être stationnaire. La fonction d'autocorrélation et l'autocorrélation partielle En général Supposons qu'une série stationnaire z t avec zéro moyen est connue pour être autorégressive. La fonction d'autocorrélation d'un AR (p) est trouvée en prenant des espérances et en divisant par la variance de z t Cela nous dit que r k est une combinaison linéaire des autocorrélations précédentes. Nous pouvons utiliser ceci en appliquant la règle de Cramers à (i) en résolvant pour f kk. En particulier, nous pouvons voir que cette dépendance linéaire fera que f kk 0 pour k gt p. Cette caractéristique distinctive des séries autorégressives sera très utile quand il s'agit d'identifier une série inconnue. Si vous avez MathCAD ou MathCAD Explorer, vous pouvez expérimenter interactivley avec quelques-unes des idées AR (p) présentées ici. Modèles de moyenne mobile Considérons un modèle dynamique dans lequel la série d'intérêt ne dépend que d'une partie de l'histoire du terme de bruit blanc. Schématiquement, cela peut être représenté comme Définition Supposons que a t est une séquence non corrélée de i. i.d. Variables aléatoires avec moyenne nulle et variance finie. Alors un processus de moyenne mobile d'ordre q, MA (q), est donné par Théorème: Un processus de moyenne mobile est toujours stationnaire. Preuve: Plutôt que de commencer par une preuve générale, nous le ferons pour un cas particulier. Supposons que z t soit MA (1). Alors . Bien entendu, un t a une moyenne nulle et une variance finie. La moyenne de z t est toujours nulle. Les autocovariances seront données par. Vous pouvez voir que la moyenne de la variable aléatoire ne dépend en aucune façon du temps. Vous pouvez également voir que l'autocovariance dépend uniquement du décalage s, et non de l'endroit où la série commence. Nous pouvons prouver le même résultat plus généralement en commençant par, ce qui a la représentation moyenne mobile alternative. Considérons d'abord la variance de z t. Par substitution récursive, vous pouvez montrer que ceci est égal à La somme que nous savons être une série convergente de sorte que la variance est finie et indépendante du temps. Les covariances sont, par exemple, Vous pouvez également voir que les covariances automatiques ne dépendent que des points relatifs dans le temps, et non du point chronologique dans le temps. Notre conclusion de tout ceci est qu'un processus MA () est stationnaire. Pour le processus MA (q) général, la fonction d'autocorrélation est donnée par: La fonction d'autocorrélation partielle disparaît progressivement. Vous pouvez le voir en inversant le processus pour obtenir un processus AR (). Si vous avez MathCAD ou MathCAD Explorer, vous pouvez expérimenter interactivement avec certaines des idées MA (q) présentées ici. Variable Autoregressive - Moyens mobiles Définition Supposons a t une suite non corrélée de i. i.d. Variables aléatoires avec moyenne nulle et variance finie. Alors un processus d'ordre autorégressif et mobile d'ordre (p, q), ARMA (p, q), est donné par Les racines de l'opérateur autorégressif doivent toutes se trouver en dehors du cercle unitaire. Le nombre d'inconnues est pq2. Les p et q sont évidents. Le 2 comprend le niveau du processus, m. Et la variance du terme de bruit blanc, sa 2. Supposons que nous combinons nos représentations AR et MA de sorte que le modèle soit et que les coefficients soient normalisés de sorte que bo 1. Alors cette représentation est appelée ARMA (p, q) si la Les racines de (1) se situent toutes en dehors du cercle unitaire. Supposons que les y t soient mesurés comme des écarts par rapport à la moyenne, de sorte que nous pouvons laisser tomber un o. Alors la fonction d'autocovariance est dérivée de si jgtq alors les termes MA abandonnent dans l'attente de donner C'est, la fonction d'autocovariance ressemble à un AR typique pour les décalages après q ils meurent en douceur après q, mais nous ne pouvons pas dire comment 1,2,133, Q regardera. Nous pouvons également examiner le PACF pour cette classe de modèle. Le modèle peut être écrit comme Nous pouvons écrire ceci comme un processus MA (inf) qui suggère que les PACFs disparaissent lentement. Avec un peu d'arithmétique, nous pourrions montrer que cela ne se produit qu'après les premiers pics p apportés par la partie AR. Loi empirique En réalité, une série temporelle stationnaire peut bien être représentée par p 2 et q 2. Si votre entreprise est de fournir une bonne approximation de la réalité et la bonté de l'ajustement est votre critère, puis un modèle prodigue est préféré. Si votre intérêt est l'efficacité prédictive, le modèle parcimonieux est préféré. Expérimentez avec les idées ARMA présentées ci-dessus avec une feuille de calcul MathCAD. Autoregressive Intégrer les modèles de moyenne mobile Filtre MA Filtre AR Intégrer le filtre Parfois, le processus ou la série que nous essayons de modéliser n'est pas stationnaire en niveaux. Mais il pourrait être immobile dans, disons, les premières différences. C'est-à-dire que, dans sa forme originale, les autocovariances de la série pourraient ne pas être indépendantes du point chronologique dans le temps. Cependant, si nous construisons une nouvelle série qui est les premières différences de la série originale, cette nouvelle série satisfait à la définition de stationnarité. C'est souvent le cas avec les données économiques qui sont très tendance. Définition Supposons que z t n'est pas stationnaire, mais z t - z t-1 vérifie la définition de stationnarité. En outre, à, le terme de bruit blanc a fini moyenne et la variance. Nous pouvons écrire le modèle comme Ceci est nommé un modèle ARIMA (p, d, q). P identifie l'ordre de l'opérateur AR, d identifie l'alimentation. Q identifie l'ordre de l'opérateur MA. Si les racines de f (B) se situent en dehors du cercle unitaire, nous pouvons réécrire ARIMA (p, d, q) en tant que filtre linéaire. C'est à dire. Il peut être écrit comme un MA (). Nous nous réservons la discussion de la détection des racines unitaires pour une autre partie des notes de cours. Considérons un système dynamique avec x t comme une série d'entrée et y t comme une série de sortie. Ces modèles sont une analogie discrète des équations différentielles linéaires. On suppose la relation suivante où b désigne un retard pur. Rappelons que (1-B). Si le polynôme de coefficient sur y t peut être inversé, le modèle peut être écrit que V (B) est connu comme la fonction de réponse impulsionnelle. Nous retrouverons cette terminologie dans notre discussion ultérieure sur le vecteur autorégressif. De cointegration et de correction d'erreurs. MODÈLE D'IDENTIFICATION Après avoir décidé d'une classe de modèles, il faut maintenant identifier l'ordre des processus générant les données. C'est-à-dire, il faut faire les meilleures conjectures quant à l'ordre des processus AR et MA conduisant la série stationnaire. Une série stationnaire est complètement caractérisée par sa moyenne et autocovariances. Pour des raisons analytiques, nous travaillons habituellement avec les autocorrélations et les autocorrélations partielles. Ces deux outils de base ont des modèles uniques pour les processus AR et MA stationnaires. On pourrait calculer des estimations d'échantillonnage des fonctions d'autocorrélation et d'autocorrélation partielle et les comparer aux résultats tabulés pour les modèles standard. Exemple de fonction d'autocovariance Exemple de fonction d'autocorrélation Les autocorrélations partielles de l'échantillon seront Utiliser les autocorrélations et les autocorrélations partielles est assez simple en principe. Supposons que nous ayons une série z t. Avec une moyenne nulle, qui est AR (1). Si on exécutait la régression de z t2 sur z t1 et z t on s'attendrait à trouver que le coefficient sur z t n'était pas différent de zéro puisque cette autocorrélation partielle devrait être nulle. D'autre part, les autocorrélations de cette série devraient décroître exponentiellement pour les retards croissants (voir l'exemple AR (1) ci-dessus). Supposons que la série est vraiment une moyenne mobile. L'autocorrélation devrait être nulle partout, mais au premier décalage. L'autocorrélation partielle doit s'éteindre exponentiellement. Même à partir de notre parcours très sommaire à travers les bases de l'analyse des séries chronologiques, il est évident qu'il existe une dualité entre les processus AR et MA. Cette dualité peut être résumée dans le tableau suivant.


No comments:

Post a Comment