導入
統計学では、 ARMAモデル (自己回帰モデルおよび移動平均モデル)、またはBox-Jenkins モデルが主要な時系列モデルです。
時系列X tが与えられた場合、 ARMAモデルは、この系列の将来の値を理解し、場合によっては予測するためのツールです。モデルは、自己回帰部分 (AR) と移動平均部分 (MA) の 2 つの部分で構成されます。モデルは一般に ARMA( p , q ) で表されます。ここで、 p はAR 部分の次数、 q はMA 部分の次数です。

自己回帰モデル
AR( p ) という表記は、次数pの自己回帰モデルを指します。 AR( p ) モデルに注目
- $$ { X_t = c + \sum_{i=1}^p \varphi_i X_{t-i}+ \varepsilon_t .\,} $$
または
定常性を保証するには、パラメータに対する追加の制約が必要です。たとえば、AR(1) モデルの場合、次のようなプロセスが実行されます。 φ1 | ≥ 1 は静止していません。

例: AR(1) プロセス
AR(1) モデルは次のように与えられます。
- $$ {X_t = c + \varphi X_{t-1}+\varepsilon_t,\,} $$
または
- $$ {\mbox{E}(X_t)=\mbox{E}(c)+\varphi\mbox{E}(X_{t-1})+\mbox{E}(\varepsilon_t)\Rightarrow \mu=c+\varphi\mu+0.} $$
それで
- $$ {\mu=\frac{c}{1-\varphi}.} $$
特に、 c = 0とすることは、平均がゼロになることを意味します。
差異は
- $$ {\textrm{var}(X_t)=E(X_t^2)-\mu^2=\frac{\sigma^2}{1-\varphi^2}.} $$
自己共分散関数は次のように与えられます。
- $$ {B_n=E(X_{t+n}X_t)-\mu^2=\frac{\sigma^2}{1-\varphi^2}\,\,\varphi^{|n|}.} $$
自己共分散関数が次の割合で減少することがわかります。
パワースペクトル密度は、自己共分散関数のフーリエ変換です。離散的な場合、これは次のように書かれます。
- $$ {\Phi(\omega)= \frac{1}{\sqrt{2\pi}}\,\sum_{n=-\infty}^\infty B_n e^{-i\omega n} =\frac{1}{\sqrt{2\pi}}\,\left(\frac{\sigma^2}{1+\varphi^2-2\varphi\cos(\omega)}\right). } $$
分母にコサイン項が存在するため、この展開は周期的です。サンプリング時間( Δt = 1 ) が減衰時間( τ ) より小さいと仮定すると、 Bnの連続近似を使用できます。
- $$ {B(t)\approx \frac{\sigma^2}{1-\varphi^2}\,\,\varphi^{|t|}} $$
これはスペクトル密度のローレンツ形式を示します。
- $$ {\Phi(\omega)= \frac{1}{\sqrt{2\pi}}\,\frac{\sigma^2}{1-\varphi^2}\,\frac{\gamma}{\pi(\gamma^2+\omega^2)}} $$
ここで、 γ = 1 / τ は、 τに関連付けられた角周波数です。
X tの別の式は、以下を代入することで導出されます。
- $$ {X_t=c\sum_{k=0}^{N-1}\varphi^k+\varphi^NX_{t-N}+\sum_{k=0}^{N-1}\varphi^k\varepsilon_{t-k}.} $$
N が非常に大きくなると、
- $$ {X_t=\frac{c}{1-\varphi}+\sum_{k=0}^\infty\varphi^k\varepsilon_{t-k}.} $$
X t は原子核と畳み込まれたホワイト ノイズであることがわかります。
ARパラメータの推定
AR( p ) モデルは次のように与えられます。
- $$ { X_t = \sum_{i=1}^p \varphi_i X_{t-i}+ \varepsilon_t.\,} $$
推定するパラメータは次のとおりです。
- $$ { \gamma_m = \sum_{k=1}^p \varphi_k \gamma_{m-k} + \sigma_\varepsilon^2\delta_m } $$
ここで、 m = 0, …, p 、これはすべてのp + 1 方程式で得られます。係数γ m はXの自己相関関数です。
m = 0 の場合、方程式の最後の部分はゼロ以外になります。 m > 0 をとると、前の式は行列システムとして記述されます。
- $$ {\begin{bmatrix} \gamma_1 \\ \gamma_2 \\ \gamma_3 \\ \vdots \\ \end{bmatrix} = \begin{bmatrix} \gamma_0 & \gamma_{-1} & \gamma_{-2} & \dots \\ \gamma_1 & \gamma_0 & \gamma_{-1} & \dots \\ \gamma_2 & \gamma_{1} & \gamma_{0} & \dots \\ \vdots & \vdots & \vdots & \ddots \\ \end{bmatrix} \begin{bmatrix} \varphi_{1} \\ \varphi_{2} \\ \varphi_{3} \\ \vdots \\ \end{bmatrix} } $$
m = 0 の場合、次のようになります。
- $$ { \gamma_0 = \sum_{k=1}^p \varphi_k \gamma_{-k} + \sigma_\varepsilon^2 } $$
これにより、見つけることができます
ユール ウォーカー方程式は、理論上の共分散を推定値に置き換えることにより、モデル パラメーター AR( p ) を推定する手段を提供します。これらの値を取得する 1 つの方法は、最初のpラグに関するX tの線形回帰を考慮することです。

ユール・ウォーカー方程式の取得
AR プロセスの定義式は次のとおりです。
- $$ { X_t = \sum_{i=1}^p \varphi_i\,X_{t-i}+ \varepsilon_t.\,} $$
両辺にX t − mを掛けて期待値を取ると、次のようになります。
- $$ {E[X_t X_{t-m}] = E\left[\sum_{i=1}^p \varphi_i\,X_{t-i} X_{t-m}\right]+ E[\varepsilon_t X_{t-m}].} $$
さて、自己相関関数の定義により、E[ X t X t − m ] = γ mであることがわかります。ホワイト ノイズ項は互いに独立しており、さらに、 X t − mはε tから独立しています。ここで、 m は0より大きくなります。 m > 0 の場合、E[ε t X t − m ] = 0。m = 0 の場合、
- $$ {E[\varepsilon_t X_{t}] = E\left[\varepsilon_t \left(\sum_{i=1}^p \varphi_i\,X_{t-i}+ \varepsilon_t\right)\right] = \sum_{i=1}^p \varphi_i\, E[\varepsilon_t\,X_{t-i}] + E[\varepsilon_t^2] = 0 + \sigma_\varepsilon^2, } $$
さて、 m ≥ 0 の場合、
- $$ {\gamma_m = E\left[\sum_{i=1}^p \varphi_i\,X_{t-i} X_{t-m}\right] + \sigma_\varepsilon^2 \delta_m.} $$
さらに、
- $$ {E\left[\sum_{i=1}^p \varphi_i\,X_{t-i} X_{t-m}\right] = \sum_{i=1}^p \varphi_i\,E[X_{t} X_{t-m+i}] = \sum_{i=1}^p \varphi_i\,\gamma_{m-i}, } $$
これにより、ユール・ウォーカー方程式が得られます。
- $$ {\gamma_m = \sum_{i=1}^p \varphi_i \gamma_{m-i} + \sigma_\varepsilon^2 \delta_m.} $$
m ≥ 0 の場合。m < 0 の場合、
- $$ {\gamma_m = \gamma_{-m} = \sum_{i=1}^p \varphi_i \gamma_{|m|-i} + \sigma_\varepsilon^2 \delta_m.} $$
