アルマ – 定義

導入

統計学では、 ARMAモデル (自己回帰モデルおよび移動平均モデル)、またはBox-Jenkins モデルが主要な時系列モデルです。

時系列X tが与えられた場合、 ARMAモデルは、この系列の将来の値を理解し、場合によっては予測するためのツールです。モデルは、自己回帰部分 (AR) と移動平均部分 (MA) の 2 つの部分で構成されます。モデルは一般に ARMA( p , q ) で表されます。ここで、 p はAR 部分の次数、 q はMA 部分の次数です。

アルマ - 定義

自己回帰モデル

AR( p ) という表記は、次数pの自己回帰モデルを指します。 AR( p ) モデルに注目

$$ { X_t = c + \sum_{i=1}^p \varphi_i X_{t-i}+ \varepsilon_t .\,} $$

または

$$ {\varphi_1, \ldots, \varphi_p} $$
はモデルパラメータであり、定数であり
$$ {\varepsilon_t} $$
ホワイトノイズ。定数は文献では省略されることがよくあります。

定常性を保証するには、パラメータに対する追加の制約が必要です。たとえば、AR(1) モデルの場合、次のようなプロセスが実行されます。 φ1 | ≥ 1 は静止していません。

アルマ - 定義

例: AR(1) プロセス

AR(1) モデルは次のように与えられます。

$$ {X_t = c + \varphi X_{t-1}+\varepsilon_t,\,} $$

または

$$ {\varepsilon_t} $$
は、ゼロ平均分散σ 2 を持つホワイト ノイズです。次の場合、モデルは分散定常です。
$$ {|\varphi|<1} $$
。もし
$$ {\varphi=1} $$
の場合、プロセスは単位を示します。これは、それがランダム ウォークであり、分散が定常ではないことを意味します。それで、仮定してください
$$ {|\varphi|<1} $$
、平均μに注目すると、次のようになります。

$$ {\mbox{E}(X_t)=\mbox{E}(c)+\varphi\mbox{E}(X_{t-1})+\mbox{E}(\varepsilon_t)\Rightarrow \mu=c+\varphi\mu+0.} $$

それで

$$ {\mu=\frac{c}{1-\varphi}.} $$

特に、 c = 0とすることは、平均がゼロになることを意味します。

差異は

$$ {\textrm{var}(X_t)=E(X_t^2)-\mu^2=\frac{\sigma^2}{1-\varphi^2}.} $$

自己共分散関数は次のように与えられます。

$$ {B_n=E(X_{t+n}X_t)-\mu^2=\frac{\sigma^2}{1-\varphi^2}\,\,\varphi^{|n|}.} $$

自己共分散関数が次の割合で減少することがわかります。

$$ {\tau=-1/\ln(\varphi)} $$

パワースペクトル密度は、自己共分散関数のフーリエ変換です。離散的な場合、これは次のように書かれます。

$$ {\Phi(\omega)= \frac{1}{\sqrt{2\pi}}\,\sum_{n=-\infty}^\infty B_n e^{-i\omega n} =\frac{1}{\sqrt{2\pi}}\,\left(\frac{\sigma^2}{1+\varphi^2-2\varphi\cos(\omega)}\right). } $$

分母にコサイン項が存在するため、この展開は周期的です。サンプリング時間( Δt = 1 ) が減衰時間( τ ) より小さいと仮定すると、 Bn連続近似を使用できます。

$$ {B(t)\approx \frac{\sigma^2}{1-\varphi^2}\,\,\varphi^{|t|}} $$

これはスペクトル密度のローレンツ形式を示します。

$$ {\Phi(\omega)= \frac{1}{\sqrt{2\pi}}\,\frac{\sigma^2}{1-\varphi^2}\,\frac{\gamma}{\pi(\gamma^2+\omega^2)}} $$

ここで、 γ = 1 / τ は、 τに関連付けられた角周波数です。

X tの別の式は、以下を代入することで導出されます

$$ {c+\varphi X_{t-2}+\varepsilon_{t-1}} $$
定義式では。この操作をN回続けると、

$$ {X_t=c\sum_{k=0}^{N-1}\varphi^k+\varphi^NX_{t-N}+\sum_{k=0}^{N-1}\varphi^k\varepsilon_{t-k}.} $$

N が非常に大きくなると、

$$ {\varphi^N} $$
0 に近づき、次のようになります。

$$ {X_t=\frac{c}{1-\varphi}+\sum_{k=0}^\infty\varphi^k\varepsilon_{t-k}.} $$

X t は原子核と畳み込まれたホワイト ノイズであることがわかります。

$$ {\varphi^k} $$
一定の平均を加えます。ホワイト ノイズがガウスの場合、 X tも通常のプロセスです。他の場合には、中心極限定理は、次の場合にX tがほぼ正規になることを示します。
$$ {\varphi} $$
統一に近いです。

ARパラメータの推定

AR( p ) モデルは次のように与えられます。

$$ { X_t = \sum_{i=1}^p \varphi_i X_{t-i}+ \varepsilon_t.\,} $$

推定するパラメータは次のとおりです。

$$ {\varphi_i} $$
ここで、 i = 1, …, p です。これらのパラメーターと共分散関数 (したがって自己相関) の間には直接の対応関係があり、これらの関係を反転することでパラメーターを導き出すことができます。これらはユール・ウォーカー方程式です:

$$ { \gamma_m = \sum_{k=1}^p \varphi_k \gamma_{m-k} + \sigma_\varepsilon^2\delta_m } $$

ここで、 m = 0, …, p 、これはすべてのp + 1 方程式で得られます。係数γ m はXの自己相関関数です。

$$ {\sigma_\varepsilon} $$
はホワイトノイズの偏差(標準偏差)、δ m はクロネッカー記号です。

m = 0 の場合、方程式の最後の部分はゼロ以外になります。 m > 0 をとると、前の式は行列システムとして記述されます。

$$ {\begin{bmatrix} \gamma_1 \\ \gamma_2 \\ \gamma_3 \\ \vdots \\ \end{bmatrix} = \begin{bmatrix} \gamma_0 & \gamma_{-1} & \gamma_{-2} & \dots \\ \gamma_1 & \gamma_0 & \gamma_{-1} & \dots \\ \gamma_2 & \gamma_{1} & \gamma_{0} & \dots \\ \vdots & \vdots & \vdots & \ddots \\ \end{bmatrix} \begin{bmatrix} \varphi_{1} \\ \varphi_{2} \\ \varphi_{3} \\ \vdots \\ \end{bmatrix} } $$

m = 0 の場合、次のようになります。

$$ { \gamma_0 = \sum_{k=1}^p \varphi_k \gamma_{-k} + \sigma_\varepsilon^2 } $$

これにより、見つけることができます

$$ {\sigma_\varepsilon^2} $$

ユール ウォーカー方程式は、理論上の共分散を推定値に置き換えることにより、モデル パラメーター AR( p ) を推定する手段を提供します。これらの値を取得する 1 つの方法は、最初のpラグに関するX t線形回帰を考慮することです。

アルマ - 定義

ユール・ウォーカー方程式の取得

AR プロセスの定義式は次のとおりです。

$$ { X_t = \sum_{i=1}^p \varphi_i\,X_{t-i}+ \varepsilon_t.\,} $$

両辺にX tmを掛けて期待値を取ると、次のようになります。

$$ {E[X_t X_{t-m}] = E\left[\sum_{i=1}^p \varphi_i\,X_{t-i} X_{t-m}\right]+ E[\varepsilon_t X_{t-m}].} $$

さて、自己相関関数の定義により、E[ X t X tm ] = γ mであることがわかります。ホワイト ノイズ項は互いに独立しており、さらに、 X tmε tから独立しています。ここで、 m は0より大きくなります。 m > 0 の場合、E[ε t X tm ] = 0。m = 0 の場合、

$$ {E[\varepsilon_t X_{t}] = E\left[\varepsilon_t \left(\sum_{i=1}^p \varphi_i\,X_{t-i}+ \varepsilon_t\right)\right] = \sum_{i=1}^p \varphi_i\, E[\varepsilon_t\,X_{t-i}] + E[\varepsilon_t^2] = 0 + \sigma_\varepsilon^2, } $$

さて、 m ≥ 0 の場合、

$$ {\gamma_m = E\left[\sum_{i=1}^p \varphi_i\,X_{t-i} X_{t-m}\right] + \sigma_\varepsilon^2 \delta_m.} $$

さらに、

$$ {E\left[\sum_{i=1}^p \varphi_i\,X_{t-i} X_{t-m}\right] = \sum_{i=1}^p \varphi_i\,E[X_{t} X_{t-m+i}] = \sum_{i=1}^p \varphi_i\,\gamma_{m-i}, } $$

これにより、ユール・ウォーカー方程式が得られます。

$$ {\gamma_m = \sum_{i=1}^p \varphi_i \gamma_{m-i} + \sigma_\varepsilon^2 \delta_m.} $$

m ≥ 0 の場合。m < 0 の場合、

$$ {\gamma_m = \gamma_{-m} = \sum_{i=1}^p \varphi_i \gamma_{|m|-i} + \sigma_\varepsilon^2 \delta_m.} $$
  1. Arma – cebuano
  2. Arma – tchèque
  3. Arma – allemand
  4. Arma – anglais
  5. Arma (desambiguación) – espagnol
  6. Arma (argipen) – basque

アルマ – 定義・関連動画

サイエンス・ハブ

知識の扉を開け、世界を変える。